Deutschlands Abstieg vom Weltwirtschaftsniveau

Die wohl erfolgreichste deutsche Po­litikerin ist derzeit Christine Lagar­de. Als französische Finanzministe­rin hatte die jetzige IWF-Chefin Deutschland wegen der hohen Ex­portüberschüsse getadelt. Daraufhin hat die Bundesregierung sofort ener­gische Maßnahmen ergriffen, um diese Überschüsse kurz-, aber auch insbesondere mittelfristig zu redu­zieren. Mit dem Moratorium für acht Kernkraftwerke in Deutschland wür­de deutscher Stromexport von rund 3000 bis 4000 Megawatt (MW) er­setzt durch Stromimporte in Höhe von rund 3 000 MW. Das verändert die deutsche Zahlungsbilanz konso­lidiert um rund 3 Mrd. Euro pro Jahr, ein schöner Erfolg.
Mit dem Energiewendepaket wer­den die Belastungen der deutschen Wirtschaft deutlich zunehmen, Ar­beitsplätze werden verloren gehen, Investitionen werden am deutschen Standort nicht getätigt. Die Export­überschüsse werden demgemäß in den nächsten zehn Jahren weiter re­duziert. Gegenüber dem Papier der Energiewende ist ein Scherbenhau­fen ein Muster an stringenter Archi­tektur und purer Ästhetik. …..

Kopflose politische Führung

Wie konnte es dazu kommen? Wie jedermann weiß, ist das Risiko für Erdbeben der Stufe 9 und das Risiko eines Tsunamis in Deutschland äu­ßerst gering. Die Reaktion der deut­schen Regierung hat demgemäß mit Rationalität nichts mehr zu tun, es handelt sich um eine rein emotio­nale Entscheidung. Man fragt sich, ob es in der ganzen Regierung denn nicht eine einzige Persönlichkeit gibt, die für etwas mehr Überlegung plädiert und für einen rationalen Entscheidungsprozess in Berlin sorgt. Auch wenn angeblich der größte Teil der Bevölkerung nach Fukushima einen Ausstieg befürwor­tet, muss man doch von der Politik Führung und nicht Kopflosigkeit verlangen.
….

….Lagarde bekommt recht

In Baden-Würtemberg sieht die Sa­che anders aus, weil die Aktionäre EnBW zu solchen unwirtschaftli­chen Investitionen zwingen können. Darüber wird auch im Südwesten bereits hinter vorgehaltener Hand gesprochen. Unterstellen wir ein­mal, in Bayern und Baden-Würtem­berg werden ausreichend Kapazitä­ten an Gasgrundlaststrom gebaut. Wer braucht dann noch den Netz­ausbau von Nord nach Süd? Nord­deutschland steht dann mit der nicht abgesicherten Windkraftkapazität allein.
Wohin man auch sieht: ein pla­nender Staat ohne Werkzeuge, seine Planung auch zu realisieren! Dass es teuer wird, steht fest, "Erst gehen die Hütten", sagt ein renommierter Energieberater. "Dann gehen die Schmieden, die Pressen, – alles mit­telständische Betriebe – dann geht der Edelstahl, Teile der Chemie wer­den folgen". Das hat im Gegensatz zu seinen Mitgliedsfirmen der derzeiti­ge Präsident des Chemieverbandes VCI noch nicht begriffen.
Das Programm von Christine La­garde nimmt also Fahrt auf. Die In­vestitionen in Deutschland gehen zurück, die Arbeitslosigkeit steigt, die Exportüberschüsse verschwin­den. Kanzlerin Merkel hat die Ener­giewende als eine Herkulesarbeit be­zeichnet. Aber Herkules hatte über­menschliche Kräfte. Das kann man von Angela Merkel und ihrem Leichtmatrosen Norbert Röttgen wirklich nicht behaupten.
Max Dietrich Kley
Mitglied des Auf­sichtsrats der BASF SE 
Den gesamten Beitrag können Sie als pdf im Anhang herunter laden

Related Files




Zu trockener, warmer, sonniger Herbst 2011- Vorbote der „Klimakatastrophe“ oder einfach nur schön?

Erste Behauptung: „Der Herbst 2011 war ungewöhnlich warm.“

Die folgende Tabelle zeigt die 10 wärmsten meteorologischen Herbste und die jeweils 10 wärmsten September, Oktober und November (Monatsmittel) seit 1979 in Erfurt- Bindersleben.

Platz

Herbst °C

September °C

Oktober °C

November °C

1

2006 12,1

1999  17,2

2001  12,3

2009  7,6

2

1982  11,1

1982  17,1

2006 12,0

2006  7,1

3

2000  10,1

2006  17,1

1995  11,7

1982  6,2

4

2005  10,1

1991  15,7

2005  11,0

1994  6,2

5

2009 9,9

2011 15,7

1989  10,9

2000  6,0

6

1999 9,5

2005 15,2

1984  10,4

1986  5,8

7

2011 9,5

1989 14,8

2000  10,4

2003 5,8

8

1989 9,4

1987 14,5

1990  10,2

2002  5,2

9

2001 9,2

2009 14,5

2004  10,2

1992  5,0

10

1987 9,1

1980 14,1

         1982  9,9

1990  4,8

Zum Vergleich: Das langjährige Herbstmittel in Erfurt- Bindersleben beträgt 8,6°C, das für September 13,4°C, das Oktobermittel 8,9°C, das für November 3,5°C. Beim Betrachten der Tabelle fällt auf, dass der Herbst 2011 nicht zu den 5 wärmsten zählte; bei den Einzelmonaten kam nur der September 2011 unter die ersten 10, während der Oktober 2011 mit etwa 9,3°C und der November 2011 mit etwa 3,6°C nur geringfügig zu mild ausfielen. Es sei aber der Vollständigkeit halber noch erwähnt, dass der November 2011 auf den Berggipfeln außergewöhnlich mild ausfiel. Warum gerade dieser Umstand eher ein Hinweis auf das Ausbleiben der „Klimaerwärmung“ sein könnte, dazu später mehr.

Fazit: Der Herbst 2011 war zwar zu warm, völlig „ungewöhnlich“ ist das aber nicht.

Zweite Behauptung: „Es wird immer wärmer.“

Einzelne warme Monate, Jahreszeiten oder Jahre sagen wenig über die langfristige Temperaturentwicklung. Erst über längere Zeiträume von mindestens 25 bis 30 Jahren lassen sich konkrete Aussagen über Trends treffen. Die folgenden Diagramme zeigen die Lineartrends der Herbstmonate in Erfurt seit 1979:

Fazit: Für September und Oktober ist seit 1979 fast kein Temperaturanstieg nachweisbar, während der November deutlich milder wurde. Einen generellen, „katastrophalen“ Temperaturanstieg gab es bisher nicht; der November erwärmte sich, weil milde Südwestlagen häufiger wurden.

Dritte Behauptung: „Der Herbst 2011 war extrem trocken.“

Niederschläge sind noch größeren Schwankungen unterworfen als Lufttemperaturen; unter anderem sind sie auch deshalb so schwer vorherzusagen. Die folgende Tabelle zeigt die 10 trockensten meteorologischen Herbste und die jeweils 10 trockensten September, Oktober und November (Monatssummen) seit 1979 in Erfurt- Bindersleben.

Platz

Herbst mm

September mm

Oktober mm

November mm

1

1991  49mm

1982  9mm

1985  3mm

   2011  0,3mm

2

1985  54mm

1997  11mm

1983  5mm

1986  6mm

3

2011  64mm

1991  16mm

1995  7mm

 1982  12mm

4

1983  68mm

2006  16mm

2007  7mm

1983  16mm

5

1982  76mm

1985  20mm

 2004  11mm

1991  19mm

6

2006 83mm

1996  21mm

1999  12mm

2008  19mm

7

1997  89mm

1992  22mm

1979  13mm

2000  21mm

8

1999  99mm

1988  25mm

1991  14mm

1995  22mm

9

 2004  100mm

1999  25mm

1988  15mm

1997  25mm

10

1990  106mm

2011  28mm

1990  15mm

1993  28mm

1mm Niederschlag entspricht 1 Liter Wasser je Quadratmeter. Im langjährigen Mittel fallen in Erfurt im September etwa 46, im Oktober 34 und im November 44mm, so dass sich eine mittlere Herbstsumme von etwa 124mm ergibt. 2011 erreichte der September mit 28mm Platz 10, der Oktober fiel mit 36mm sogar etwas zu feucht aus, während ein so trockener November wie 2011 fast ohne Niederschlag seit Beginn regelmäßiger Messungen (in Erfurt- Bindersleben seit 1968) noch nicht registriert wurde. Aber erstens kann es viel früher durchaus völlig niederschlagsfreie November gegeben haben, und zweitens waren die November 1953 und 1902 mit etwa 3mm fast genauso trocken. Offenbar lässt die Schwankungsbreite unseres Klimas auch ganz ohne „Klimawandel“ durchaus niederschlagsfreie Herbstmonate zu. So fielen in den Oktobern 1908 und 1943 in Weimar überhaupt keine Niederschläge; und auch der September 1959 war mit nur 1mm nahezu niederschlagsfrei. Der Herbst ist ohnehin niederschlagsärmer als der Sommer, was nicht so recht zu seinem (übrigens unberechtigten) Image als „Schmuddel- Jahreszeit“ passen will. Einerseits enthält die sich abkühlende Herbstluft schon weniger Wasserdampf als im Sommer, und die schwächer werdende Sonneneinstrahlung vermag keine so häufigen und ergiebigen Schauer oder Gewitter wie im Sommer auszulösen. Andererseits treten im Herbst besonders häufig Hochdruckwetterlagen auf (Spät-, Nach- oder Altweibersommer). Im Frühherbst scheint dann meist noch die Sonne, während sich im Oktober und November in feuchter Luft entstehende Nebel- und Hochnebelfelder oft nicht mehr auflösen, aber außer etwas Nebelnässe oder geringem Sprühregen keinen Niederschlag liefern. Seit 1979 waren die Herbste 1991 und 1985 noch trockener als der von 2011.

Fazit: Der Herbst 2011 war deutlich zu trocken; man kann das als seltenen, jedoch keinesfalls als extremsten Fall ansehen, denn auch in der jüngeren und weiteren Vergangenheit gab es immer wieder sehr geringe Niederschlagsmengen im Herbst; und auch völlig niederschlagsfreie Herbstmonate sind schon früher gelegentlich vorgekommen.

Vierte Behauptung: „Es wird immer trockener und extremer.“

Auch hier gilt: Einzelne trockene Monate, Jahreszeiten und Jahre sind kein Indiz für zunehmende Trockenheit oder eine „Radikalisierung“ unseres Klimas. Wie sieht eigentlich der lineare Niederschlagstrend der 3 Herbstmonate seit 1979 aus?

 

 

Fazit: Der Oktober weist fast keinen Niederschlagstrend auf, während September und November tendenziell etwas feuchter wurden. Die Trockenheit im Herbst 2011 konnte diesen Trend nicht beenden. Und schon immer gab es große Schwankungen, welche gerade für die Niederschlagsverhältnisse typisch sind.

Fünfte Behauptung: „Der Herbst 2011 war der sonnigste aller Zeiten.“

Die Sonnenscheindauer (gemessen in Stunden) erhöhte sich seit Ende der 1970er Jahre aufgrund von Luftreinhaltemaßnahmen (weniger Staub und Schwefeltröpfchen) und vermutlich auch wegen der Abnahme der kosmischen Strahlung (aktivere Sonne) sowie Änderung der Großwetterlagen besonders im Frühjahr und im Sommer deutlich; im Herbst fehlen eindeutige Trends. Wie der Herbst 2011 seit 1979 abschneidet, zeigt die folgende Tabelle.

Platz

Herbst (Stunden)

September (Stunden)

Oktober (Stunden)

November (Stunden)

1

487 Jahr 2011

243  Jahr 2006

182 Jahr 2005

116 Jahr 1989

2

481 Jahr 2005

229 Jahr 1997

179 Jahr 1991

116 Jahr 2011

3

455 Jahr 2006

219 Jahr 1982

174 Jahr 1990

95  Jahr 1986

4

434 Jahr 1991

213 Jahr 1999

166 Jahr 2011

86 Jahr 2005

5

409 Jahr 1997

213 Jahr 2005

152 Jahr 2004

85 Jahr 2003

6

402 Jahr 2004

205 Jahr 2011

141 Jahr 1979

85 Jahr 2006

7

391 Jahr 1989

201 Jahr 2004

136 Jahr 1989

78 Jahr 1984

8

380 Jahr 1982

200 Jahr 1991

135 Jahr 2010

73 Jahr 2000

9

376 Jahr 2003

187 Jahr 2003

133 Jahr 1994

72 Jahr 1982

10

373 Jahr 1986

172 Jahr 1985

      133 Jahr 2001

68 Jahr 1983

Anmerkung: Die Messung der Sonnenscheindauer ist noch stärker als die ebenfalls fehlerbehafteten Niederschlags- und Temperaturmessungen von zufälligen, systematischen oder groben Messfehlern verfälscht; mitunter kommt es auch zum Komplettausfall von Messgeräten, so dass die Sonnenscheindauer bei einzelnen Monaten um wenige Stunden höher sein kann, als hier angegeben. Im Laufe des Herbstes schwindet der direkte Einfluss der Sonne auf die Monatstemperaturen. Während im noch relativ strahlungsreichen September der sonnigste Monat einer der wärmsten war (2006), „landete“ der wärmste Oktober (2001) gerade noch auf Platz 10, und der mildeste November (2009) war mit 60 Sonnenstunden nur Mittelmaß außerhalb dieser Tabelle.

Fazit: Der Herbst 2011 war tatsächlich der sonnigste seit mehr als 3 Jahrzehnten. Auch hier lässt sich aber nicht ausschließen, dass es in der ferneren Vergangenheit noch etwas sonnigere Herbste gegeben hat, so dass das Prädikat „sonnigster Herbst aller Zeiten“ besser vermieden werden sollte. Bei langanhaltenden Hochdruckwetterlagen zwischen September und November ist es durchaus denkbar, dass unter noch günstigeren Bedingungen als 2011 (andauernde Föhneffekte durch Süd- und Südwestwind, sehr trockene Luftmassen) auch einmal die „magische“ Grenze von 500 Sonnenstunden in Erfurt erreicht oder gar leicht überschritten wird.

Ursachen und Besonderheiten der Herbstwitterung 2011

Im Spätsommer/Frühherbst dominierte anfangs die für Mitteleuropa typische wechselhafte Witterung, wenngleich auf zeitweise sehr hohem Temperaturniveau. Der heißeste Tag des Jahres trat bemerkenswert spät ein, nämlich erst am 26. August. Dabei wurden in Erfurt und Weimar Maxima um 33°C gemessen, während am 27. August nach Passage einer Kaltfront kaum noch 16°C erreicht wurden. Im Normalfall ist der heißeste Tag des Jahres zwischen Mitte Juni und Anfang August zu erwarten; ein so später Eintrittstermin kommt selten vor, wenngleich in der letzten Augustdekade gelegentlich noch Höchstwerte nahe oder gar über 30°C auftreten (1989, 1990, 1992, 1995, 1997 und 2001). Danach gab es weitere Hitzewellen mit mehr als 25°C in der ersten Septemberhälfte und Anfang Oktober; allerdings wurden in der 3. Septemberdekade 1982 in Erfurt mehr als 30°C erreicht. Im Oktober sind derart hochsommerliche Werte zwar selten, doch gab es auch in der Vergangenheit in diesem an sich schon sehr kühlen Monat durchaus an einzelnen Tagen noch Werte von 24 oder gar über 25°C (1985, 1990, 1995, 2004 und 2009). Ausgerechnet zum Weimarer Zwiebelmarkt folgte dann der jähe, für den Oktober aber durchaus typische Temperatursturz, und der erste Frost trat ganz vereinzelt schon um den 09., verbreitet aber dann am 14.10. und damit etwa 1 Woche früher als gewöhnlich, ein. Um den Monatswechsel Oktober/ November gab es einen späten Wärmerückfall mit Maxima nochmals um 18, vereinzelt sogar über 20°C (noch etwas wärmer war es um den 30.10.2005), bevor es sich kontinuierlich abkühlte, so dass Mitte November an 2 Tagen schon leichter Dauerfrost, teils mit Raufrostansatz an Bäumen, herrschte. Während es bis Mitte September noch gelegentliche, vereinzelt ergiebige Schauer oder Gewitter gab, regnete es im Oktober nur vom 06. bis zum 11. nennenswert und am 12. sehr ergiebig; danach gab es nur noch geringen Regen und im November nur unbedeutenden Sprühregen.

 

 

 

 

Die Diagramme (Quelle: wetteronline.de) zeigen sehr schön den typischen, wenn auch in diesem Jahr verzögerten herbstlichen Temperaturrückgang bei den Maximum- Temperaturen bis hin zu den zwei Dauerfrosttagen am 15. und 16.11. , während bei den Minimum- Werten außer den ab Mitte Oktober häufigen Nachtfrösten auch einige für September sehr laue Nächte mit 16 bis 18°C auffallen. Bei den Werten der relativen Luftfeuchte, welche tendenziell im Laufe des Herbstes immer ansteigen, sind die Schwankungen bis Anfang Oktober aufgrund der in diesem Frühherbst sehr markanten Luftmassenwechsel auffallend groß. Eine erste, längere markante Trockenphase ohne Regen gab es vom 19.09. bis zum 05.10. („Altweibersommer“); und nach Mitte Oktober regnete es praktisch gar nicht mehr. Weil längere „Schlechtwetterphasen“ fehlten, schien die Sonne fast täglich über mehrere Stunden; erst im November blieben mehrere Tage hintereinander wegen Nebel oder Hochnebel völlig trüb. Verursacher dieser beständigen Herbstwitterung sind zahlreiche Hochdruckgebiete. Man erkennt, dass nach Mitte September, also mit Beginn des „Altweibersommers“, das tägliche Luftdruckmittel größtenteils über dem Normalwert von etwa 1013 Hektopascal (hPa, dicke, rote Linie) lag.

Nun ist aber hoher Luftdruck allein noch keine Gewähr für sonniges, mildes Herbstwetter, es kommt ganz wesentlich auf weitere Begleitumstände, besonders die Luftfeuchtigkeit und die Windrichtung, an. Aufgrund seiner Lage am Südrand des Thüringer Beckens im Lee des Thüringer Waldes entstehen in Erfurt bei südlicher bis südwestlicher Windrichtung leichte Föhneffekte. Setzt sich dieser „Föhn“ bis zum Boden durch, heitert es selbst in feuchter Luft oft auf, so geschehen auch am 31.10. Dieser Effekt kann an einzelnen Tagen auch ohne stabiles Hochdruckgebiet auftreten. Allerdings schafft es dieser schwache Föhn Richtung Spätherbst immer seltener, die zähen Nebel- oder Hochnebelfelder zu vertreiben. So war im inneren Thüringer Becken am 31.10. ganztägig dichter Nebel zu beobachten. Erfurt liegt am Rande dieses „innerthüringischen Kaltluftsees“ und wird bei diesen ruhigen Hochdruckwetterlagen häufiger als das nahe, meist etwas sonnigere Weimar vom Nebel erfasst. So herrschte am 31.10. vom Ettersberg aus klare Fernsicht Richtung Weimar, während Erfurt zwar ebenfalls Sonne hatte, aber im Dunst blieb, und Richtung Nordwesten (Sömmerda) waberte dichter Nebel. Weil die Zentren der Hochdruckgebiete meist südlich bis östlich von Mitteleuropa lagen, herrschten günstige südliche Luftströmungen vor. Eine Winddrehung auf Ost bis Nord förderte hingegen vom 07. bis zum 10.11. erstmals über längere Zeit leichte Staueffekte mit Dunst, Nebel und Hochnebel, und erst in trockenerer Luft bei Winddrehung auf Südost heiterte es am 11.11. kurzzeitig und am 12.11. wieder anhaltend auf.

Warum gab es im Herbst 2011 besonders viele Hochdruckwetterlagen? Einerseits sind längere Hochdruckwetterlagen im Herbst durchaus typisch. Unsere Vorfahren ahnten zwar noch nichts von Luftdruck oder Luftdruckmessung, aber sie registrierten die immer wieder auffällige Häufung von Schönwetterperioden im Herbst und verliehen ihnen klangvolle, bis heute gebräuchliche Namen wie „Altweibersommer“ (Ende September/Anfang Oktober), „Mittherbst“ (Mitte Oktober) und „Nach- oder Martinssommer“ (Ende Oktober bis Mitte November). Die beginnende Abkühlung des Festlands begünstigt die Entstehung und den längeren Verbleib der Hochdruckgebiete über dem Kontinent. Weil die Luftschichtung stabiler wird, vergrößert sich die Erhaltungsneigung solcher Hochdrucklagen. Andererseits begünstigten Besonderheiten der allgemeinen Zirkulation eine beständige Witterung, denn in höheren Luftschichten befand sich im Herbst 2011 über Europa oftmals ein langwelliger Hochdruckkeil. Je langwelliger ein solcher Keil ist, desto langsamer verlagert er sich (ROSSBY- Gleichung). Solche „Höhenkeile“ sind außerdem mit hochreichend warmer Luft angefüllt, die sich besonders an der Westflanke mit einer südlichen Strömung bis zum Boden durchsetzen kann. Intensive Tiefdruckgebiete über dem Ostatlantik, West- und Südwesteuropa (dort gab es teilweise starke Niederschläge) begünstigten durch Warmluftzufuhr auf ihrer Vorderseite den Aufbau und die häufige Regeneration des langwelligen europäischen Höhenkeils. Möglicherweise wurde diese rege Tiefdrucktätigkeit durch die Einbeziehung ehemaliger tropischer Wirbelstürme noch erheblich forciert. So lenkte das Tief „Ex- Irene“ am 03./04.09. verstärkt Warmluft nach Mitteleuropa, und „Ex- Maria“ machte nach seinem Abzug Richtung Nordosteuropa ab dem 23.09. den Weg für den Altweibersommer endgültig frei.

Der Herbst 2011- ein Vorbote der „Klimakatastrophe“?

 Wie schon dargelegt, war der vergangene Herbst trotz überdurchschnittlicher Sonnenscheindauer, Trockenheit und Wärme keinesfalls außergewöhnlich; das „normale“ Klima lässt solche Schwankungen durchaus zu. Die im letzen Viertel des 20. Jahrhunderts eingetretene leichte Erwärmung wird auf den steigenden CO2- Gehalt der Atmosphäre zurückgeführt. Da der CO2- Gehalt kräftig weiter steigt, soll sich die Erwärmung beschleunigt fortsetzen. Es häufen sich jedoch kritische Stimmen zu diesen Prognosen, zumal es bei einer Verdopplung der CO2- Konzentration nur zu einer Temperaturerhöhung um 1K kommen kann, so bei LINDZEN & CHOI (2009) 0,95K, bei DIETZE (2007) 0,7K, beim IPCC („Weltklimarat“) (2007) 1,2K und bei LINK/LÜDECKE (2011) 1,1K, angegeben. Und ob sich diese an sich geringe Erwärmung durch sogenannte „positive Rückkopplungen“, beispielsweise über eine vermehrte Freisetzung von Wasserdampf oder Methan, verstärkt, ist zweifelhaft, denn es mehren sich Hinweise, dass im Klimasystem negative Rückkopplungen dominieren, welche die Erwärmung abbremsen, was auch die lange Klimageschichte unseres Planeten nahelegt. Häufig wird auch der Einfluss der Sonnenaktivität auf das Klima unterschätzt. Neuere Forschungsergebnisse, unter anderem von HENRIK SVENSMARK, decken Einflüsse der Stärke des solaren Magnetfeldes und des „Sonnenwindes“ auf die Intensität der die unteren Luftschichten erreichenden Kosmischen Strahlung auf, was wiederum die Wolkenbildung beeinflusst. Möglicherweise verringerte die im Herbst 2011 stark zunehmende Sonnenaktivität die Intensität der Kosmischen Strahlung, was die Bildung tiefer Wolkenfelder erschwert und Aufheiterungsphasen begünstigt hat. Wie bereits dargelegt, weisen 2 der 3 Herbstmonate zumindest in Erfurt bislang praktisch keinen Erwärmungstrend auf. Und auch die Abkühlung der Luft funktioniert trotz steigender CO2- Werte normal. Im November sammelte sich nämlich die durch starke Abkühlung entstandene Kaltluft im Thüringer Becken an, was zu kräftigen Inversionen (Temperaturumkehrungen) von mehr als 10K führte. Das Tagesmaximum betrug am 15.11. in Erfurt- Bindersleben frostige minus 1,7°C, während auf dem Rennsteig +10,5°C gemessen wurden. Der Mitteldeutsche Rundfunk (MDR) meldete am 14.11. für Mühlhausen am Westrand des Thüringer Beckens Frühtemperaturen von minus 6°C, während es gleichzeitig auf der Schmücke am Rennsteig mit +6°C mild war. Am selben Tag stieg die Temperatur in Oberhof am Rennsteig auf frühlingshafte +12°C, hingegen wurden in Dachwig nördlich von Erfurt nur 0°C erreicht. Am 15.11. wurden in Mühlhausen sogar minus 7°C gemessen, am Kleinen Inselsberg jedoch +5°C. Es gibt daher lediglich eine mögliche Erklärung, wie CO2 das hiesige Klima maßgeblich beeinflussen könnte. Kohlendioxid ist kein Gift, sondern essentiell für die Photosynthese der Pflanzen. Welche Rolle die stetige Zunahme des atmosphärischen CO2 auf die Zusammensetzung der Flora und die Pflanzenökologie hat, bedarf weiterer Forschungen. Da CO2 ein Mangelnährstoff mit gegenwärtig nur knapp 0,04% Volumenanteil in der Atmosphäre ist, optimal aber nach Angaben aus der Fachliteratur (WERNER KÖSTER, 2009) beispielsweise für den Winterweizen 0,12% wären und eine CO2- Begasung in Gewächshäusern die Erträge stark steigert, ist anzunehmen, dass sich die Biomasseproduktion durch mehr CO2 insgesamt bereits deutlich erhöht hat und sie weiter steigen wird. Fachleute rechnen mit landwirtschaftlichen Ertragssteigerungen um 30 bis 70% je 100ppm CO2- Zunahme. Allerdings reagieren einzelne Pflanzenarten sehr unterschiedlich auf steigende CO2- Konzentrationen; so sollen Lärchen deutlichere Zuwachsraten als Kiefern aufweisen. Eine bessere Versorgung mit CO2 führt zur effektiveren Nutzung der übrigen Ressourcen durch die Pflanze. Daher wird zur Bildung der gleichen Menge pflanzlicher Trockenmasse auch weniger Wasser benötigt. Die Pflanzen bilden bei höheren CO2- Konzentrationen weniger Spaltöffnungen (Stomata) und geben weniger Wasserdampf pro erzeugtem Kilogramm pflanzlicher Trockenmasse an die Atmosphäre ab. Während aber junge Bäume und Kulturpflanzen bei ausreichender Wasserversorgung mit mehr und schnellerer Biomassebildung reagieren und das vorhandene Bodenwasser dafür voll ausnutzen, können ausgewachsene Wälder nicht mehr Biomasse bilden. Sie benötigen aber für ihren Lebenserhalt bei steigenden CO2- Konzentrationen weniger Wasser und geben folglich weniger Wasserdampf an die Luft ab. Wasserdampf ist jedoch ein sehr wirksames „Treibhausgas“. Einfacher ausgedrückt: Die Vegetation bremst den Erwärmungseffekt durch CO2 möglicherweise indirekt. Da weniger Verdunstung durch alte Bäume weniger Kühlung bedeutet, wird es in Bodennähe zwar etwas wärmer; allerdings vermindert sich der Wärmetransport mittels Wasserdampf in die Luft, so dass der Gesamtwärmeinhalt der Atmosphäre konstant bleibt. Diese geringere Wasserdampfabgabe durch die Vegetation könnte neben der Sonnenaktivität, der Minderung des Staubgehalts der Atmosphäre durch Luftreinhaltemaßnahmen und der fortschreitenden Bebauung mit verantwortlich für die gegenwärtig in Mitteleuropa beobachteten Klimaverschiebungen (erhöhte Sonnenscheindauer, mehr Wärme und Dürre besonders in der ersten Jahreshälfte, Zunahme von Spät- und Frühfrösten, raschere Abkühlung im Herbst) sein. So könnten auch die relativ frühen Fröste trotz insgesamt warmer Herbstwitterung 2011 durch diesen Mechanismus begünstigt worden sein. Ob sich diese Hypothese eines Zusammenhangs zwischen CO2, Assimilation der Pflanzen und Klima aber bestätigen lässt, müssen künftige, langwierige Forschungen zeigen.

Phänologische Beobachtungen im Herbst 2011

Fast alle Gehölze, egal ob Wild- oder Kulturformen, fruchteten trotz der Anfang Mai aufgetretenen Spätfröste reich bis überreich. Sie reiften allerdings wegen der viel zu zeitigen Blüte 2 bis 3 Wochen vorzeitig. Daher war die Ernte der Pflaumen und Mirabellen mit Beginn des meteorologischen Herbstes schon fast abgeschlossen. Das Kernobst wies eine gute Qualität (wenig Schorfbefall und durch den sonnigen September hohe Fruchtzuckergehalte) auf. Ein erster Herbststurm schüttelte am 06.10. reichlich Walnüsse von den Bäumen; frühe Sorten waren bereits Mitte September reif. Bei Zuckerrüben wurden stellenweise Rekorderträge und mit bis zu 18% Zuckergehalt eine sehr gute Qualität erzielt; auch bei Kartoffeln und Silomais lagen die Erträge meist über dem Durchschnitt, und die trockene Witterung erleichterte die Erntearbeiten. Während der Winterraps dank der Niederschläge im Spätsommer zügig auflief, verzögerte die zunehmende Trockenheit stellenweise die Keimung des Winterweizens. Anfang Oktober ließ die Trockenheit auf flachgründigen Böden erste Rapspflanzen welken. Die Waldböden waren übersät mit Eicheln und Bucheckern. Vereinzelt blühten Forsythien und Wildrosen erneut, und in manchen Gärten konnte man noch im November blühende Rosen und auf den Feldern oder Wiesen blühende Wildkräuter finden. Die Laubfärbung verzögerte sich, weil im September die dafür nötigen Kältereize fehlten. Anfang Oktober waren nur an wenigen Trockenhängen über Keuper oder Muschelkalk schöne Färbungsaspekte bei Süß- und Wildkirschen, Ahornen, Hartriegel, Schlehen und Weißdornen zu beobachten. Außerdem hatte der feuchte Sommer Blattkrankheiten wie Mehltau oder Sternrußtau begünstigt, was die Färbung der sonst oft auffälligen Ahorn- Arten beeinträchtigte. Dafür bewirkten die leichten Fröste Mitte Oktober in Kombination mit viel Sonne und einem Wärmerückfall um den 31.10. eine leuchtende, teils grellrote Färbung bei Wild- und Süßkirschen, teilweise auch bei Birnen und Wildrosen. Bei den milden Temperaturen flogen noch um den 31.10. Bienen und Schmetterlinge. Während es im Thüringer Wald und in Südthüringen teilweise eine regelrechte Pilzschwemme gab, fand man in Nordthüringen und im Thüringer Becken kaum Pilze. Gera, Ilm und andere Thüringer Flüsse führten Ende November deutlich weniger Wasser als im Sommer. Mit den einsetzenden, reichlichen und häufigen Dezemberniederschlägen normalisierte sich jedoch ihr Wasserstand rasch. Die feuchte und milde Dezemberwitterung förderte die Entwicklung der Wintersaaten, so dass trockenheitsbedingte Rückstände aufgeholt wurden.

Diese Aufnahmen vermitteln zum Abschluss des Beitrags noch ein paar Eindrücke vom „goldenen“ Herbst 2011. Obere Reihe: Flacher Morgennebel bei Sättelstädt, 24.09. Darunter links Dunst und Morgennebel an den Vorbergen des Thüringer Waldes, 29.09. Rechts daneben „schwebende“ Schornsteine im berüchtigten Saaletal- Nebel bei Jena, 20.09. Mitte unten flacher Morgennebel im Wippertal bei Sondershausen, 14.10. Unterste Reihe knallbunter Spätherbst mit voll ausgefärbten Kirschen bei Hopfgarten und am Ettersberg bei Weimar, 31.10

Verfasst und zusammengestellt von Gast-Autor Stefan Kämpfe, Weimar, im Dezember 2011.

Den ganzen Beitrag können Sie als pdf Anhang herunterladen.

Related Files




Keine Steuern auf Entwicklung, es tut den Armen weh!

Einer ihrer Testfälle ist die Suche nach einer Beziehung zwischen Größenordnungen globaler Indikatoren. Hier folgt eine Liste der Ergebnisse durch die MIC-Methode:

Abbildung 1: Signifikante Beziehungen, gekennzeichnet durch den maximalen Informationskoeffizienten. Auf herkömmliche Art wird diese Beziehung durch den Pearson-Koeffizienten gemessen.
Der seltsamste Wert in dieser Liste ist der MIC auf Rang drei, die Beziehung zwischen dem Ölverbrauch und dem Einkommen, jeweils pro Person. Mit dem Pearson-Koeffizienten lag diese Beziehung an 207. Stelle, der MIC an 3. Stelle. Das motivierte mich zu einem weiteren Blick auf den Zusammenhang zwischen Energie und Entwicklung.
Um dies zu tun, benutzte ich “Gapminder World”, ein faszinierendes Online-Tool, um Daten zu visualisieren. Abbildung 2 zeigt davon ein Beispiel, und zwar einen Vergleich zwischen mittlerem Energieverbrauch und Einkommen, jeweils pro Kopf. Jedes Land wird in den Diagrammen durch eine „Blase“ symbolisiert.
 
Abbildung 2: Blasendarstellung des Zusammenhangs von Pro-Kopf-Verbrauch von Energie, unterteilt nach Ländern (vertikale Achse) und Einkommen pro Kopf (horizontale Achse). Man beachte, dass beide Achsen logarithmisch sind. Die Größe einer individuellen Blase kennzeichnet die Gesamtenergieerzeugung in diesem Land. Die Farbe der Blasen steht für die Gesamtölproduktion in diesem Land. Der Energieverbrauch wird in Tonnen pro Öläquivalent (TOE) angegeben. Quelle
Wie man erkennen kann, gibt es eine klare und lineare Beziehung zwischen dem Energieverbrauch und dem Einkommen. Dies führt zu einer unerbittlichen Schlussfolgerung: Man kann aus der Armut ohne Zugang zu erschwinglicher Energie nicht heraus kommen. Abbildung 3 unten zeigt die gleichen Daten mit Identifikation der größten Energieproduzenten.

Abbildung 3: Wie Abbildung 2, nur diesmal mit der Kennzeichnung der größten Energieproduzenten  Quelle.
Die Größe der Blasen zeigt, dass China und die USA hinsichtlich der Gesamtenergieerzeugung etwa gleichauf liegen. Russland liegt an dritter, die Saudis an vierter und – überraschend für mich – Indien an fünfter Stelle. Die Farben zeigen, dass für die Russen und die Saudis die meiste Energie aus Öl erzeugt wird (rot), während in China und den USA auch die Kohle eine Hauptquelle dafür ist. Indien gewinnt seine Energie hauptsächlich aus Kohle.
Abbildung 4 (unten) zeigt die gleiche Vergleichskarte zwischen Energie und Einkommen, aber in unterschiedlicher Weise. Die Größe der Blasen in Abbildung 4 zeigt die Energieerzeugung pro Kopf und nicht die gesamte Energieerzeugung. Alle Blasen liegen an der gleichen Stelle, und nur deren Größe hat sich verändert.

Abbildung 4: Wie die oberen beiden, nur das die Größe der Blasen hier für die Energieerzeugung pro Kopf steht. Quelle
Aus den Abbildungen 3 und 4 kann man einige neue Schlussfolgerungen ziehen. Eine lautet, dass man nicht viel Energie erzeugen muss, weder pro Kopf noch insgesamt, um eine moderne, industriell entwickelte Wirtschaft zu haben (die Menge der kleinen Blasen oben rechts). Die Niederlande und Japan sind hierfür Beispiele. Die zweite lautet, wenn man eine hohe Energieerzeugung pro Kopf hat, kommt man leichter zu einem hohen Pro-Kopf-Einkommen (Überlegenheit der großen Blasen oben rechts).
Die Website Gapminder erlaubt uns auch, einen Blick auf die Geschichte der verschiedenen Länder zu werfen. Hier folgt die Entwicklung in einigen Ländern mit der Zeit. Das Niveau, auf dem die Namen der Länder stehen, zeigt jeweils den Beginn der Aufzeichnung.


Abbildungen 5 und 6: Wie in Abbildung 3, jedoch jetzt mit der Entwicklung einiger Länder von 1971 bis 2007. Die Größe der Blasen steht für die Pro-Kopf-Energieerzeugung in diesem Land. Die Farbe der Blasen steht für die Gesamtölproduktion in diesem Land. „Spurlinien“ zeigen die Werte Jahr für Jahr. Beide Skalen sind logarithmisch. Abb. 5  Quelle1, Abb. 6: Quelle2*.
[*Im Original steht in der letzten zeile der Bildunterschrift Fig. 4 bzw. Fig. 5. Dies halte ich für ein Versehen des Autors, da sich ja beides auf die Abbildungen 5 und 6 bezieht. A. d. Übers.]
Einige Bemerkungen zu den historischen Abbildungen. Zunächst wird die Richtung, die Sie für Ihr Land sehen möchten, eine Bewegung nach unten und nach rechts sein. Dies würde für weniger Energieverbrauch und mehr Einkommen stehen. Ganz allgemein bewegt sich jedoch fast kein Land in dieser Richtung.
Die schlechte Richtung wäre nach oben und nach links. Dies stünde für einen größeren Energieverbrauch, um weniger Geld zu verdienen. Hässlich! Die Saudis haben sich während der letzten Jahre in diese Richtung bewegt.
Einige Länder liegen im ungünstigsten Quadranten links unten. Hier wird weniger Energie verbraucht und auch weniger Geld verdient. Zimbabwe und die „demokratische“ Republik Kongo stehen dort. Schlechtes Zeichen! Es bedeutet Rück-Entwicklung und schließt in der Regel ein, dass sowohl die Menschen dort als auch die Umwelt leiden.
Bleibt der vierte Quadrant rechts oben. Hier wird mehr Energie verbraucht und mehr Geld verdient. Gemeinhin nennt man das „Entwicklung“ alias aus der Armut herauskommen. Man verdient genug Geld, um sich den Schutz der Umwelt leisten zu können.
Die Spielregel lautet, sich so weit wie möglich nach rechts (zunehmendes Geld) und sich so wenig wie möglich nach oben (zunehmender Energieverbrauch) zu bewegen. Bangladesh beispielsweise steht nicht so gut da wie Indien, da es sich steiler nach oben bewegt. In den siebziger und achtziger Jahren China war genauso gut wie Indien, aber während des letzten Jahrzehnts der Aufzeichnung ging es steiler nach oben. Man beachte, dass Indien seine Energie hauptsächlich aus Kohle erzeugt.
Russland bewegte sich Anfang der neunziger Jahre nach unten und nach links, hat sich aber seitdem erholt und das Einkommen fast verdoppelt, ohne wesentliche Zunahme des Energie[verbrauchs]. Es ist kurios, dass das Einkommen jetzt auf dem Niveau von 1990 liegt, aber der Energieverbrauch geringer ist. Das Gleiche gilt für Usbekistan und viele andere frühere Mitglieder der Sowjetunion. Zu ihren Gunsten [muss gesagt werden], dass sie sich aus dem Zusammenbruch der Sowjetunion heraus gekämpft haben und zu einer effizienteren Form zurück gekehrt sind. Tatsächlich haben sich die Usbeken während der vergangenen Dekade nach unten und nach rechts bewegt, und das ist der Heilige Gral der Entwicklung, mehr zu produzieren mit weniger Energieverbrauch.
Die armen Saudis andererseits bewegen sich inzwischen fast senkrecht nach oben (sie brauchen mehr Energie, um das gleiche Einkommen zu erzielen) und haben sogar etwas an Boden verloren. Und Senegal hat sich nirgendwohin bewegt.
In Japan, China, Mexiko und Australien hat sich die Pro-Kopf-Energieerzeugung während der Periode erhöht (Blasengröße), während sie in den USA und Russland in etwa gleich geblieben ist. Die Gesamtölproduktion in den USA ist zurück gegangen (Blasenfarbe), während sie in China zugenommen hat. Die russische Ölerzeugung ist erst zurück gegangen, hat sich aber wieder erholt.
In USA und UK tat sich etwas Merkwürdiges. Der Pro-Kopf-Energieverbrauch in beiden Ländern lag jeweils 2007 etwa gleich hoch wie 1979. Aber das Einkommen hat sich erhöht. In beiden Ländern hat sich das Pro-Kopf-Einkommen fast verdoppelt, praktisch ohne jede Erhöhung des Pro-Kopf-Energieverbrauchs. Ich weiß nicht, was sie richtig machen, aber wir sollten es herausfinden und kopieren…
Schlussfolgerungen und –bemerkungen:
1. Entwicklung ist Energie, und Energie ist Entwicklung. Obwohl einem Effizienz und Konservierung helfen können, muss man im Allgemeinen den Energieverbrauch steigern, um das persönliche Einkommen so zu erhöhen, dass man aus der Armut herauskommt. Verteuert man die Energie, ist das erheblich rückschrittlich, da sich die armen Länder und die armen Leute das einfach nicht leisten können. Kohlenstoffsteuern, „Zertifikatehandel“ oder andere Energiesteuern sind ein Verbrechen gegen die weniger begünstigten Bewohner unseres Planeten.
2. Große Länder mit höheren Transportkosten werden pro Dollar Einkommen mehr Energie verbrauchen als kleine Länder.
3. Innerhalb der „Wolke” von Ländern in Abbildung 3 ist es möglich, die Energieeffizienz zu steigern und mehr Geld mit der gleichen Menge verbrauchter Energie zu verdienen.
4. Länder mit hoher Energieerzeugung tendieren dazu, mehr davon zu verschwenden als andere Länder mit geringer Energieerzeugung.
5. Die bevorzugte Stelle für jedes gegebene Einkommensniveau befindet sich am unteren Rand der „Wolke“ der Länder mit diesem Einkommen. Hier bekommen Sie das meiste Geld für Ihre Arbeit. Viele europäische Länder liegen an dieser Stelle. Die USA und Kanada liegen etwa in der Mitte der Wolke. Allerdings sind sie wie erwähnt viel größer als die europäischen Länder.
6. China, Indien und Bangladesh wiesen 1971 in etwa das gleiche Pro-Kopf-Einkommen auf, circa 700 Dollar pro Jahr. Die Unterschiede ihrer jetzigen Position sind groß, hat doch Bangladesh ein solches Einkommen von 1400 Dollar, Indien von 2600 Dollar und China von 6000 Dollar pro Jahr.
7. Leider reichen die Datensätze nur bis 2007… es wäre interessant zu sehen, in welche Richtung sich sowohl der Energieverbrauch als auch das Einkommen im Zuge der globalen Finanzkrise bewegen.
8. Zum Schluss: wenn jemand das Wort „Technologie“ in den Mund nimmt, denken viele Umweltaktivisten sofort an „Bulldozer“. Sie sollten lieber an „Energieeffizienz“ denken! Schließlich leistet Technologie mehr mit weniger. Es ist die Technologie, die es uns gestattet, weniger Benzin pro Meile zu verbrauchen. Durch eine gewisse Kombination von Konservierung und technologischer Fortschritte waren die USA und UK in der Lage, ihr Einkommen bei gleichem Energieverbrauch zu verdoppeln. Von diesem technologischen Fortschritt profitieren sowohl jeder Einzelne als auch die Umwelt.
P.S.: Die Links zu den Quellen unter jeder Abbildung verweisen auf die korrespondierenden Abbildungen auf der Website Gapminder. Dort kann man mit den Variablen spielen oder die Geschichte der Länder verfolgen, die ich hier nicht erwähnt habe.
Weitere Beiträge des Autors: Willis Eschenbach
Link zum Artikel, auf den sich Eschenbach ganz oben bezieht: “Detecting Novel Associations in Large Data Sets
Link: http://wattsupwiththat.com/2011/12/19/dont-tax-development-it-hurts-the-poor/
Übersetzt von Chris Frey für EIKE




Rahmstorfs neue Temperaturstudie nach Strich und Faden auseinandergenommen

Dabei scheinen die Herren die Rechnung ohne den Wirt gemacht zu haben. An der fachlichen Kompetenz klimaskeptischer Blogger beißen sich die Alarmisten nämlich zunehmend die Zähne aus. F&R widersprechen nur scheinbar wohlbegründet der seit 13 Jahren andauernden Stagnierung des Erwärmungstrends, wie sie z.B. die Hadcrut-Daten zeigen (vgl. auch wood4trees):
Lesen Sie den auf WUWT veröffentlichten Artikel, der hier in deutscher Übersetzung folgt:
Zeigen Foster und Rahmstorf den wirklichen Temperaturtrend?
Frank Lansner

Abbildung 1: Foster und Rahmstorf (F&R) haben vor Kurzem ein Schriftstück mit dem Titel „The Real Global Warming Signal“ veröffentlicht. Ich glaube, damit wollen sie das „skeptische“ Argument in Frage stellen, dass die Temperaturen während der letzten Dekade oder noch länger stagniert haben. Da dies ein wesentlicher Bestandteil der Klimadebatte ist, habe ich mich entschlossen zu untersuchen, ob F&R eine vernünftige Berechnung unter Verwendung relevanter Parameter durchgeführt haben.
Die globalen Temperaturen haben dieser Tage einen ziemlich flachen Trend:
 
Abbildung 2: Es ist möglich, bis zum 1. Mai 1997 zurückzugehen und immer noch einen gleichbleibenden Trend in den Temperaturdaten von Hadcrut zu erkennen, daher wird dieser Datensatz als Gegenstand dieses Artikels sein:
Können die Argumente und Berechnungen von F&R tatsächlich einen signifikanten Erwärmungstrend selbst in den Daten von Hadcrut von 1998 bis 2011 erzeugen?
F&R benutzen drei Parameter für ihre Korrekturen, ENSO, AOD (vulkanische atmosphärische Dämmerung [dimming]) und TSI (totale Solarstrahlung).
“Einwand”: Die TSI ist kaum der wesentliche Parameter, wenn es um den solaren Einfluss auf das Erdklima geht.
Angemessener wäre es, so etwas wie „Sonnenaktivität“, „Sonnenfleckenzahl“, „Wolkenbedeckung“, „Magnetismus“ oder „Kosmische Strahlen“ zu verwenden. Die TSI ist weniger relevant und sollte nicht herangezogen werden.
 
Abbildung 3: F&R haben MEI [?] gewählt, um die Auswirkungen von El Nino und La Nina auf die globalen Temperaturen zu repräsentieren. MEI sind die „rohen“ Nina 3,4 SST, die direkt El Nino und La Nina repräsentieren, aber im MEI-Index ist auch der SOI implementiert. Um den am besten geeigneten Parameter zu finden, habe ich den ONI [?] von NOAA, der lediglich der Nina 3,4-Index ist, mit dem MEI auf Temperaturverläufe verglichen, um zu evaluieren, welcher davon bevorzugt werden sollte.
Sowohl Hadcrut als auch RSS passen etwas besser zu dem reinen Nina 3,4-ONI-Index, welcher daher im Folgenden benutzt wird. (Beide Datensätze wurden um 3 Monate verschoben, um die beste Anpassung mit Temperaturvariationen zu erhalten).

Abbildung 4: Nach Anbringung der Korrektur für den Nina 3,4-Index (El Nino + La Nina) ist immer noch kaum ein Trend in den Hadcrut-Daten von 1998 bis 2011 zu erkennen. (Falls man sich für MEI entschieden hat, resultiert das in einem leichten Erwärmungstrend um etwa 0,07 K pro Dekade für die korrigierten Hadcrut-Daten von 1998 bis 2011).
 
Abbildung 5: Dann habe ich den SATO-Datensatz bzgl. Vulkanen skaliert. In den Jahren nach 1998 gibt es nicht wirklich irgendeinen Einfluss von Vulkanen, so dass wir sagen können:
Es gibt keinen Erwärmungstrend in den Hadcrut-Daten nach 1998, selbst wenn man Korrekturen für El Nino/La Nina und Vulkane anbringt.
Jedoch ändert sich dies, wenn man die Sonnenaktivität ins Spiel bringt, wozu ich die Sonnenfleckenzahl SSN gewählt habe, um die Sonnenaktivität zu repräsentieren:
 
Abbildung 6: Um die Skalierung von SSN besser abschätzen zu können, habe ich die mit Nino 3,4 und vulkanisch korrigierten Hadcrut-Daten trendbereinigt und SSN skaliert, bis es am besten passte. Anders als F&R bekomme ich heraus, dass die Variation von SSN etwa bei 0,2 K liegt und nicht 0,1 K, wie F&R zeigen.
Nun sehen Sie, was passiert:

Abbildung 7: F&R beschreiben die Sonnenaktivität („TSI“, wie sie das nennen…) als von geringster Bedeutung in ihren Berechnungen. Jedoch ist es nur die Sonnenaktivität SSN, die dafür sorgt, dass Hadcrut selbst in den Jahren nach 1998 einen Erwärmungstrend zeigen, wenn man sie korrigiert. In Abbildung 7 habe ich die jährlichen Ergebnisse von F&R für Hadcrut geplottet, und sie sind nahezu identisch mit meinen Ergebnissen.
Folglich komme ich zu dem Schluss, dass sich eine geringere Erwärmung durch meine Verwendung von Nino 3,4 verglichen mit dem größeren Einfluss der Sonnenaktivität gegenseitig aufheben.
Argumente:
Bis hier habe ich evaluiert, was F&R getan haben, jetzt wollen wir Alternativen beleuchten:
1) F&R nehmen an, dass eine Temperaturänderung beispielsweise durch El Nino oder durch eine Periode erhöhter Sonnenaktivität unmittelbar nach Ende eines solchen Ereignisses wieder verschwindet. F&R nehmen an, dass sich die Wärme nicht von einem Temperaturereignis zum nächsten ansammelt.
2) Fehlende Korrekturen für die PDO
3) Fehlende Korrekturen für menschliche Aerosole – (Vermutung: Die sind wichtig)
4) Fehlende Korrektur für die AMO
5) F&R hätten die Auswirkungen ihrer Anpassungen vor 1979 erwähnen können.
Punkt 1: F&R nehmen an, dass jedweder Effekt einer kurzen Erwärmung oder Abkühlung sofort nach Ende des Ereignisses komplett wieder verschwindet.
Im Grunde fordert die Vorgehensweise von F&R, dass alle Auswirkungen der drei Parameter, die sie für Korrekturen verwenden, lediglich Augenblickseffekte haben.
Beispiel:

Abbildung 8.
In den oben gezeigten Näherungen werden die Nino 3,4-Spitzen entfernt, und zwar unter der Annahme, dass alle Auswirkungen beispielsweise von einem kurzen, intensiven Wärmeeffekt entfernt werden können, indem man die Wärme lediglich dann entfernt, wenn die Aufheizung stattfindet, aber nicht mehr entfernt werden kann, wenn der Effekt selbst beendet ist.
Um diese Näherung nun zu untersuchen, verglich ich zwei Datensätze. A) Hadcrut-Temperaturen, „korrigiert“ für Nina 3,4 und SSN-Effekte wie oben gezeigt – trendbereinigt. B) Der Nino 3,4-Index, der auf El Ninos/La Ninas und damit die zeitliche Folge der Anpassungen hinweist. (Man erinnere sich, der Nino 3,4 wurde um 3 Monate verschoben, um zu den Temperaturdaten vor der Anpassung zu passen):

Abbildung 9
Nach dem “Entfernen” der durch La Ninas während einer spezifischen El Nino-Periode hervorgerufenen Wärme beispielsweise kann man 1 bis 2 Jahre später in den „Nino 3,4“-korrigierten trendbereinigten Temperaturdaten Wärmespitzen erkennen. Nach den roten Spitzen erkennt man schwarze Spitzen.
Dies bedeutet, dass die Näherung der systematischen Entfernung von Wärme, wenn der Erwärmungseffekt stattfindet, fundamental falsch ist.
Falsch bis zu welchem Ausmaß? Typischerweise zeigt [sich] die für Nina 3,4 korrigierte nicht eliminierte Wärme 1 bis 2 Jahre später als der Wärmeeffekt. Könnte dies einen Einfluss auf dekadische Temperaturtrends haben? Vielleicht: In den meisten Fällen von El Nino-Spitzen erscheint erst die rote Nino 3,4-Spitze und 1 bis 2 Jahre später die verbleibende schwarze Temperaturspitze, die danach abfällt. Aber man beachte, dass normalerweise der Abfall der verbleibenden Wärme (schwarz) dann stattfindet, wenn der rote Nino 3,4-Index anfängt.
Dies lässt vermuten, dass die verbleibende Wärme einer El Nino-Spitze nicht von selbst verschwindet, sondern vielmehr erst dann beseitigt wird, wenn kältere Nino 3,4-Bedingungen einen Abkühlungseffekt induzieren.
Ganz allgemein arbeiten wir mit verrauschten Vulkan- und SSN-korrigierten Daten, so dass es bei jeder Schlussfolgerung einige Situationen gibt, bei denen die „normalen“ Beobachtungen nicht gut erkennbar sind.
Und was passiert nun, wenn man sich auf Perioden konzentriert, in denen der Nino 3,4-Index länger als 2 Jahre neutral ist – keine wesentlichen Spitzen?

Abbildung 10
Jetzt wurde der trendbereinigte Hadcrut-Temperaturdatensatz für Nina 3,4 korrigiert, Vulkane und SSN – schwarze Kurve – und über 2 Jahre gemittelt:
Die Auswirkungen von El Ninos und La Ninas sind immer noch klar erkennbar, und zwar in Daten, die vermeintlich um diese Auswirkungen korrigiert worden waren. Da diese Korrektur von F&R ihre „allerwichtigste“ Korrektur sein soll und scheitert, kann man daraus folgern, dass F&R 2011 fundamental widerlegt und nutzlos ist.
Die Wirklichkeit ist komplex, und F&R haben meist nur die Spitze des Eisbergs gesehen, nicht mehr.
Mehr noch: Man betrachte die Perioden von 1976 bis 1981 und 2002 bis 2007. In beiden Fällen [gab es] einen Zeitraum von einigen Jahren, in denen der Nino 3,4-Index ziemlich neutral war. In diesen Fällen ändert sich das Temperaturniveau nicht besonders stark.
In der Periode von 1976 bis 1981 sorgt La Nina dafür, dass es bis 1977 kalt bleibt und auch noch Jahre später kalt bleibt, in denen Nino 3,4 ziemlich neutral ist. Nach dem El Nino 2003/2004 bleibt der Nino 3,4-Index [ebenfalls] ziemlich neutral, und die Temperatur hält sich einfach auf dem warmen Niveau.
Punkt 2: fehlende Korrektur für die PDO
In einen ziemlich guten im Zusammenhang mit dem ersten Punkt, nämlich dem Ignorieren langzeitlicher Effekte von Temperaturspitzen, erkennen wir keine Erwähnung der PDO.
 
Abbildung 11: Don Easterbrook  vermutet, dass es zu einer generellen Erwärmung kommt, wenn die PDO in der Warmphase ist, und zu einer generellen Abkühlung in ihrer Kaltphase. Das heißt, obwohl [der] PDO-Index konstant und warm bleibt, sollte sich die Wärme über die Jahre eher akkumulieren als nur kurzzeitig strikt in Zusammenhang mit dem PDO-Index eines gegebenen Jahres stehen. Dies steht in voller Übereinstimmung mit den langzeitlichen Effekten von Temperaturspitzen wie unter Punkt 1 gezeigt.
Don Easterbrook schlägt eine Erwärmung um 0,5 K im Zeitraum 1979 vor, und zwar durch den langzeitlichen PDO-Wärmeeffekt. Ich denke, dass dies im Prinzip korrekt ist, ich kann nicht beurteilen, ob der Wert 0,5 K korrekt ist – offensichtlich wird über ihn debattiert – aber sicherlich muss man die langzeitliche Auswirkung der PDO auf die Temperaturen in Zusammenhang mit JEDEM Versuch betrachten, Temperaturdaten zu korrigieren. F&R haben das nicht getan, obwohl die Wärme durch die PDO potentiell ausreicht, den gesamten Erwärmungstrend nach 1979 zu erklären.
Ich möchte Temperaturdaten für den PDO-Effekt analysieren, falls möglich.
 
Abbildung 12: PDO-Daten von http://jisao.washington.edu/pdo/PDO.latest.
Um den PDO-Effekt zu analysieren, müssen wir uns vergegenwärtigen, dass die PDO und Nino 3,4 (nicht überraschend) eine Menge gemeinsam haben. Dies bedeutet, dass ich PDO-Effekte in einem für Nino 3,4 „korrigierten“ Datensatz nicht analysieren kann, weil es bis zu einem gewissen Grad auch für die PDO „korrigiert“ wäre…
Mehr, diese starke Ähnlichkeit zwischen Nino 3,4 und PDO hat seine Konsequenz: Wenn Don Easterbrook sagt, dass [die] PDO einen langzeitlichen Effekt hat, sagt er auch, dass Nino 3,4 einen langzeitlichen Effekt hat – wie ich unter Punkt 1 schon gefolgert hatte.

Abbildung 13: Also arbeite ich mit dem PDO-Signal verglichen mit den für Vulkane und SSN korrigierten Hadcrut-Temperaturen allein. Der generelle Gedanke, dass sich Wärme von einer Periode zur nächsten (langzeitliche Effekte) akkumulieren kann, wird in diesem Vergleich klar gestützt. Falls man erwarten kann, dass die PDO-Wärme (wie jede Wärme!) akkumuliert werden kann, können wir für jede größere PDO-Wärmespitze sehen, dass die Temperatur auf der Erde auf ein konstant höheres Niveau steigt.

Abbildung 14: Beachte: Anfang der sechziger Jahre ist die Korrektur [infolge des] Vulkans Agung höchst fragwürdig, weil verschiedene Datenquellen, die die Auswirkung des Agung betreffen, überhaupt nicht übereinstimmen. Sehr wahrscheinlich habe ich den kühlenden Effekt des Agung über-angepasst. Auf dem obigen Graph vom Mauna Loa wird deutlich, dass man kaum eine Anpassung vornehmen sollte…
Wissenschaftler behaupten oft, dass wir das CO2 in die Modelle einführen MÜSSEN, um den Erwärmungstrend zu erklären. Hier folgen Wärmetrends korrigiert für Vulkane und SSN; und jetzt sehen Sie, wie viel Mathematik man braucht, um den Temperaturanstieg mittels der PDO nach 1980 zu erklären:
 
Abbildung 15: „Mathematik” zur Erklärung des Temperaturtrends mittels PDO. Wegen der Ungewissheit der Daten um 1960 (Agung + fehlende Übereinstimmung mit dem RUTI-Weltindex/unangepasste GHCN-Daten) habe ich je einen Graphen vor und nach 1960 gezeichnet. In jedem Monat addiere ich einen Bruchteil des PDO-Signals zur Temperatur des vergangenen Monats, das heißt, ich nehme an, dass die im vergangenen Monat erzeugte Wärme „nicht von selbst verschwinden“ würde, sondern von Auswirkungen des Vormonats reguliert wird. Diese Näherung ist wahrscheinlich auch nicht perfekt, aber sie zeigt, wie leicht Temperaturtrends erklärt werden können, wenn man den globalen Einfluss der PDO akzeptiert.
(Außerdem habe ich einige andere Szenarien entworfen, bei denen die Temperatur bis zu einem gewissen Grad nach Null strebt, und bei denen ich auch die Quadratwurzel der PDO-Eingangsdaten nutzte, mit denen es etwas besser geht, Quadratwurzeln machen kleinere Änderungen bei einer PDO um Null deutlicher sichtbar).
Und jetzt, wie kann die PDO allein zu einer langen stetigen Wärme auf der Erde führen? Kommt die Wärme aus den Tiefen der Ozeane, oder was?

Abbildung 16: Es ist von vorherein klar, dass SSN und PDO (und damit Nina 3,4 wie gezeigt) zusammen hängen. Ist es wahrscheinlich, dass die PDO die Sonnenfleckenzahl beeinflusst? Nein, und darum können wir schlussfolgern, dass die Sonnenaktivität die Temperatur der PDO treibt, was wiederum die Temperaturänderungen auf der Erde erklären kann.
Plötzlich wurde diese Analyse viel interessanter als die F&R-Evaluation, aber dieser Graph zeigt auch, dass F&R noch in einem anderen Punkt falsch lagen: Man beachte an diesem Graphen, dass wir mit Temperaturen arbeiten , die für die Sonnenaktivität „KORRIGIERT“ worden sind… aber NACH jeder SSN-Spitze sehen wir immer noch die Akkumulation von Wärme nach dem „Korrigieren“ für die Sonnenaktivität. Und wieder folgt daraus, dass es fundamental falsch ist anzunehmen, dass es keine langzeitlichen Auswirkungen von Temperaturänderungen gibt. Dieses Mal kann man Auswirkungen der Temperatur in vielen Jahren sehen, lange nachdem sich die „korrigierte“ Sonnenaktivität ereignet hatte.
Schlussfolgerung: Die PDO wird offensichtlich von der Sonne getrieben und kann leicht die analysierten Temperaturentwicklungen erklären.
Punkt 3: Fehlende Korrekturen für menschliche Aerosole – von denen man annimmt, dass sie wichtig sind
Seitens AGW wurde wiederholt behauptet, dass menschliche Sulfate/Aerosole signifikante Temperaturänderungen auf der Erde erklären können.
Wenn man F&R liest, kann ich nicht aufhören, mich zu wundern: Warum sprechen sie jetzt nicht von menschlichen Aerosolen?
 
Abbildung 17. Quelle: http://www.manicore.com/anglais/documentation_a/greenhouse/greenhouse_gas.html. In fast allen Quellen von Sulfatemissionen scheint es so zu sein, das die Emissionen um 1980/90 beginnen abzunehmen.
Falls diese Aerosole wirklich signifikante Abkühlung erklären können, nun, dann sollte ein Agens für die reduzierte Abkühlung nach 1980 dafür verantwortlich sein, wenn man Temperaturen anpasst, um „das echte“ Temperatursignal zu finden. F&R haben das nicht getan.
Punkt 4: Fehlende Korrektur für die AMO:
Die AMO scheint die Temperaturen in der Arktis und auch in weiten Landgebieten der Nordhemisphäre zu beeinflussen.
 
Abbildung 18: Tatsächlich kann davon ausgegangen werden, dass die von der AMO beeinflusste Temperatur der Arktis ein wichtiger Parameter globaler Temperaturtrends ist und folglich Korrekturen für die AMO relevant sein können. Die AMO scheint die Temperaturen der Jahre 2000 bis 2010 getrieben zu haben, so dass jede Korrektur der Temperaturen mittels AMO den Temperaturtrend nach 1980 reduzieren würde.
F&R haben die AMO nicht erwähnt.
Punkt 5: F&R hätten die Auswirkung ihrer Anpassungen [auf Daten] vor 1979 erwähnen können
F&R zeigen lediglich Auswirkungen nach 1979, möglicherweise wegen nur begrenzt zur Verfügung stehender Satellitendaten.
 
Abbildung 19: „Korrigiert” man Hadcrut-Daten für Nino 3,4 + Vulkane stellt sich heraus, dass der Wärmetrend von 1950 um 0,16 K oder 25% reduziert ist. Warum zeigen F&R das nicht?
Ich habe 1950 als Startpunkt gewählt, weil sowohl Nina 3,4 und der SATO-Vulkanindex in jenem Jahr beginnen.
Schlussfolgerung
F&R scheinen anzunehmen, dass Temperaturauswirkungen auf der Erde sich nur während der Ereignisse auswirken, nicht danach. Wenn man ein Glas Wasser erwärmt, wird die Wärme nicht sofort wieder verschwinden, wenn man die Wärmequelle entfernt. Daher muss dokumentiert werden, dass dies für diese Erde nicht gelten soll.
Das bloße „Korrigieren” des augenblicklichen Einflusses auf die Temperatur und nicht auf die Auswirkungen nach Ende des Ereignisses erzeugt einen ziemlich komplexen Datensatz mit signifikanten Randwertfehlern. Folglich sind die „angepassten Daten“ nach F&R für die Temperatur offensichtlich nutzlos. Zumindest bis die langzeitliche Auswirkung von Temperaturänderungen in robuster Manier geklärt worden ist.
Ferner scheinen die PDO, Nin 3,4 [?] und Sonnenaktivitäten zusammen zu hängen, und schon unter Verwendung der einfachsten Mathematik (für die PDO) können diese die jüngste Temperaturentwicklung auf der Erde erklären. Das Argument, dass man das „CO2 braucht, um jüngste Temperaturtrends erklären zu können“, ist offensichtlich absolut falsch.
Folglich könnte die “Korrektur” langzeitlicher Auswirkungen für PDO/Nina 3,4 den Wärmetrend der Temperaturdaten insgesamt entfernen.
Es wurde gezeigt, dass die Sonnenaktivität ein wichtiger Treiber von PDO/Nino 3,4 und damit für das Klima ist.
Können wir nun abschließend Temperaturdaten ohne die Arten der o. g. Korrektur verwenden?
Beachtet man die Komplexitäten, die mit solchen Anpassungen einher gehen, ist es sicher besser, die aktuellen Daten zu akzeptieren als einen Datensatz, der offensichtlich fundamental falsch ist.
Sollte man solche Anpassungen nur für Nino 3,4 vornehmen, fehlen die langzeitlichen Effekte von Nina 3,4. Außerdem entfernt es nicht den flachen Trend aus der jüngsten Dekade der Hadcrut-Temperaturdaten.
Frank Lansner
in der Diskussion zum Artikel auf der WUWT Site zeigt z.B. Bob Tisdale wo Lansner irrt, allerdings Rahmstorf et al ebenso.
Mit Dank an K. Gans für den Hinweis.
Link von Watts zu diesem von ihm ins Netz gestellten Artikel: http://wattsupwiththat.com/2011/12/17/frank-lansner-on-foster-and-rahmstorf-2011/#more-53252
Link zu den Bemerkungen im Subheader von  climateobservator:
http://www.science-skeptical.de/blog/rahmstorfs-neue-temperaturstudie-nach-strich-und-faden-auseinandergenommen/006390/
Links zu dem Papier von F&R, das hier nach Strich und Faden auseinandergenommen wird: Global temperature evolution 1979–2010 und http://tamino.wordpress.com/2011/12/06/the-real-global-warming-signal/
Übersetzt von Chris Frey für EIKE
Technische Bemerkung des Übersetzers: Dieser Artikel sprengt zeitweise wieder meine Fachkenntnisse. Unabhängig davon zeichnen sich manche Passagen aber auch durch unvollständige Sätze oder offensichtlich falsche Zuordnungen und auch Rechtschreibfehler aus. In allen diesen Fällen habe ich Abweichungen oder zusätzlich eingefügte Wörter mit [] eckigen Klammern gekennzeichnet.
C. F.




„Klimafakten“ und die Definition der Wahrheit – oder ist Wahrheit Ansichtssache?

Im Netz gibt es eine weitere Seite, die die Bürger mit Fakten, im speziellen Fall, „Klimafakten“, informativ an die Wahrheit, das Wahre, die Realität also, heranführen möchte. „Klimafakten“, endlich eine Seite, die Fakten liefert, was denn nun los ist mit unserem Wetter und Klima oder ist damit etwa gar nichts los? Fakten sollen bekanntlich Realitäten, Wahrheiten aufzeigen, bzw. liefern. Die Enttäuschung über die Zeitvergeudung bei näherer Betrachtung war indes nicht unerheblich oder mit dem geflügelten Satz zu umschreiben „Außer Spesen, nichts gewesen“, was nun wieder einen direkten Zusammenhang zu dem jüngsten Klimarummel in Durban liefert, den die Politik, unterstützt von diversen Instituten, wie dem PIK veranstaltet, um unser Bestes zu wollen. Nicht unser Geld, wie jetzt vielleicht mancher zu denken glaubt, nein, unser Klima und damit unsere Lebensgrundlagen, zu retten (sofern sich das Klima von uns Menschen überhaupt retten lässt). In Anbetracht solch geistiger Verwandtschaft lag es nahe, einen Blick auf die Personenliste zu werfen, die die „Wahrheitsseite“ betreibt. Und in der Tat, bekannte Personen, die die Politik mit „Wahrheiten“ beliefert und mit ihr zu sonnigen, urlaubsbekannter Orte, Entschuldigung, heißt natürlich von Klimagipfel zu Klimagipfel jetten, sind dort aufgeführt. Für wahr, eine glaubwürdige, will heißen, unabhängige „Elite“, die sich dort zusammen findet, um uns Bürgern im Land, die Wahrheit, also Fakten zu liefern. Unser EIKE- Artikel möchte exemplarisch ein paar der dort zu findenden „Wahrheiten“ unter die Lupe nehmen.
Ganz vorne steht die Aussage: “97 Prozent der Klimaforscher sind überzeugt, dass der Mensch den Klimawandel verursacht“ und weiter “Es ist wissenschaftlich gesichert und gut belegt, dass der Mensch Hauptverursacher der bereits laufenden globalen Erwärmung ist.“ Warum braucht man dann noch eine „Wahrheitsseite“ im Netz, betrieben von so bekannten Personen wie Rahmstorf – war dass nicht der Rahmstorf, der sich Wissenschaftler nennt und zuweilen Wissenschaft mit einem Wettbüro verwechselt (http://www.scilogs.de/wblogs/blog/klimalounge/klimadaten/2008-05-08/die-klimawette).
Doch zurück zum obigen Zitat. In der Kommunikationswissenschaft wird solches mit einem „Totschlagargument“ gekennzeichnet. Unter Wikipedia steht dazu folgendes:

„Totschlagargumente sind inhaltlich nahezu leere Argumente, also Scheinargumente, bloße Behauptungen oder Vorurteile.“ Wikipedia liefert hierzu Beispiele wie „Jeder vernünftige Mensch weiß, dass …“, oder „Das ist doch allgemein bekannt.“

In der Wissenschaft werden üblicherweise Fragen gesucht, deren Beantwortung diskutiert und Für und Wider gegeneinander „abgewogen“. Von einer weiteren Person, die der Netzseite ein wissenschaftliches Renommee gibt, Prof. Marotzke, MPI, stammt folgende Aussage:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“

Bravo! Herr Prof. Marotzke, wann dürfen Ihre Leser Ihre Einschätzung zu der Güte der Klimamodelle auf „Klimafakten“ lesen. Zum weiteren Inhalt von „Klimafakten“.
Einer der dortigen Berichte befasst sich mit Temperaturreihen und diverser Institute, die diese Reihen zusammenstellen. Nun, seit Climategate weiß die Welt, wie dort Klimawissenschaft durch Taschenspielertricks ersetzt wurde. EIKE berichtete ausführlich darüber. Wissenswertes darüber ist auch unter der Internetseite vor Prof. Watts oder in der Studie “Surface Temperature Records: Policy Driven Deception?“ (http://scienceandpublicpolicy.org/images/stories/papers/originals/surface_temp.pdf), oder  hier zu finden (http://surfacestations.org/).
Da die Betreiber der Netzseite „Klimafakten“ explizit auf die Güte der GISS-Reihen verweisen, eine kleine Kostprobe, was es mit dieser Güte auf sich hat:

Abbildung 1 (Quelle: http://icecap.us/images/uploads/GHG_Model_failure_AO.pdf) zeigt die GISS-1980-Datenreihe (blau) und zum Vergleich, für exakt denselben Zeitraum, die GISS-Datenreihe 2010 (rot), in der auf wundersame Weise, der Temperaturverlauf gänzlich anders ist. Zum Vergleich ist darüber hinaus die Abweichung der Satellitenmessungen (+0,26°C) für 2009 eingetragen.
Weiter weiß der EIKE-Leser bereits, dass sich über 50% aller weltweiten Temperaturmessstationen des GHCN (erstellt die globalen Temperaturreihen) auf Flughäfen befinden und mittelbar und unmittelbar von den bis zu 600°C-heißen Jetabgasen beaufschlagt werden. Für globale Temperaturaussagen, die sich im Zehntel-°C-Bereich befinden, für wahr eine mehr als fragwürdige Darbietung. Und man braucht nicht weit zu gehen, um solch eine „Gütestation“ zu finden.
 
Abbildung 2 zeigt die Wetterstation auf dem Frankfurter Flughafen. Sie liegt nicht nur sehr nah am Rollfeld (ca. 70m), sondern in direkter Richtung zu den Abgasstrahlen der Jets, wie in der rechten Abbildung zu sehen. Das Bild erinnert frappierend an die Zustände auf dem Flughafen Rom, wie von Antony Watts gezeigt.
 
Abbildung 3 zeigt die Lage der DWD-Wetterstation auf dem Flughafengelände Frankfurt (roter Pfeil).
Der mittlere Temperaturhub, der sich durch den Flugbetrieb ergibt und durch die direkte, wie die indirekte Beaufschlagung über Wirbelschleppen erfolgt, liegt bei ca. +2,5°C, wie EIKE berichtete.
Optimisten könnten nun anführen, dass immerhin noch fast die Hälfte der Stationen brauchbar ist, doch leider weit gefehlt, wie der angegebene Link http://surfacestations.org/ und Abbildung 4 und 5 zeigen.
 
Die Messstation befindet sich direkt gegenüber einem Parkplatz in nur 2-3 m Entfernung zur Motorabwärme der Fahrzeuge. Unmittelbar gegenüber der Messhütte ist im Abstand von 3m gerade ein Messfahrzeug des Deutschen Wetterdienstes geparkt. Der Autor möchte nun nicht so weit gehen und fragen, ob immer dann dort Fahrzeuge abgestellt werden, wenn gerade einmal wieder Rekordtemperaturen benötigt werden. Auf jeden Fall verwundert es wohl niemanden mehr, dass gerade die Station in Karlsruhe immer unter den Temperaturrekordhaltern in Deutschland platziert ist.
 
Geradezu abenteuerlich die Aussage von „Klimafakten“ zum  Wärmeinseleffekt (WI), der angeblich heraus gerechnet würde und überhaupt sehr gering sei. Erstens wird der WI weder von dem GISS, noch vom DWD heraus gerechnet, mehr noch, die Stationsleiter des DWD kennen auf Anfrage nicht einmal den WI ihrer Station! Und zweitens ist er alles andere als gering, wie die Bundesanstalt für Geowissenschaften und Rohstoffe bestätigt.

Abbildung 6 verdeutlicht am Beispiel der USA für den Zeitraum von 1910 bis 2000 den WI der Temperaturmessungen. Regionen mit geringer Einwohnerzahl weisen niedrige Temperaturen und fast keinen Temperaturanstieg auf, wogegen in Ballungsräumen eine signifikant höhere Durchschnittstemperatur und ein deutlicher Temperaturanstieg  zu verzeichnen ist, Quelle: Klimafakten, S. 212, der Bundesanstalt für Geowissenschaften und Rohstoffe. Die Bundesanstalt für Geowissenschaften und Rohstoffe nennt ihre Ausarbeitung übrigens ebenfalls „Klimafakten“.
In der folgenden Abbildung sind die wissenschaftlichen Untersuchungen zum Wärmeinseleffekt für Asien, Nordamerika, Europa und Deutschland aufgelistet. Leicht erkennbar, dass die Stadttemperatur deutlich von der Umgebungstemperatur Land abweicht, also verfälschte Werte liefert. Abbildung 7 zeigt die Temperaturunterschiede von Städten gegenüber dem Umfeld.

Abbildung 7, Quelle: Christian-Dietrich Schönwiese, Klimatologie, Stuttgart, 2003
Das gleiche Bild bei der Untersuchung des international hoch angesehenen Klimawissenschaftlers Dr. Spencer.

Abbildung 8: In seiner Veröffentlichung vom 03. März 2010 berichtet der bekannte Physiker und Klimawissenschaftler Roy Spencer, dass die Auswirkungen des Wärmeinseleffekts von der Besiedlungsdichte abhängen. Bei Änderungen von geringen Bevölkerungsdichten ist dieser proportional am stärksten, d.h. hier tritt die größte Erwärmung auf. Da im 20. Jahrhundert weit mehr kleinere Ansiedlungen in ihrer Bevölkerungsdichte zunahmen, als große Städte, die darüber hinaus noch einen geringeren Erwärmungstrend beim Zuwachs der Besiedlung ausweisen, liegt hier ein weiterer Fakt, warum die Temperaturen ab der zweiten Hälfte des 20. Jahrhunderts, als die Bevölkerungszahlen deutlich zunahmen, vergleichweise stark anstiegen.
Zum gleichen Ergebnis kommen wir bei EIKE. EIKE hat erstmals die für Deutschland richtige Vergleichstemperaturkurve veröffentlicht, in der der WI flächendeckend heraus gerechnet wurde.

Abbildung 9 zeigt den unmittelbaren Vergleich der Deutschlandtemperaturen DWD und der WI-bereinigten von 1891 – 2009. Die blau gestrichelte Linie zeigt den Temperaturmittelwert im Betrachtungszeitraum. Die Temperaturen in Deutschland durchbrechen die Mittellinie nach unten, was bedeutet, dass es derzeit kälter als im 120-Jahresvergleich ist. Zum berechneten WI wurde, wie dies beim IPCC üblich ist, der Fehlertoleranzbereich angegeben (grüner Bereich).
Nicht besser ist die Aussage über den sog. Konsens. Dieser so oft bemühte Konsens besteht und bestand zu keiner Zeit und basierte zu allen Zeiten seines Aufkommens auf einer glatten Lüge. EIKE berichtete darüber (http://www.eike-klima-energie.eu/climategate-anzeige/phoenix-runde-teil-ii-kein-prima-klima-ist-die-welt-noch-zu-retten-ein-faktencheck/). Auch hier bringen die Klimaalarmisten Realität und Fiktion durcheinander:
Der Präsident der amerikanischen Akademie der Wissenschaften, Prof. Seitz schrieb im Wallstreet Journal vom 13. August 1996 die folgenden Passagen (deutsche Übersetzung: EIKE):

“In der vergangenen Woche veröffentlichte das Intergovernmental Panel on Climate Change nach fünf Jahren seinen ersten Bericht mit dem Titel „Die Wissenschaft vom Klimawandel 1995“ [The Science of Climate Change 1995]. Das IPCC wird von Vielen als beste Quelle für wissenschaftliche Information über den menschlichen Einfluss auf das Erdklima angesehen. Der Bericht wird ganz gewiss als jüngste und höchstautoritative Aussage über die Erderwärmung begrüßt. Entscheidungsträger und die Weltpresse werden den Bericht wahrscheinlich als Basis für wichtige Entscheidungen über die Energiepolitik ansehen. Er wird einen großen Einfluss auf die amerikanischen Öl- und Gaspreise und auf die internationale Wirtschaft ausüben.“

“Dieser IPCC-Bericht genießt wie alle anderen sein hohes Ansehen vor allem deshalb, weil er von Fachleuten begutachtet [peer reviewed] ist. Das heißt, er wurde von einem internationalen Expertengremium gelesen, diskutiert, geändert und gebilligt. Diese Experten haben ihren Ruf in die Waagschale gelegt. Doch der Bericht ist nicht, wonach er aussieht: Es ist nicht die Version, die von den beitragenden Wissenschaftlern genehmigt wurde, die auf der Titelseite aufgeführt sind. In meinen über 60 Jahren als Mitglied der amerikanischen Wissenschaftler-Gemeinde einschließlich meiner Tätigkeit als Präsident der „Academy of Sciences“ und der „American Physical Society“ habe ich keine bestürzendere Korruption des Verfahrens der Expertenbegutachtung [peer review] erlebt, wie bei der Entstehung dieses IPCC-Berichts.“

“Der Vergleich des von den beitragenden Wissenschaftlern genehmigten Berichts mit der veröffentlichten Version zeigt, dass zentrale Änderungen durchgeführt wurden, nachdem die Wissenschaftler zusammengesessen und die für den Schlussstand gehaltene Version begutachtet und gebilligt hatten. Die Wissenschaftler hatten angenommen, dass das IPCC seine eigenen Regeln einhalten würde – einen Regelsatz zur Steuerung seiner eigenen Tätigkeit. Keine der IPCC-Regeln erlaubt es, einen wissenschaftlichen Bericht zu verändern, nachdem ihn das Gremium der wissenschaftlichen Mitarbeiter und das gesamte IPCC selbst akzeptiert hat.“

“Die wissenschaftlichen Mitarbeiter hatten im November [1995] in Madrid den Bericht „The Science of Climate Change“ angenommen; das gesamte IPCC hatte im Folgemonat in Rom zugestimmt. Aber mehr als 15 Abschnitte im Kapitel 8 waren nach der wissenschaftlichen Überprüfung und Billigung des vermeintlichen Schlusstextes verändert oder gelöscht worden. Kapitel 8 ist das Schlüsselkapitel für das Darstellung der wissenschaftlichen Beweise für und gegen einen menschengemachten Einfluß auf das Klima.“

“Nur einige der Änderungen waren kosmetischer Natur, nahezu alle Hinweise auf die Skepsis vieler Wissenschaftler wegen der Behauptung, dass der Mensch einen Haupteinfluss auf das Klima generell und im Besonderen auf die Erderwärmung hätte, wurden entfernt.“

“Die folgenden Passagen enthalten Beispiele aus dem gebilligten Bericht, die aber aus der vermeintlichen expertengeprüften Version gelöscht wurden.“
„Keine der oben zitierten Studien hat einen klaren Beweis erbracht, dass wir den beobachteten [Klima-] Wandel auf die Zunahme von Treibhausgasen zurückführen können.“ „Bislang hat keine Studie den gesamten oder einen Anteil [des Klimawandels] auf anthropogene [menschengemachte] Ursachen zurückführen können.“ „Jegliche Behauptungen von positiver Entdeckungen über signifikante Klimaveränderung werden wahrscheinlich kontrovers bleiben, bis die Ungewissheit über die gesamte natürliche Veränderlichkeit des Klimasystems vermindert ist.“
“Die gutachtenden Wissenschaftler benutzten genau diese Sprache, um ihre eigene Aufrichtigkeit und die des IPCC zu wahren. Ich bin nicht in der Lage, zu sagen, wer die Hauptänderungen am Kapitel 8 gemacht hat. Doch der Hauptautor des Berichts, Benjamin D. Santer, muss vermutlich dafür verantwortlich gemacht werden.“
“IPCC-Berichte werden häufig als „Konsens“ bezeichnet. Wenn sie aber zur Kohlenstoff-Besteuerung und zu Beschränkungen des Wirtschaftswachstums führen, werden sie ganz sicher eine schwere zerstörerische Wirkung auf die Weltwirtschaft entfalten. Was auch immer die Absicht der Leute war, die diese bedeutenden Änderungen machten, sie täuschten Politiker und die Öffentlichkeit darüber, dass es wissenschaftliche Beweise für die menschliche Verursachung des Klimawandels gäbe.“
“Wenn das IPCC noch nicht einmal seine eigenen Regeln einhält, dann sollte das gesamte IPCC-Vorgehen aufgegeben werden, oder zumindest der Anteil, bei dem es um die wissenschaftlichen Beweise für den Klimawandel geht. Und die Regierungen sollten sich verlässlichere Quellen zur Beratung in dieser wichtigen Frage suchen.“

Die Fälschung der Kyoto-Vorlage durch Santer, warf ein ernstes Problem auf, wenn auch nicht für die Politiker und Staatsoberhäupter, die letztendlich ein solches Konstrukt unterschrieben und sich im wahrsten Sinne des Wortes, verschaukeln ließen. Das Problem bestand darin, dass sich von den ca. 2.000 Unterzeichnern, etwa 1.500 Wissenschaftler weigerten, den von Santer eigenmächtig geänderten Entwurf zu unterzeichnen. Wo sollte nun das IPCC die Unterschriften herbekommen. Hartmut Bachmann hat hierzu Unglaubliches recherchiert und veröffentlicht.
Hartmut Bachmann war u. a. Präsident eines Wirtschaftsinstitutes in den USA und leitete zur Zeit der Erfindung der Klimakatastrophe, also vor ca. 25 Jahren, als CEO und Managing Director eine US-Firma, die sich exklusiv mit Klimafragen beschäftigte. Er war als Kommissar des US Energy Savings Programms präsent bei zahlreichen Meetings und Verhandlungen in den USA, welche die Geburt des IPCC, des späteren Weltklimarates, zur Folge hatten.
Auszug aus dem Bericht von Hartmut Bachmann, “Wer waren die Unterzeichner des gefälschten Weltklimaberichtes?“ vom 02.08.2011:

“Um der hypothetischen Klimakatastrophe entgegenzusteuern sollen alle Nationen der Erde das angebliche Klimagift CO2 durch entsprechende nationale Gesetze bekämpfen. Dieser Auftrag an die Völker der Erde wurde vor Jahren durch die UNO beschlossen. Sie ordnete via ihres Ablegers UNEP für Dezember 1997 eine Weltklimakonferenz in Kyoto in Japan an. Den geladenen Delegationen sollte der neueste Weltklimabericht des IPCC vorgelegt werden.“
“Dieser zweite IPCC-Bericht von Ende 1995 beinhaltete die Schlüsselinformationen für die Verhandlungen, die dann 1997 zur Annahme des Protokolls von Kyoto durch den UNFCCC führen sollten. Dieser Bericht war vor Publikation peer-rewied. Nachdem alle an diesem Bericht beteiligten so genannten Wissenschaftler ihn durch ihre Unterschrift abgesegnet und in Umlauf gebracht hatten, kam Dr. Ben Santer, ein relativ kleines Licht innerhalb der UNO – UNEP – IPCC – Organisationen daher, und löschte alle Textteile, die darauf hinwiesen, dass es wahrscheinlich „KEINE“ Mensch-gemachte Klimaerwärmunf gäbe.“
„Ohne Löschen dieser Aussagen war das lange eingefädelte Billionengeschäft mit der Klimakatastrophe in Gefahr, was anlässlich der nächsten Weltklimakonferenz in Kyoto von der Weltgemeinde abgesegnet werden sollte. Also strich Santer die entsprechenden hinderlichen Passagen.
“Kyoto rückte in Eile näher. Ein von Santer präparierter (gefälschter) schockierender Weltklimabericht lag nunmehr vor. Er sollte die Delegationen animieren, ohne viel Rückfragen und Aufhebens nach Kenntnisnahme des Inhaltes des Klimaberichtes ruck-zuck das so genannte Kyoto-Protokoll, das Endprotokoll der Tagung, zu unterzeichnen. Damit war der Weg frei, mittels nationaler Gesetze den weltweiten kostenträchtigen Kampf gegen das angebliche Umweltgift CO2 zu beginnen. Das gigantische Geschäft der Menschheit erhielt das internationale Limit zum Start. Und nun konzentrieren Sie sich bitte: Der den Delegationen vorzulegende jetzige Klimabericht war nunmehr nicht von gewünschter Anzahl von Wissenschftlern unterzeichnet, da so genannte originäre peer-Reviewer sich weigerten, den von Santer geänderten IPCC-Bericht in der jetzigen „gefälschten“ Form zu unterzeichnen, bzw. die Mitarbeit beim IPCC gekündigt hatten.“


Abbildung 10, zeigt nach Daten der EnBW, wie sich die CO2-Emissionen Chinas von 1990 – 2010 entwickelten und wie sie sich bis zum Jahr 2020 entwickeln werden. Dazu im Vergleich, die europäischen CO2-Emissionseinsparungen nach dem Kyoto-Verträgen. Deutlich ist erkennbar, dass alle EU-Maßnahmen wirkungslos bleiben und die ganzen Gelder zur Reduzierung verschwendet sind.

“In Kassel gab es damals ein Klimainstitut (Center for Enviromental Systems Research University of Kassel) dessen Chef Prof. Joseph Alcamo von UNO, UNEP und IPCC ausgesucht wurde, die Interessen dieser Organisationen bezüglich Klima in Deutschland (Vorbereitung gigantischer Geschäfte) wahrzunehmen. Seinen in Kyoto wartenden Assistenten gab Prof. Alcamo am 9. Okt. 1997 zur Beschaffung der entsprechenden Unterschriften unter den gefälschten IPCC-Bericht folgenden Auftrag, den ich Ihnen hier komplett zur Kenntnis bringe:“
”Sounds like you guys have been busy doing good things for the cause. I would like to weigh in on two important questions–Distribution for Endorsements. I am very strongly in favor of as wide and rapid a distribution as possible for endorsements. I think the only thing that counts is numbers. The media is to say: „1000 scientists signed“ or „1500 signed“. No one is going to check if it is 600 with PhDs versus 2000 without. They will mention the prominent ones, but that is a different story. Conclusion – Forget the screening, forget asking them about their last publication (most will ignore you.) Get those names! Timing — I feel strongly that the week of 24 November is too late.”
”1. We wanted to announce the Statement in the period when there was a sag in related news, but in the week before Kyoto we should expect that we will have to crowd out many other articles about climate.”
”2. If the Statement comes out just a few days before Kyoto I am afraid that the delegates who we want to influence will not have any time to pay attention to it. We should give them a few weeks to hear about it.”
”3. If Greenpeace is having an event the week before, we should have it a week before them so that they and other NGOs can further spread the word about the Statement. On the other hand, it wouldn’t be so bad to release the Statement in the same week, but on a different day. The media might enjoy hearing the message from two very different directions.”
”Conclusion — I suggest the week of 10 November, or the week of 17. November at the latest.
Mike — I have no organized email list that could begin to compete with the list you can get from the Dutch. But I am still willing to send you what I have, if you wish.

Best wishes, Joe Alcamo“

“Wie wurde nun die Beschaffung der Unterschriften dort in Kyoto Ende Nov.-Dez. 1997 bewerkstelligt, damit die nichts ahnenden Teilnehmer der Delegationen den Bericht akzeptierten? Zur Tagung in Kyoto strömten zehntausend geladene Gäste und ebenso viele Klimamitläufer herbei. Alle wollten am Geschäft beteiligt werden.“
„So war es kein Kunststück fast 2000 Unterschriften von Greenpeace Gesandten, Lobbyisten, Angestellten umliegender Hotels, Tagesgästen, Schuhputzern und Tellerwäschern und rumstrolchenden Mitessern einzusammeln und sie als wichtige Wissenschaftler die letzten Seiten des Weltklimaberichts unterschreiben zu lassen, der dann in Kopie an alle anwesenden Delegationen verteilt wurde, um Schockwirkungen und Bereitschaft zur Unterschrift unter das endgültige Kyoto-Protokoll zu produzieren.
“So lernte das Klima in Kyoto das Laufen und bewegte sich mittels der entsprechenden internationalen Klimagesetzte dahin, wofür es 11 Jahre lang – seit 1986 – zur Entwicklung gigantischer weltweiter, lang anhaltender Geschäfte mittels entsprechender Aktivitäten der Medien und der Wissenschaftler vorpräpariert worden war.“

Der anthropogene Klimawandel ist der größte Wissenschaftsschwindel und Wissenschaftsskandal der Neuzeit. Es muss an dieser Stelle die Feststellung getroffen werden, dass im IPCC tlw. eine dominante Gruppe von Betrügern am Werk ist, die gezielt Politik, Medien und Gesellschaft hinters Licht führen. Der ehemalige französische Wissenschaftsminister Claude Allegre bezeichnete die IPCC als “Ganz gewöhnliche Mafia.“
Der „Wissenschaftlicher Beirat“ von „Klimafakten“, wie man sich dort bezeichnet und deren Terminus auf Kompetenz hoffen lässt, schreiben zum Klima:

“Alle bekannten natürlichen Faktoren, die das Klima beeinflussen, wirken entweder über viel längere Zeiträume (z.B. die Verschiebung der Kontinente über Millionen von Jahren oder Unregelmäßigkeiten in der Umlaufbahn der Erde in Zig-Tausend-Jahres-Zyklen), oder sie haben sich innerhalb der vergangenen Jahrzehnte nicht signifikant verändert.“

Es hat den Anschein, dass der „wissenschaftliche Beirat“ von „Klimafakten“ noch nicht etwas von der variablen Sonne gehört hat, bzw. nicht deren vielfältige Facetten kennt. Auf EIKE ist hierzu ein 8-teiliger Artikel erschienen, mit dem der „Wissenschaftliche Beirat“ seine Kenntnisse erweitern kann: (http://www.eike-klima-energie.eu/klima-anzeige/teil-1-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/). Dort ist die folgende Abbildung zu sehen, die zeigt, wie sehr die variable Sonne allein und auf kurzen Zeitskalen das Klima auf der Erde für die letzten 30 Jahre bestimmte. Zur Erinnerung, der Hauptsonnenzyklus hatte in 2003 sein 200-jähriges Maximum und seinen Anstieg parallel zum leichten Temperaturanstieg auf der Erde.
Auszug:

Abbildung 11 oben zeigt die Temperaturdatenreihe UAH (Satellitendaten). Die kleine Abbildung zeigt die atmosphärische CO2-Entwicklung nach Mauna Loa, die übrigens keinerlei Übereinstimmung mit dem Temperaturgang aufweist. Die Abbildung darunter zeigt die El Niño-Anomalien (El Niño 3.4) der Wasseroberflächentemperaturen. Jede globale Temperaturspitze in den letzten 30 Jahren fällt mit einem El-Niño-Ereignis exakt zusammen und das bei 8 Ereignissen im Betrachtungszeitraum (grüne Pfeile und Blockpfeil). Die schwarzen Linien dienen zur zeitlichen Justierung der Datenreihen.

Abbildung 12 zeigt den El Niño 3.4, der z.B. von der NOAA zur Betrachtung von El Niño-/La Niña-Ereignissen herangezogen wird (ganz oben). Die mittlere Datenreihe, die solare Aktivität nach Angaben der PMOD (Physikalisch-Meteorologisches Observatorium Davos) und die untere Datenreihe die Koronatemperatur der Sonne (http://rst.gsfc.nasa.gov/Sect20/A5a.html). Die blauen Linien dienen zur Zeitausrichtung der Kurven, die rote Linie zeigt den „Sprung“ der Koronatemperatur von 1 Million auf annähernd 2 Millionen Kelvin. Das blaue Rechteck die verstrichene Zeit vom Sonnenminimum, welches von der PMOD durch einen senkrechten Strich gekennzeichnet ist und das rote Rechteck die Zeitspanne vom Einschalten der „Koronaturboheizung“ bis zum El Niño-Maximum. Zu sehen ist, dass nach jedem Einschalten der Koronazusatzheizung (untere Datenreihe) ein El Niño ausgelöst wird (rote Rechtecke) und zwar innerhalb eines festen Zeitraumes und weiter, nach ca. 11 Monaten der El Niño sein Maximum erreicht. Darüber hinaus zeigt Abbildung 12 die magnetische solare Aktivität (zweite Datenreihe von oben, Quelle: Max Planck Gesellschaft (http://www.mps.mpg.de/projects/solar-mhd/research_new.html). Wie unschwer festzustellen, wird nach jedem Maximum im Schwabe-Zyklus ebenfalls ein El Niño-Ereignis ausgelöst. Auch hier wird das Maximum im El Niño-Ereignis nach einer exakt festen Zeitspanne erreicht (graue Rechtecke).
Die beiden Abbildungen legen den Schluss nahe, dass die Erdtemperaturen im Betrachtungszeitraum El-Niño-gesteuert sind (Abbildung 11, zum dominanten Einfluss auf die Erdtemperaturen, siehe auch die Arbeiten von Prof. Brönnimann, ETH, “Pazifik ließ Europa frieren“, Spektrum der Wissenschaft 03/05) und jeder El Niño wiederum, durch die Sonnenparameter gesteuert wird. Die Sonne bestimmt demnach ganz allein den Temperaturgang auf der Erde, oder wie Herr Dr. Gunter Tiersch am 09.11.2011 in seiner Wettervorhersage so trefflich bemerkte: „Ohne die Sonne geht gar nichts“. Irgendwelche Treibhausgase spielen erkennbar keine Rolle, so dass anhand der solaren Aktivität auch eine Aussage getroffen werden kann, wohin sich die Erdtemperaturen bewegen werden (http://www.eike-klima-energie.eu/climategate-anzeige/teil-8-dynamisches-sonnensystem-die-tatsaechlichen-hintergruende-des-klimawandels/).
Wie plausibel sind nun die auf „Klimafakten“ vorgebrachten „Fakten“, also „Wahrheiten“, die einen anthropogenen THE belegen sollen, denn, ein Grundgesetz der Quantentheorie lautet, dass es Energiequanten immer nur für gebundene Bewegungen gibt. Im Bohr´schen Atommodell sind dies die Elektronenbahnen. In einem Molekül (z.B. CO2) sind jedoch noch andere Bewegungen und mit ihnen, andere Energiezustände möglich: Drehung (um den Schwerpunkt), sowie Schwingung der Atome gegeneinander. Daraus ergeben sich eine Vielzahl von Energieniveaus und damit Energiespektren, die aus Rotationsenergie und Schwingungsenergie, sowie der Elektronenenergie bestehen. Lediglich letztere führt zur Emission von IR-Strahlung. Wie sich aus Berechnungen ergeben, liegen die Abstände der Stufen für die Elektronenenergien, für die Oszillationsenergien, als auch für die Rotationsenergien bei Molekülen (CO2) um Größenordnungen auseinander, wobei die kleinsten Energiequanten die Rotationsquanten sind, deren Linien am dichtesten zueinander sind. Man spricht hier von Rotationsquantenzahlen. Deshalb können diese absorbiert werden, ohne das Schwingungs- oder Elektronenzustand sich ändern.

Rotationsquantenzahl

Die Rotationsquantenzahl bestimmt dabei die Rotations-Schwingungsübergänge bei einem Absorptionsexperiment und beschreibt die Drehungen um die Molekülachse. Absorbiert ein Molekül dabei Strahlung, geht es von einem, durch die Rotationsquantenzahl J beschriebenen Zustand in den nächst höheren, durch J + 1 beschriebenen über. J = 0 gibt den nicht rotierenden Molekülzustand und J = 1 den langsamst möglichen rotierenden Zustand wieder. Nach der Quantenmechanik sind nicht alle denkbaren Übergänge zwischen den Energieniveaus erlaubt, sondern nur die mit einer sog. „Auswahlregel“. Die Auswahlregel für Rotationsübergänge bei 2-atomigen Molekülen lautet denn: Δ J = ± 1. Dies bedeutet nichts anderes, als dass nach der Bohr’schen Frequenzbedingung nur bestimmte Frequenzen absorbiert werden können.
Aus der Kenntnis der Rotationsspektren lässt sich übrigens auch nachweisen, warum N2 und O2-Moleküle nicht strahlen können. Damit elektromagnetische Wellen abgestrahlt werden können, muss eine periodisch bewegte elektrische Ladung vorhanden sein. Damit durch Änderung des Rotationszustandes eines Moleküls Ausstrahlung hervorgerufen wird, muss demnach während der Umdrehung auch elektrische Ladung bewegt werden. Nun fallen aber bei (symmetrischen) O2/N2-Molekülen die Schwerpunkte von positiver und negativer Ladung zusammen und liegen wegen der Massensymmetrie immer in der Rotationsachse. Daher haben solche dipollosen Moleküle kein Rotationsspektrum. Voraussetzung für das Auftreten von Rotationsspektren ist also, dass ein Dipolmoment während der Rotation seine Lage im Raum ändert.
Während niederenergetische Anregungen keine höher energetischen Anregungen hervorrufen können, ist dies im umgekehrten Fall stets gegeben. Die häufig im sichtbaren (zwischen 0,8 μm bis 0,4 μm) liegenden Elektronenspektren enthalten immer auch Änderungen des Oszillations- und des Rotationszustandes eines Moleküls. Demnach lässt sich das Spektrum eines Moleküls in drei Hauptbereiche unterteilen:
a) nur Änderung der Rotationsenergie, λ > 20 μm (langwelliges Infrarot)
b) zusätzliche Änderung der Schwingungsenergie, λ = 20 μm bis 1 μm (Infrarot)
c) zusätzliche Änderung der Elektronenenergie, λ < 1 μm (sichtbar bis ultraviolett)
Mit den Werten aus der Plank´schen Strahlungskurve und dem Wien´schen Verschiebungsgesetz: 6000 K etwa 0,5 μm, 300 K etwa 10 μm ergibt sich zwangsläufig, welche Prozesse in der Atmosphäre vorliegen können und welche nicht! Eine Gegenstrahlung gibt es daher nicht!
Im Bereich um 15 μm liegt demnach Oszillations- und Rotationsanregung vor und somit entsteht auch kein Strahlungs- oder Gegenstrahlungsfeld.
Dadurch wird deutlich, warum die durch den Erdboden erwärmte Atmosphäre stets kälter als dieser ist (Invasionswetterlagen ausgeschlossen, aber die werden nicht einmal von der IPCC als Beleg für den THE herangezogen) und den Erdboden nicht erwärmen kann, da Massen (Überwindung Trägheitsmoment) bewegt werden und somit die möglich abzugebende Energie immer kleiner als die aufgenommene ist. Zu Punkt c) müssen Energieniveaus überwunden werden, womit sich der Energiezustand eines Atoms ändert (z.B. durch Absorption). Bei der Rückkehr in den Grundzustand wird die vorher absorbierte Energie wieder in exakter Größe abgegeben, wonach das emittierte Photon natürlich zu groß sein müsste, als das vorher absorbierte. Nun „fallen“ Atome nicht direkt in ihren Grundzustand zurück, sondern dies geschieht über eine „Leiter“ zurück und nur ein Teil der „Energiewegstrecke“ ist durch Photonenemission(en) begleitet. Wie oben beschrieben, führen hochenergetische Anregungen, bei denen Photonen emittiert werden, immer auch zu niederenergetischen Anregungen, d.h. stets auch zu Molekülschwingungen und Rotationen, so dass das Energieniveau des emittierten Photons immer kleiner als das absorbierte ist. Abgesehen davon, dass bei 15 μm „lediglich“ Oszillations- und Rotationsanregung vorliegt.
Weiter hat Einstein einen Strahlungsansatz für Moleküle erarbeitet (1917), dessen Struktur mit dem Strahlungsgesetz vom Planck vereinbar ist. Einstein verwendete nicht nur Absorption von Molekülen, sondern auch die spontane Emission von Strahlung durch Moleküle und darüber hinaus auch noch die vom Strahlungsfeld induzierte Emission. Nur dadurch gelangte Einstein zur Struktur der Planckschen Strahlungsfunktion, wie sie Voraussetzung der Schwarzkörperstrahlerbetrachtung ist. Milne (1928) erweiterte die Arbeit Einsteins, damit eine seiner wesentlichen Annahmen überprüfbar ist. Dies ist die Gültigkeit des lokalen thermodynamischen Gleichgewichts. Wer nun behauptet, dass CO2 IR-Strahlung absorbiert und die absorbierte Energie wieder 1:1 an die Luft abgibt (Absorption also gleich Erwärmung ist), hat anscheinend Planck, Einstein und Milne nicht verstanden. Ob in diesen Gegebenheiten der Grund zu finden ist, warum der THE sich beharrlich seiner Überprüfung und Bestätigung im Versuch entzieht? Ohne experimentelle Überprüfung bleibt der THE eine wissenschaftliche These, jedoch kein wissenschaftlicher, bzw. physikalischer Effekt, der beispielsweise im Versuchsaufbau nachgestellt oder gar bestätigt werden könnte.
Dass der „Wissenschaftlichen Beirat“ sich weniger der Wissenschaft, als der, von dem IPCC vorgegebenen Linie widmet, zeigt weiter die folgende Passage:

Die beobachteten Temperaturveränderungen in der Atmosphäre ähneln jenen, die bei einem verstärkten Treibhauseffekt zu erwarten wären: So erwärmt sich zur Zeit die unterste Atmosphärenschicht (bis ca. zehn Kilometern Höhe) bei gleichzeitiger Abkühlung der oberen Atmosphärenschichten (über zehn Kilometern Höhe).“

Was der „Wissenschaftliche Beirat“ mit einem Treibhauseffekt verwechselt, ist nichts anderes, als das gewöhnliche Gegenläufigkeitsprinzip zwischen Troposphäre (<10 km) und Stratosphäre (>10 km). Auf der Internetseite Atmosphärenphysik der Uni Wuppertal ist folgendes festgehalten:

Tägliche Temperaturänderungen in der Stratosphäre sind nahezu regelmäßig denen in der Troposphäre entgegengesetzt mit etwa gleichen Beträgen. D.h. eine Erwärmung in der Troposphäre hat eine Abkühlung in der Stratosphäre zur Folge und umgekehrt. Dieses Verhalten ist als Gegenläufigkeitsprinzip bzw. stratosphärische Kompensation bekann. Die Temperaturkonstanz bzw. -zunahme hat ihre Ursache in der Strahlungskühlung durch den Wasserdampf in der oberen Troposphäre und Tropopausenregion und in der Erwärmung durch Absorption solarer Strahlung in der oberen Stratosphäre.“

Ein weiterer „Kalauer“, den der „Wissenschaftliche Beirat“ von „Klimafakten“ vorlegt:

“Direkte Strahlungsmessungen zeigen eine Zunahme der von der Erde ausgehenden langwelligen Wärmestrahlung (Harries 2001) und einen Anstieg der langwelligen Strahlung, die bei klarem Himmel aus der Atmosphäre auf die Erde einfällt und nur von Treibhausgasen stammen kann, da die Sonnenstrahlung kurzwellig ist. (Philipona 2005) – beides kann nur mit dem Treibhauseffekt erklärt werden.“

Diese Aussage sagt nichts anderes, als dass die Erde und damit THG*) eine Energiequelle ohne die Sonne sind und die Erde sich von sich selbst aus erwärmen würde, was gegen Grundprinzipien der Thermodynamik verstößt. Wie jeder weiß, wird darüber hinaus die kurzwellige Sonnenstrahlung durch die Atmosphäre selbst und die Bodenwärmeflüsse gewandelt. Vom PIK ist der Autor nichts Besseres gewohnt.
*) Sog. Treibhausgase, wie auch der postulierte Treibhauseffekt (THE), basieren auf vielleicht plausiblen (siehe Fazit) aber letztlich willkürlichen Annahmen und Festlegungen. Eine dieser willkürlichen Annahmen ist die Basis des THE, die sog. globale Temperatur der Erde ohne Atmosphäre von -18°C, anhand derer der sog natürliche THE berechnet wird. Anhand einer gemessenen und dann gemittelten globalen Oberflächentemperatur von +15°C läge der sog. natürliche THE bei 33°C (15°C – -18°C). An dem sog. natürlichen THE setzt der sog. anthropogene THE an. Stimmt der erstere nicht, so ist folglich auch der letztere falsch.
Berechnet wird die fiktive Temperatur der Erde ohne Atmosphäre anhand der Annahme eines Strahlungsgleichgewichts (eingehende Strahlung = ausgehende Strahlung) und nach S&B nach der Formel:

Während die „Solarkonstante“ recht gut ermittelt werden kann, wurde als planetarische Albedo einfach der gleiche Wert (0,3), wie für eine Erde mit Atmosphäre angesetzt, was nicht nur willkürlich (lässt sich nicht messen), sondern auch beliebig falsch ist. Nach Weichert (Fig. 25, S. 102) teilt sich die Albedo auf 0,21 (Wolkenanteil), 0,07 (Atmosphäre) und 0,02 (Boden). P. Kupfer/W. Kuttler (1998) definieren die Albedo als Rückstrahlung der Gesamtstrahlung (betrachten also das gesamte Strahlungsspektrum) und kommen ebenfalls auf einen Wert von 0,3 – 0,31 (in ihrer Arbeit auf S. 68). Sie teilen die Albedo auf, in 15,6% im sichtbaren Bereich, 10,8% Infrarotbereich und 4,2% im UV-Bereich. Bereits 1977 ging Michail Budyko in seinem Buch “Climatic Change“ von einer Albedo ohne Atmosphäre von 0,07 aus. Selbst die Vertreter der Deutsche Meteorologische Gesellschaft schreiben in einer Stellungnahme aus dem Jahre 1995 zu den “Grundlagen des Treibhauseffekts“ über die (fiktiven) -18°C: “Dabei ist eine planetare Albedo von 30 %, wie sie für das System Erde/Atmosphäre gilt, angenommen worden, d. h. die dem System zugeführte Sonnenenergie ist genauso groß wie in Wirklichkeit. Nimmt man eine realistische Albedo der Erdoberfläche von 15 % an, so ergibt sich für die mittlere Erdoberflächentemperatur ein Wert von -5,5° C.“
Selbst das IPCC gibt zu, dass die angesetzte Albedo von 0,3 für eine Erde ohne Atmosphäre falsch ist. Anhand der Energieflüsse von Trenberth (Abbildung 13), die als Grundlage für das Strahlungs(un)gleichgewicht der Erde dienen, ist die Albedo aufgeteilt in Boden und Atmosphäre, wobei der reflektierte Anteil der Atmosphäre mit 79 W/m2 deutlich über dem reflektierten Anteil den Bodens mit 23 W/m2 liegt. Wird dieser Wert in Relation gesetzt, so ergibt sich für eine Erde ohne Atmosphäre eine planetarische Albedo von 9,5%, was übrigens dem Wert der tatsächlichen Mondalbedo mit 0,11 (11%) sehr nahe kommt. Wird dieser realistische Wert in die obige Gleichung eingesetzt, so ergibt sich eine Temperatur für die Erde ohne Atmosphäre von 272 K, gleich -1°C. Der sog. natürliche THE von 33°C ist somit nach Trenberth auf nur noch 16°C zusammen geschrumpft. Mit diesem Wert, zugleich auch all die anderen vermuteten Werte, die die unterschiedlichen Treibhausgase am sog. postulierten THE haben sollen. Er basiert zudem auf Annahmen, die in der Realität auch nicht annähernd erfüllt sind**).

Abbildung 13 zeigt die Energieflüsse nach Trenberth, 2009.
**)
·    Die planetare Albedo von 0,3 gilt nur für eine Erde mit Atmosphäre
·    Das planetare Emissionsvermögen ist mit ca. 0,67 deutlich geringer als 1
·    Eine gleichförmig verteilte Oberflächentemperatur gibt es nicht
·    Die Rotation wird nicht berücksichtigt (dazu müsste eine Energiefluss-Bilanzgleichung für die Oberfläche eines jeden Gitterelements aufgestellt und gelöst werden)
·    Speicherung von Energie im Erdboden bleibt unberücksichtigt
Soviel zu den „Fakten“ („Wahrheiten“), den die Betreiber von „Klimafakten“ propagieren.
Die NASA als Weltraumbehörde, nicht das Goddard Institute for Space Studies, das sich vorrangig mit Klima-Computerspielen beschäftigt (siehe obige Aussage von Prof. Marotzke zu den Klimamodellen), der Teil der  NASA, der das Erbe von Werner von Braun angetreten hat, widerlegt m.E.n ganz eindeutig die These vom Treibhauseffekt und die obige Aussage („Direkte Strahlungsmessungen zeigen…“) der erhöhten langwelligen Wärmeabstrahlung, die auf THG basieren soll, wie Abbildung 14 zeigt.

Abbildung 14, Quelle: (http://isccp.giss.nasa.gov/projects/browse_fc.html) zeigt die sich ändernde Strahlungsabgabe der langwelligen IR-Strahlung (Variabilität, TOP = Top Of Atmosphere) der Erde im Zeitraum von 1984 – 2005. Der Hub zwischen Min. – Max. beträgt 7 W/m2. Die Abbildung ist übrigens ein eindeutiger Beweis, dass die globalen Temperaturreihen manipuliert (z.B.: über Auswahl – EIKE berichtete darüber) sind, weil diese zur langwelligen Abstrahlung (Wärmeabstrahlung) der Erde nicht passen (Abbildung 15).

Abbildung 15 zeigt den Vergleich der langwelligen Erdabstrahlung, die bekanntlich das Produkt (Resultat) der globalen Erdtemperaturen ist und der globalen Temperaturentwicklung selbst, linke Abbildung, Quelle: www.Klimafakten.de. Während die globalen Temperaturen seit 1975 stetig steigen (zumindest gibt die Zeitreihe dies vor), ist die longway IR-Abstrahlung bis ca. 1998 konstant und steigt erst ab 2001 erkennbar an. In jenen Jahren (bis 2003) hatte der Hauptsonnenzyklus, der im Mittel 208-jährige de Vries/Suess-Zyklus sein Maximum.

Abbildung 16 links zeigt die Häufigkeit der solaren Neutronenströme pro Jahr als Maß solarer Aktivität, Quelle: Dr. Borchert (Uni Mainz), “Klima, Sonnenflecken und kosmische Strahlung“ im Vergleich der langwelligen IR-Abstrahlung, also Erderwärmung. Es ist überdeutlich das gleiche Muster (Fingerabdruck, grüne Kreise) zu erkennen, was zeigt, dass zum einen, die eingangs zitierte Aussage aus „Klimafakten“ unhaltbar ist und zum anderen, einzig die Sonne („Ohne die Sonne geht gar nichts.“ Dr. Tiersch) die Erdtemperaturen steuert. Weiter ist sehr transparent zu sehen, wie der Ausbruch des Pinatubo in 1991 (blauer Balken), der die Erdtemperaturen für 2 Jahre um ca. 0,8°C senkte, die langwellige Erdabstrahlung (abhängig von der Temperatur) ebenfalls ins Minus lenkt, obwohl die Neutronenströme und damit die solare Aktivität hoch ist.
Fazit:
Anspruch und Wirklichkeit passen nicht zusammen. Die Herausgeber der Netzseite „Klimafakten“ schreiben vollmundig:
Für den Klimaschutz gibt es keine Patentrezepte. Umso mehr kommt es in der Debatte über die besten Wege zum Klimaschutz auf eines an: dass die grundlegenden Fakten stimmen. Deshalb haben die Mitglieder des Wissenschaftlichen Beirats alle Texte auf dieser Website vor der Veröffentlichung überprüft. Darüber hinaus aktualisieren wir die Texte regelmäßig.“
Unser Artikel zeigt, dass „überprüfen“ (lesen), allein nicht ausreicht. Sachverstand und Wissen als Grundlage der Wissenschaft, und das kritische Hinterfragen, sind nun einmal durch nichts zu ersetzen.
Abschließen möchte der Autor mit einer Aussage von Prof. Dr. John S. Mattick aus S.d.W. 03/05, S. 62, die, wie der Autor meint, die derzeitige Auseinandersetzung zum sog. THE recht treffend beschreibt, auch wenn die Aussage ursprünglich aus dem Wissenschaftszweig der Molekularbiologie stammt: “Unbewiesene Annahmen entwickeln manchmal ein Eigenleben, was besonders in der Naturwissenschaft unangenehme Folgen haben kann. Am Anfang geht es gewöhnlich nur um eine plausible oder einfache Erklärung der Befunde. Wenn sie keine offensichtlichen Mängel aufweist und ihr Wahrheitsgehalt nicht unmittelbar überprüfbar ist, mutiert sie aber oft zum Glaubenssatz. Neue Beobachtungen werden dann passend interpretiert. Irgendwann aber muss das Dogma unter der Last eklatanter Widersprüche zusammenbrechen.“
Raimund Leistenschneider – EIKE