Starker Temperaturanstieg seit 1979 in Erfurt- warum CO2 dabei nur eine unbedeutende Nebenrolle spielt! Teil 1

Abstract

Die hier durchgeführte Untersuchung zu den Erwärmungsursachen anhand amtlicher Messwerte der DWD- Station Erfurt- Bindersleben verdeutlicht die Schwierigkeiten bei der Abschätzung möglicher Erwärmungseffekte. Es konnte jedoch gezeigt werden, dass allein etwa die Hälfte des seit 1979 in Erfurt beobachteten Temperaturanstiegs auf eine bloße Zunahme der Sonnenscheindauer zurückführen lässt. Wegen der Kopplung der Wettersysteme (El Niño), muss davon ausgegangen werden, dass der solare Einfluss noch größer ist.
Einen wesentlichen, aber noch weiter zu untersuchenden Teil von etwa 0,6K, hat auch der „Urbanisierungs- und Flächenhafte Wärmeinseleffekt“ beigetragen. Weiterhin deuten sich zumindest leichte Erwärmungseffekte durch Zirkulationsänderungen an, besonders im Frühjahr. Auch hierzu sind noch tiefere Untersuchungen notwendig. Möglicherweise tritt der Zirkulationseffekt dann deutlicher hervor.
Anhand der gezeigten Korrelation am Langzeittrend, kann auch eine leichte Erwärmung durch „Treibhausgase“ nicht völlig ausgeschlossen werden. Deren Betrag fällt jedoch gegenüber den „Hauptakteuren“ Solar- und Wärmeinseleffekten sehr gering aus, sofern er überhaupt vorhanden ist, da keine Ursache-Wirkung besteht (Korrelation seit mehr als 10 Jahren divergierend, d.h. nicht vorhanden). So zeigt das folgende Diagramm die möglichen Einflüsse anhand der Korrelationsergebnisse. Es deutet grob an, wie sich die Erwärmung danach zusammensetzt. Außerdem sind weitere, hier nicht untersuchte scheinbare Erwärmungsursachen, wie etwa die Verfälschung der Tageswerte durch Umstellung auf stündliche Lufttemperaturmessungen seit 2001 und halbstündige seit 2009, nicht ausgeschlossen.

Teil 1: Vorstellung der Hauptakteure

Teil 2: „Trittbrettfahrer“ CO2 – Das Phantom der Klimawissenschaft

Teil 1 Vorstellung der Hauptakteure

 
Seit 1979 sind die Lufttemperaturen in Erfurt um etwa 1,3°C beziehungsweise 1,3 Kelvin (K) gestiegen- in nur 33 Jahren um fast das Doppelte der angeblich seit etwa 150 Jahren stattfindenden „Erderwärmung“ von etwa 0,8K. Da lohnt es sich, einmal genauer hinzuschauen- schließlich könnte sich ja die „globale Erwärmung, angeblich durch CO2 verursacht“, in Thüringen viel schlimmer auswirken, als bislang angenommen. Es könnte aber auch alles ganz anders sein. Die folgende Arbeit erhebt keinen Anspruch auf Vollständigkeit und soll vor allem zum unvoreingenommenen Nachdenken über mögliche Erwärmungsursachen anregen.  
Mehr Sonnenschein- Mehr Wärme!
Die folgenden zwei Abbildungen zeigen den Temperaturtrend (oben) und den Trend der Sonnenscheindauer (unten).
 
Abbildung 2. Die Ähnlichkeit beider Verläufe ist unverkennbar. Die höhere Sonnenscheindauer wirkt erwärmend. Eine Korrelationsberechnung zwischen jährlicher Sonnenscheindauer und den Jahresmitteltemperaturen bestätigt diesen Verdacht (folgende Abbildung).

Abbildung 3
Das Bestimmtheitsmaß von fast 47% sagt aus, dass knapp 47 Prozent der Variabilität der Lufttemperaturen im Betrachtungszeitraum von der Variabilität der Sonnenscheindauer verursacht wurden. Anmerkung: Eine positive Korrelation ist für sich allein zwar kein eindeutiger Beweis für den Zusammenhang zwischen beiden Faktoren. Dass jedoch eine längere Sonnenscheindauer mehr Energiezufuhr bedeutet, welche die Erdoberfläche und über diese dann auch die unteren Luftschichten stärker erwärmt, dürfte niemand anzweifeln.
Erstes Ergebnis: Mehr Sonnenstunden, mehr Wärme. Etwa zur Hälfte lässt sich der  Erwärmungstrend mit der seit 3 Jahrzehnten zunehmenden Sonnescheindauer erklären! Die Sonne scheint heute in Erfurt gut 200 Stunden länger pro Jahr, als noch Ende der 1970er Jahre, was in etwa der Sonnenscheindauer eines ganzen Sommermonats entspricht!
Untersuchungen anderer europäischer Stationen, unter anderem von Berlin- Dahlem, Potsdam, Horben (Schwarzwald), Observatorium Modena (Norditalien), sowie mehrerer Stationen aus der Schweiz, deuten in die gleiche Richtung. Seit etwa 2000 stagniert die Temperatur auf hohem Niveau.
Dieser Erwärmungseffekt durch längere und intensivere Besonnung ist wegen strenger Umweltauflagen (Luftreinhaltemaßnahmen) in Europa besonders deutlich ausgefallen und ist eine Erklärung, warum die Temperaturen hier so viel stärker als im „globalen Mittel“ angestiegen sind. Seit mehr als 10 Jahren stagnieren sie jedoch auf hohem Niveau oder sinken gar wieder leicht, zumal die „Luftreinhalteeffekte“ weitgehend ausgereizt sind. Außerdem lässt die Sonnenaktivität, welche ebenfalls wesentliche Einflüsse auf die Sonnenscheindauer und die Intensität der Einstrahlung hat (z.B. „Svensmark- und Aerosoleffekte“) aktuell stark nach.
Die folgende Abbildung zeigt, wie sich die globale Wolkenbedeckung, also nicht nur die von Städten, seit Beginn des Erwärmungstrends änderte.

Abbildung 4 links zeigt die globale Wolkenbedeckung von Juli 1983 – Juni 2005, nach Daten des ISCCP (International Satellite Cloud Climatology Project). Die Abbildung stammt aus der Arbeit von Evan et al. “Arguments against a physical long-term trend in global ISCCP cloud Amounts“. Bereits die linke Abbildung deutet auf eine periodische Schwingung von größer 18 Jahren (grüner Pfeil) hin. Dass Kurvenminimum liegt im Maximum des 23. Schwabe- Zyklus im Jahr 2000. Rechts ist der Kurvenverlauf an der gestrichelten Linie gespiegelt und ab 2005 (Datenende) angesetzt. Dabei wurde darauf geachtet, dass das Verhältnis zwischen Anstieg und Rückgang im Schwabe-Zyklus etwa 2 zu 3 beträgt (die Anstiegszeit eines solaren Zyklus ist nicht exakt fix, sondern davon abhängig, wie stark der kommende Zyklus ist – starker Zyklus = schnelle Anstiegszeit, schwacher Zyklus = langsame Anstiegszeit, insofern stellt das Verhältnis 2 zu 3 einen Mittelwert dar). Das Maximum der globalen Bewölkung folgt in eindeutiger Weise vom Hale-Zyklus (Polaritätszyklus der Sonne) und damit der Polarität des magnetischen Sonnenzyklusses. Weitere Untersuchungen sind notwendig, den komplexen Einfluss der Sonne auf unser Wetter/Klima, hier der Wolkenbildung, besser zu verstehen und die obigen Erkenntnisse abzusichern. Denn der Einfluss der Wolken auf die Wetter- und damit Temperaturverhältnisse sind elementar.
Nach Angaben des DLR (Deutsches Zentrum für Luft- und Raumfahrt) bedeutet eine Reduzierung des mittleren Wolkenbedeckungsgrades von wenigen Prozent, bereits eine globale Temperaturänderung, die einer Verdoppelung des CO2-Gehaltes nach den Modellvorstellungen des IPCC entspricht. Im obigen Chart beträgt die Reduzierung des Wolkenbedeckungsgrades ca. 6% bis zum Jahr 2000.
Anmerkungen: Es ist zu erwarten, dass durch die etwa 60%ige Abnahme der Luftschadstoffe seit 1980 („Aerosol- Effekt“) und die hohe Sonnenaktivität um 1990, eben auch die Intensität der Sonnenstrahlung deutlich zunahm, was zusätzlich erwärmend wirkt, da mehr direkte Sonnenstrahlung mit einem höheren (energiereicheren) Blauanteil die Erdoberfläche trifft, was aber hier nicht zum Ausdruck kommt, da ja nur der Einfluss der Sonnenscheindauer, nicht aber deren Intensität, untersucht wurde. So ist noch ein zusätzlicher Erwärmungseffekt durch die höhere Intensität der Sonnenstrahlung selbst (in der Literatur als „Solar brightening“ = Aufhellung der Sonnenstrahlung) zu erwarten, der sich ohne Strahlungsmessungen am Standort Erfurt aber nicht quantifizieren lässt. Mit sinkenden Luftschadstoffgehalten nahmen auch Dauer und Häufigkeit von Nebel (und womöglich auch der Bedeckungsgrad mit Tiefen Wolken) deutlich ab.
Weiterhin muss erwähnt werden, dass die monatliche Sonnenscheindauer im Sommerhalbjahr mit Bestimmtheitsmaßen von 35 bis über 70% die Monatsmitteltemperaturen wesentlich stärker beeinflusst als im Winterhalbjahr mit Bestimmtheitsmaßen von nur 6 bis kaum 14%. Kurzum- mehr als zwei Drittel der vergangenen Erwärmung in den Sommermonaten lassen sich aus der Sonnenscheindauer erklären, während besonders für das Winterhalbjahr nach weiteren Ursachen gesucht werden muss.
Bedingt durch die anthropogene (menschliche) Veränderung der Beschaffenheit der Erdoberfläche gibt es verschiedene Erwärmungseffekte; am bekanntesten ist der städtische („urbane“) „Wärmeinseleffekt“ (im Englischen mit UHI = Urban Heat Island Effect abgekürzt). Siedlungen und Städte sind aus folgenden Gründen wärmer als ihr Umland; hier sollen nur die wichtigsten aufgezählt werden:
Es gibt direkte Wärmequellen, und zwar
Verbrennungsmotoren (Verkehr im weitesten Sinne).
Heizungen, Klimaanlagen und Kühlschränke.
Beleuchtung (besonders Glühlampen) und Widerstandsverluste im Stromnetz.
Kanalisation und Müll (die darin enthaltenen Mikroorganismen erzeugen Wärme).
Viele Menschen und Haustiere auf engstem Raum (jeder Mensch erzeugt durch seinen Stoffwechsel in etwa soviel Wärme wie eine 100- Watt- Glühbirne).
Mindestens genauso wichtig, vielleicht sogar wichtiger, sind indirekte Erwärmungseffekte:
Einschränkung der stark kühlend wirkenden Verdunstung durch Bodenversiegelungen (Pflaster, Asphalt,  Beton) und Ableitung des Regenwassers aus der Stadt.
Fehlender oder geringerer Pflanzen- und Gehölzwuchs als im unbebauten Umland. Die Vegetation „kühlt“ durch Beschattung, durch Verdunstung sowie durch Aufnahme eines Teils der Sonnenenergie zur Photosynthese.
Die Stadt empfängt durch ihre höhere Rauhigkeit und besondere Bodenbeschaffenheit mehr Sonnenstrahlung als das Freiland (dunkler Asphalt, außerdem absorbieren Steildächer und senkrechte Hauswände besonders die Strahlung der tief stehenden Sonne, welche im Freiland kaum erwärmend wirkt). Besonders spätabends und nachts wirkt das deutlich erwärmend, weil die Baumaterialien dann die tagsüber gespeicherte Wärme an die Luft abgeben („Wärmespeicherkapazität der Straßen und Häuser).
Die Bebauung bremst den kühlend und belüftend wirkenden Wind. Ganz nebenbei: Wer Windräder aufstellt, um „das Klima zu schützen“ muss diesen Effekt ebenfalls in Kauf nehmen. Die Bremsung des Windes durch große „Windparks“ ist erheblich und trägt so ebenfalls zum Temperaturanstieg in Bodennähe auch außerhalb von Städten bei – willkommen in Absurdistan!
Horizonteinengungen und Mehrfachreflexionen behindern die nächtliche Ausstrahlung. Luftverschmutzungen (die berüchtigte „Dunstglocke“ aus Staub und Nebeltröpfchen) wirken nachts und daher besonders im Winterhalbjahr erwärmend, weil sie die Wärmeabstrahlung stärker zum Boden zurück reflektieren, als saubere Luft. Tagsüber mindern sie zwar die Intensität der Sonnenstrahlung und wirken dadurch kühlend, aber alle direkten, nur im urbanen Bereich konzentriert auftretenden Erwärmungsquellen können sie nicht überkompensieren.
Leider liegen zur genauen Entwicklung der Bebauung und Bodenversiegelung im Umfeld des Erfurter Flughafens keine genauen Angaben vor. Nach eigenen Beobachtungen nahmen diese besonders seit 1990 stark zu (mehr Flug- und Straßenverkehr, zahlreiche gewerbliche Neuansiedlungen und Wohnungsneubauten). Auch fehlen Messwerte einer vom Urbanisierungseffekt weniger beeinflussten Freilandstation, so dass man den Effekt der zunehmenden Verstädterung auf die Entwicklung der Temperaturen nur schwer ermitteln kann. Ein mögliches Verfahren zur Berechnung dieser Erwärmungseffekte hat einer der Autoren entwickelt und basiert auf dem Strahlungsgesetz nach Planck und dem Abkühlungsgesetz nach Newton.
Anhand dieser Berechnung beträgt der Urbanisierungs- und Flächenhafte Wärmeinseleffekt bei der vom DWD für Deutschland ausgewiesenen Erwärmung für die letzten 120 Jahre +1,1°C von +1,9°C, d.h. der größte Anteil der Erwärmung geht auf den WI zurück. Insbesondere in der ehemaligen DDR sind nach der Wende 1989/90 aus einstigen kleinen Wärmeinseln durch die Ausbreitung der Bebauung großflächige Wärmeregionen entstanden, und der Trend hält an. Das gilt auch für Erfurt. Die Wetterstation liegt heute am Flughafengelände Erfurt/Weimar, das nach der Wende erheblich erweitert wurde. Diese zusätzlichen erwärmenden Wirkungen der freien Fläche haben wir durch den Begriff flächenhafter Wärmeinseleffekt abgedeckt, den wir mit WI abkürzen.
Unsere Untersuchungen zeigen, dass im Schnitt der 2100 Stationen Deutschlands der Wärmeinseleffekt etwa 0,1 Grad pro Jahrzehnt über die letzten 120 Jahre beträgt. Jedoch betrug er anfangs weniger, in den letzten 30 Jahren aber das Doppelte. Das bedeutet, dass mindestens 0,6K des in Erfurt beobachteten Temperaturanstiegs seit 1979 auf das Konto der (noch immer andauernden) Urbanisierung (Verstädterung) und auf die Umgestaltung der einstigen freien Fläche gehen. Da Erfurt eine „Boomtown“, mit im Vergleich zu Gesamtdeutschland überdurchschnittlich zunehmender Bebauung ist, muss von einem noch etwas höheren Urbanisierungs- und Flächenhaften Wärmeinseleffekt als den 0,6K Temperaturzunahme ausgegangen werden, wobei der Urbanisierungseffekt dominant ist.
Die linearen, nach dem Jahr 2000 etwas fallenden Trendlinien von Deutschland und Bindersleben verhalten sich ähnlich (Abbildungen 5 und 6). Das Jahr 2000 war jeweils das wärmste Jahr. Der Temperaturrückgang der letzten 11 Jahre war in Bindersleben jedoch nicht so stark wie der Gesamtschnitt der deutschen Messstationen. In den letzten Jahren nähert sich Bindersleben langsam dem Deutschlandschnitt. Allerdings ist der betrachtete Zeitraum von 11 Jahren zu kurz für endgültige Schlussfolgerungen. Allgemein gilt jedoch: Urbanisierungs- und flächenhafte Wärmeinseleffekte wirken einer Abkühlung entgegen. Je mehr eine Station durch diese Effekte beeinflusst wird, desto weniger stark kühlt sie ab.
 
Abbildung 5

Abbildung 6
Weiter ist anzuführen, dass es in der verbleibenden freien Landschaft (beispielsweise durch Trockenlegung = Melioration, geänderte Anbaumethoden und die Umwandlung naturnaher Laubmischwälder in Fichten- oder Kiefernmonokulturen, aber auch durch Straßenneubau und Splittersiedlungen) weitere Erwärmungseffekte gibt, die ebenfalls unter den Begriff „Flächenhafter Wärmeinseleffekt“ fallen. Bei der Station Erfurt dürften allerdings Urbanisierungseffekte dominant sein, da hier vor allem Bebauung und Verkehr zunahmen. Außerdem ist zu beachten, dass die in den Städten erzeugte Wärme natürlich auch in die freie Landschaft „eingetragen“ wird und dort eine (mit wachsendem Abstand zur Stadt kleiner werdende) Erwärmung bewirkt.  
Zweites Ergebnis: Die Urbanisierungs- und Flächenhaften Wärmeinseleffekte bewirkten ebenfalls einen Teil des Temperaturanstiegs, der aber leider aufgrund des Fehlens vergleichbarer Zahlen für Erfurt nur geschätzt werden konnte und seit 1979 mindestens 0,6K, betragen dürfte. Unsere Untersuchungen legen jedoch den Schluss nahe, dass bei der Station Erfurt- Bindersleben die urbanen Erwärmungseffekte überwiegen.
Anmerkungen: Gerade bei der Quantifizierung der „Urbanisierungs- und Flächenhaften Wärmeinseleffekte“ ergibt sich ein weites Feld für die Forschung. Folgende Fragestellungen wären interessant:

  1. Wie stark tragen die verschiedenen Wärmequellen und Erwärmungseffekte im Einzelnen zur Erwärmung bei?
  2. Gibt es- ähnlich, wie bei der Sonnenscheindauer, jahreszeitliche Unterschiede? Zumindest bei den durch Insolation (Einstrahlung) und Verdunstungsminderung verursachten Effekten ist dies zu erwarten. Im Sommer dominieren die indirekten Erwärmungseffekte und im Winter die direkten Wärmequellen. Dadurch sind möglicherweise deren Beträge der Erwärmung im Sommer und Winter annähernd gleich. In Städten etwa vergleichbarer Größe und Struktur wächst außerdem der Erwärmungseffekt mit zunehmender geografischer Breite oder der Höhe über dem Meeresspiegel, weil aus dem Strahlungsgesetz nach PLANCK folgt, dass sich ein kühlerer Körper (damit auch eine kühlere Region) bei derselben Energiezufuhr pro Zeiteinheit stärker erwärmt, als ein wärmerer.
  3. Was passiert in Städten, die in den vergangenen Jahrzehnten eine gravierende Deindustrialisierung und einen massiven Bevölkerungsrückgang zu verzeichnen hatten (Ruhrgebiet, Eisenhüttenstadt, Suhl und andere)? Ist dort die Erwärmung durch den Wärmeinseleffekt geringer ausgefallen, vielleicht sogar ausgeblieben oder gar rückläufig? Dies dürfte auch von der Intensität und Qualität der Rückbaumaßnahmen abhängen (bei Konversion in intensive Grün- oder Wasserflächen ist der Kühleffekt am größten).

 
Abbildung 7 links entstammt einer Untersuchung aus den USA (Utah) und zeigt, wie sich die Erwärmungstrends mehrerer in Städten befindlicher Messstationen pro Jahrzehnt (linke, rotbraune Säule) von solchen in rein landwirtschaftlich genutzten Arealen (mittlere Säule) und von solchen in vom Menschen weitgehend unbeeinflussten („naturnahen) Arealen unterscheiden (rechte Säule).
Die Differenz der Höhen linke minus rechte Säule ist der Urbanisierungseffekt der Städte, hier in Fahrenheit dargestellt (0,4 Fahrenheit entsprechen etwa 0,22°C). Im Vergleich zu vom Menschen weitgehend unbeeinflussten Landschaften verlief die Erwärmung in den Städten also etwa doppelt so schnell (zusätzlich gut 0,1°C pro Jahrzehnt), was mit den erwähnten Wärmeeffekt- Berechnungen für Deutschland gut übereinstimmt. Die rechte Abbildung zeigt den Einfluss der Größe einer Siedlung auf deren bislang erfolgte zusätzliche Erwärmung in Kelvin (1K = 1°C). Allerdings hängt die Erwärmungsrate auch von der Besiedlungsdichte und der Art der Bebauung ab. Je dichter Bebauung und Besiedelung, desto höher ist die Erwärmungsrate. Gute Durchgrünung und Durchlüftungsschneisen mindern die Erwärmung.
3. Wirkten sich auch Änderungen in der Zirkulation aus?

     

Berühmt wurde der sogenannte „Klimasprung“ am Ende der 1980er Jahre, als es deutlich wärmer wurde. Auch in Erfurt ist dieser- wenngleich undeutlich- zu erkennen. Dem, mit Ausnahme der Jahre 1982 und 1983, recht kühlen Zeitraum von 1979 bis 1987 (7 Jahre mit weniger als 8°C Jahresmitteltemperatur), folgte ab 1988 eine regelrechte „Kleine Warmzeit“ mit einem ersten Höhepunkt 1989/90, den absoluten Höhepunkten 1994 und um 2000, danach gab es bei Stagnation weitere Höhepunkte 2007 und 2011, während die Einbrüche (1996, 2010) zwar sehr markant, aber nie von Dauer waren. Nun lohnt es sich, die 5 wärmsten und die 5 kältesten Jahre einmal etwas genauer unter die Lupe zu nehmen.
Die 5 wärmsten Jahre (2000, 1994, 2007, 2011, 1990) zeichneten sich durch eine Häufung kräftiger Westwetterlagen im Januar, Februar und im Dezember aus, während im Sommer ebenfalls wechselhaftes Westwetter überwog (lediglich im heißen Sommer 1994 dominierten Hochdruckwetterlagen). In den kältesten Jahren (1996, 1987, 1985, 1979 und 1980) gab es in den Wintermonaten markante Kälteeinbrüche aus Ost bis Nordost, die zumindest einige Wochen, mitunter gar über Monate (1996) dominierten, während alle Sommer dieser Jahre wechselhaft und mehr oder weniger zu kühl ausfielen. Es fällt auf, dass Jahre mit sehr warmen Sommern (1982, 1983, 1992, 1994, 2003, teilweise auch 1991, 1995, 2006 und 2010) nur einmal unter den „Extremjahren“ vertreten sind, was man so erklären kann, dass ihnen teilweise mäßig- kalte Winter oder Frühjahre vorausgingen, mitunter folgte auch ein zeitiger und kalter Herbst. Insgesamt scheinen sich „sommerwarme“ Jahre durch eine im Jahresmittel leicht geschwächte Westwindzirkulation auszuzeichnen. Nun ergibt sich die Frage, ob sich aus den Monats- und Jahresmittelwerten der standardisierten NAO (Nord- Atlantische Oszillation) eine Beziehung zur Jahresmitteltemperatur und zu den Mitteltemperaturen der Hauptjahreszeiten ableiten lässt? (Anmerkung: Hohe, positive NAO- Indizes drücken eine überdurchschnittlich kräftige westliche Strömung über dem Ostatlantik aus, während diese bei negativen Indizes abgeschwächt ist. Bei stark negativen Werten „tauschen“ Azorenhoch und Islandtief gar ihre Plätze. Die NAO wird maßgeblich durch die solare Aktivität moderiert, wie die folgenden Abbildungen belegen.
 
Abbildung 8 links zeigt den NAO-Winterindex von 1865 – 2000 (Quelle: Deutscher Wetterdienst). Deutlich ist in der Wellenform ein 10-Jahres-Zyklus abgebildet, der zeitlich exakt mit dem Schwabezyklus der Sonne korreliert. Hohe Indexwerte sind mit einer intensiven nordatlantischen Westdrift und damit milderen Temperaturen verbunden. Rechts ist der NAO-Winterindex von 1982 – 1998 abgebildet (ergänzt nach Quelle: American Meteorological Society Journal Online, Volume 13, Issue 5, März 2000).
Die kleine Abbildung ist hineinkopiert und zeigt den Schwabezyklus der Sonne im selben Zeitraum. Er stimmt exakt mit dem NAO-Winterindex überein. Dass die Sonne maßgeblich die NAO bestimmt, zeigt bereits die Arbeit ”Length of the solar cycle influence on the relationship NAO-Northern Hemisphere Temperature”, L. Torre, L. Gimeno, M. Tesouro, J. A. Añel, R. Nieto, P. Ribera, R. García, E. Hernández, Geophysical Research Abstracts, Vol. 5, 30-1-2003, European Geophysical Society.
Der NAO- Index wird täglich mit Hilfe der 00- UTC- 500- Hektopascal- Anomalien über der Nordhemisphäre berechnet). Der Zusammenhang zwischen den NAO- Indizes (Jahresmittelwerte) und den Jahresmitteltemperaturen ist aber allenfalls mäßig (Abbildung 9):
 
Abbildung 9
Ein Jahreszeitenvergleich zeigt, dass die NAO- Indizes im Winter einen deutlichen, im Sommer aber praktisch keinen Einfluss auf die Temperaturen haben (Abbildungen 10):
 
Abbildung 10
Man könnte nun den voreiligen Schluss ziehen, dass vielleicht zunehmende NAO- Werte für einen Teil des Temperaturanstiegs seit 1979 verantwortlich sind, denn auch zurzeit des „Klimasprungs“ um 1990 herrschten positive NAO- Werte vor. Dem ist aber nicht so, denn die NAO- Indizes zeigen (wie dargelegt, von der Sonnenaktivität moderiert), eine leicht fallende Tendenz:
 
Abbildung 11
Allerdings war der Rückgang im Winter weniger deutlich als im Sommer:
  
Abbildung 12
Auswertungen lassen den Schluss zu, dass die Häufung trocken- warmer Hochdruckwetterlagen zwischen Anfang April und Ende Mai, welche sich jedoch in den NAO- Werten kaum ausdrückt, ganz wesentlich zum Temperaturanstieg beigetragen haben. Weil der April den stärksten Temperaturanstieg aller Monate in Erfurt aufwies, wurde für ihn die Anzahl der Tage mit Hochdruckwetterlagen (alle vom Deutschen Wetterdienst als „antizyklonal“ eingestuften Großwetterlagentage plus die Tage mit den Großwetterlagen „Hochdruckgebiet über Mitteleuropa“ und „Hochdruckbrücke über Mitteleuropa“) ermittelt. Es ergibt sich eine deutliche Zunahme der Tage mit Hochdruckwetter seit 1979:
 
Abbildung 13
Es gibt momentan etwa 7 Tage mehr Hochdruckwetterlagen im April, als Ende der 1970er Jahre. Die Monatsmitteltemperaturen stiegen im April in Erfurt ebenfalls deutlich an:
 
Abbildung 14
Obwohl beide Trendlinien ähnlich verlaufen, ist der berechnete Zusammenhang mit r = 0,32 und dem daraus resultierenden Bestimmtheitsmaß von 10% alles andere als gut. Man muss allerdings bedenken, dass nicht alle Hochdruckwetterlagen im April „erwärmend“ wirken, denn bei nördlicher bis nordöstlicher Luftströmung kann selbst anhaltender Sonnenschein die heranwehende Kaltluft nicht immer ausreichend aufheizen. Möglicherweise nahmen aber auch andere, „erwärmend“ wirkende Wetterlagen zu, was noch einer genaueren Untersuchung bedarf. So erhöhte sich seit den 1960er Jahren die Häufigkeit der Westwetterlagen im Winterhalbjahr deutlich, dafür treten diese im Sommerhalbjahr seltener auf, was insgesamt ebenfalls erwärmend wirkt („Westwetter“ geht im Winter mit deutlich positiven, im Sommer mit leicht negativen Temperaturanomalien in Mitteleuropa einher).
Die genaue Quantifizierung dieser Erwärmungseffekte durch die Veränderung der Häufigkeiten der Großwetterlagen ist jedoch schwierig. Wie noch gezeigt wird, werden diese Zirkulationsänderungen von der Sonnenaktivität wesentlich beeinflusst und über die Schwankungen der NAO (Nordatlantische Oszillation der Luftdruckverteilung) und der AMO (Atlantische Multidekaden- Oszillation der Wassertemperaturen) direkt gesteuert. Damit wird klar, dass auch hier eine „Trendumkehr“ möglich ist. In den Wintern 2008/09 bis 2011/12 kam es- zumindest monatsweise- schon zu einer deutlichen Abschwächung der Westwetterlagen, was auf eine beginnende Trendumkehr hindeuten könnte. 
Drittes Ergebnis: Aus Zirkulationsänderungen lässt sich der Temperaturanstieg zumindest für Erfurt nicht zweifelsfrei erklären. Die Westwind- Zirkulation, deren Maß der NAO- Index ist, beschleunigte sich bis in die 1990er Jahre hinein, was den „Klimasprung“ um 1990 mit erklären kann. Danach ging sie besonders nach Beginn der 2000er Jahre zurück, so dass im Gesamtzeitraum ein negativer Trend überwiegt, der im Gegensatz zum positiven Temperaturtrend steht. Im Winter beeinflussen steigende NAO- Werte die Lufttemperaturen relativ deutlich positiv (von Westlagen dominierte Winter sind tendenziell milder), während im Sommer fast kein Zusammenhang zur NAO erkennbar ist.
Der Rückgang der NAO- Indizes ging hauptsächlich auf Kosten der Sommermonate. Eine gewisse, nicht in allen Jahreszeiten vorhandene Erwärmung durch häufiger auftretende Hochdruckwetterlagen, besonders im Frühling und mehr Westwetterlagen im Winter, dafür weniger Westwetterlagen im Sommer, deutet sich jedoch an. Insgesamt kann der Betrag des Erwärmungseffekts durch Zirkulationsänderungen nur grob geschätzt und in der Größenordnung von 0,1 bis höchstens 0,3K seit 1979 für Erfurt angesetzt werden.
Verfasst und zusammengestellt (2012) von
Stefan Kämpfe, Weimar
Josef Kowatsch, Hüttlingen
Raimund Leistenschneider, EIKE




Arktische Sommereisschmelze 2012 – Menetekel oder nüchterne Wissenschaft?

So ist im Zeit-online-Interview auf die Frage, dass im Sommer nichts auf die Rekordschmelze hindeutete, von Herrn Prof. Rahmstorf zu erfahren: Das stimmt: 2007 gab es ein langes, stationäres Hochdruckgebiet über der Arktis, das viel Sonne brachte. Das war in diesem Jahr nicht der Fall, das Wetter war durchwachsen.“ Damit die Personen in Presse und PIK nicht weiter im Dunkeln tappen und den Durchblick erhalten, erhellt der folgende Bericht die Szenerie und gibt die Antworten, warum in 2012 die arktische Sommereisschmelze so hoch ausfällt und wagt einen Blick in die Zukunft.

Abbildung 1 zeigt die arktische Eisbedeckung vom 28.08.2012 (rechts) und dazu im Vergleich, die arktische Eisbedeckung am 28.08.2011 (links). Deutlich weniger Eisbedeckung ist in diesem Jahr zu erkennen. Gleiches Bild zeigt die arktische Eisentwicklung.

Abbildung 2 zeigt die arktische Eisentwicklung 2012 zum bisherigen Rekordminimum der letzten 30 Jahre von 2007, Datenquelle: NSIDC (National Snow Ice and Data Center).

Da die Aggregatzustände von Wasser bekannt und gleich sind, muss es eine oder mehrere Ursachen für die starke Sommereisschmelze in 2012 gegenüber dem bisherigen Minimum in 2007 geben. Da es sich beim arktischen Eis um schwimmendes, also gefrorenes Eis handelt, sollen zuerst die arktischen Meerestemperaturen (deren statistisches Mittel – bei all solchen Darstellungen, auch denen des IPCC, handelt es sich immer um statistisch gemittelte Werte, da es physikalisch keine Globaltemperatur, als auch keine arktische Temperatur gibt) betrachtet werden.

 

Abbildung 3 zeigt die Anomalien des Arktischen Meeres von November 1981 bis Juli 2012. Die arktischen Wassertemperaturen sind gegenwärtig zwar hoch, erreichen aber nicht die Werte von 2007. Hier sind wir nicht wirklich fündig geworden. Wie sieht es bei den arktischen Temperaturen aus, die das Eis verstärkt schmelzen lassen können.

 

Abbildung 4 (Quelle: Climate4you.com) zeigt die arktischen Temperaturschwankungen. Sie liegen etwa auf gleicher Höhe wie 2007. Also ein Grund für eine hohe Eisschmelze, aber nicht höher als 2007. Demnach auch nicht der Grund.

Nun hat Eis unterschiedliche Schmelzpunkte, was auf den im Eis eingebauten Salzgehalt zurückzuführen ist. So schmilzt einjähriges Eis schneller, als mehrjähriges.

Abbildung 5 zeigt die Eisentwicklung nach verschiedenen Altersklassen. Auch von dort keine Unterstützung, dass einjährige Eis, welches am schnellsten schmilzt, hat 2012 keine geringeren Werte als im Sommer 2007.

Nun ist die Eisschmelze auch von der Winddrift und damit von der Arktischen Oszillation (AO) abhängig, wie Prof. Dr. Seymor Laxon bereits vor fast 10 Jahren herausfand (Abbildung 6)

 

Abbildung 6 zeigt die Eisanomalien zur Windzirkulation (AO), Quelle: “Are the Ice caps melting?“ Prof. Seymor Laxon.

Weitere Forscher um Prof. Dr. James Morison (Polar Science Center – PSC) stellten fest, dass die arktischen Meeresströmungen, angetrieben durch Luftmassenzirkulationen, die Verteilung von Wärme und Salzgehalt verändern. Die AO (Arktische Oszillation) steht dabei in direktem Zusammenhang mit der Meereisbedeckung. James Morison: "The winter of 2006-2007 was another high Arctic Oscillation year and summer sea ice extent reached a new minimum." Das Forscherteam um James Morison fand weiter heraus, dass sich (durch die geänderten Meeresströmungen) der Salzgehalt der arktischen See seit 2002 deutlich geändert hat (Abbildung links).

Abbildung 7 links zeigt die Trendkonturen des Druckes der arktischen See im Zeitraum von 2002 – 2006, verglichen mit dem Referenzwert der 1990-Jahre. Der Druck steht im direkten Zusammenhang mit dem Salzgehalt, weil die Änderung des Wasserdrucks durch die im Wasser gelösten Stoffe – Salz – bestimmt wird. D.h. eine Erhöhung des Druckes ist gleichbedeutend mit einer äquivalenten Erhöhung des Salzgehaltes – je höher der Druck, desto höher der Salzgehalt. Die Messungen entstanden mit GRACE. GRACE ist ein Gemeinschaftsprojekt der NASA und des DLR (Deutsches Zentrum für Luft- und Raumfahrt). Die Abbildung rechts zeigt die sich veränderte Eisbedeckung im Zeitraum von 1979 – 2005, wobei die Eisschmelze in den 2000-Jahren vergleichsweise hoch ausfiel, Quelle: NASA. Werden beide Abbildungen miteinander verglichen, wird sofort ersichtlich, dass die Regionen, die eine hohe Eisschmelze zu verzeichnen haben, überwiegend auch die Regionen sind, in denen sich der Salzgehalt des Meerwassers erhöht und damit der Schmelzpunkt des Eises herabgesetzt wurde, d.h. die Eisschmelze bereits bei tieferen Temperaturen eintritt, bzw. bei höheren Temperaturen verstärkt stattfindet, mit einer großen Eisschmelze in der Fläche.

Schauen wir uns daher den Kandidaten, der von den Forschern genannt wurde und unmittelbar mit der arktischen Eisentwicklung zu tun hat, die AO, genauer an. Prof. Morison sagt uns dabei auch, worauf zu achten ist – auf eine stark positive Winter-AO vor der Sommereisschmelze.

Die AO ist der Luftdruckgegensatz zwischen den arktischen und den mittleren Breiten auf der Nordhemisphäre. Sie entsteht durch die großen Temperaturunterschiede zwischen den sehr kalten Polarregionen und den gemäßigten mittleren Breiten. Wie der Name schon sagt, handelt es sich um zyklische Änderungen (Oszillation). Die AO bestimmt die arktischen Wettersysteme. Bei einer negativen AO liegt über dem Pol ein starkes Hoch und dadurch bedingt entsteht ein schwacher Polarwirbel. Die sich entwickelnden Winde werden aufgrund der Corioliskraft nach Osten abgelenkt. In der positiven Phase treiben im Winter starke Westwinde die warme Atlantikluft nach Nordeuropa und Sibirien.

 

Abbildung 8 zeigt die Winter AO im Zeitraum von 1950 bis Dezember 2011. Dabei ist festzustellen, dass die AO ausgesprochen stark ist, so stark, wie die Winter AO vor dem letzten Rekordminimum in 2007. In 2011 war die AO dagegen stark negativ. Schauen wir noch genauer hin.

 

Abbildung 9 (Quelle: NASA Science News vom 19.01.2012) zeigt die Entwicklung der Winter AO von 2011/2012 zum Vorjahr. Deutlich ist zu sehen, dass diese vor der jetzt anstehenden Rekordeisschmelze ausgesprochen positiv ausgeprägt war.

Zwischenergebnis: Mit der AO wurde ein Parameter identifiziert, der für die starke Sommereisschmelze verantwortlich ist und dies war bereits im Dezember 2011 absehbar!

Gibt es weitere Kandidaten, die die Eisschmelze bestimmen und für die gegenüber 2007 nochmals verstärkte Sommereisschmelze verantwortlich ist? Von der Gletscher- und Eisentwicklung in unseren Breiten ist bekannt, dass diese von der AMO moderiert wird (Abbildung 10). Die AMO gibt die Wasseroberflächentemperaturen (deren Abweichungen) im Nordatlantik an.

 

Abbildung 10 zeigt die zyklische Entwicklung der österreichischen Gletscher von 1890 – 2002, Quelle: Slupetzky, 2005, Uni Salzburg. Gut erkennbar, dass der derzeitige Rückzug auf einen längeren Eisvorstoß folgt und das in den Jahren von 1930 bis in die 1960-Jahre, ähnlich geringe Eisbedeckungen vorlagen, wie heute. Der Gletscherzyklus zeigt weiter sehr starke Ähnlichkeiten mit der AMO und keine mit einem CO2-Atmosphärenpegel (kleines Bild). Daher soll die AMO an den arktischen Parametern gespiegelt werden.

 

Abbildung 11, zeigt die arktischen Lufttemperaturen von 1880 – 2000 und darunter die trendbereinigte AMO. Deutlich zu sehen, dass sich die arktischen Temperaturen im Gleichklang zur AMO (Quelle: http://la.climatologie.free.fr/amo/amo-index.gif) entwickeln.

Für die jetzige Eisschmelze ist es notwendig, die gegenwärtige AO und zwar die reale und die trendbereinigte zu betrachten.

 

Abbildung 12 (Quelle: http://www.ncl.ucar.edu/Applications/Images/index_amo_1_lg.png) zeigt die reale AMO (mit Trend) und die trendbereinigte. Deutlich ist zu sehen, dass die AMO derzeit ihr Maximum anstrebt. Doch, woher kommen die Trends und die Schwingung, die die AMO nach Beginn des 20. Jahrhunderts steil ansteigen lässt? Der Autor gab bereits in seiner 8-teiligen EIKE-Serie “Dynamisches Sonnensystem – Die tatsächlichen Hintergründe des Klimawandels“ vom August 2011 die Antwort. Der Trend basiert auf dem Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, der um 2003 sein Maximum hatte und etwa 100 Jahre davor, sein Minimum, was sich in der AMO widerspiegelt. Wie sehr er die arktische Eisbedeckung bestimmt, zeigt Abbildung 14.

Auf http://www.ozeanklima.de/ ist hierzu folgendes zu lesen: In den späteren Jahren der 1930er Dekade waren so warm wie die erste Dekade nach dem Jahr 2000. Nach 30 Jahren Abkühlung ab 1940, setzte der Erwärmungstrend seit 1980 wieder ein. War es eine Fortsetzung der Erwärmung, die mit dem Klimaknall im Januar 1919 begonnen hatte?“ Und dazu die folgende Abbildung zu sehen.

 

Abbildung 13 zeigt die globale und arktische Temperaturentwicklung seit 1880 nach GISS. Deutlich zu sehen, dass die globalen Temperaturen um 1910 und die arktischen um 1900 zu steigen beginnen. Dies ist exakt der Zeitpunkt, zu dem der Hauptsonnenzyklus sein Minimum verlies und wieder ansteigt und somit sowohl die globalen, als auch die arktischen Temperaturen ansteigen lässt – der Anstiegstrend beginnt. EIKE-Leser wissen mehr und kennen nun auch den Grund für den Anstieg.

 

Abbildung 14: Natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, zeigt die Abbildung, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen.

Woher stammt indes die Schwingung der AMO von ca. 35 Jahren? Das AWI, Prof. Dr. R. Gerdes, hierzu: "Seit Mitte der 90er Jahre haben wir einen starken Temperaturanstieg im Bereich des Nordatlantiks und des Nordpolarmeers. Das ist zum Teil Folge einer natürlichen oszillierenden Entwicklung, die Perioden von 60, 70 Jahren hat. Da sind wir jetzt in einer warmen Phase."

Diese Schwingung stammt ebenfalls von der Sonne und zwar vom Brückner-Zyklus der Sonne, der exakt diese Schwingung hat, wie Abbildung 15 zeigt.

 

Abbildung 15 (Quelle: Halberg et al., “Thirty-Five-Year Climatic Cycle in Heliogeophysics“) zeigt den Brückner-Zyklus (grün) anhand der zeitlichen Variabilität der Wolfs-Zahl (Sonnenfleckenzahl). Ausgewertet wurden die Daten von Brückner, 1890 (4), Egeson, 1889 (5), und Lockyer, 1901 (6). Der Autor hat die mittlere Zykluslänge im Untersuchungszeitraum (gekennzeichnet durch die beiden roten Linien) ermittelt und an das letzte Maximum des Brückner-Zyklus angesetzt, um auf diese Weise statistisch die Folgemaxima zu ermitteln (blaue Rechtecke). Wie zu sehen, hatte der Brückner-Zyklus um 2005 sein letztes Maximum. Jetzt verwundert es auch nicht mehr, warum Europa 2003 einen Jahrhundert-Hitzesommer erlebte. Gleich drei starke Sonnenzyklen hatten seinerzeit ihr Maximum, der Hauptsonnenzyklus (de Vries/Suess-Zyklus), der Brückner-Zyklus und die magnetische Aktivität im Schwabe-Zyklus. Die Maxima gleich drei solarer Zyklen, die zudem auch noch stark ausgeprägt waren, fielen zu Beginn des Jahrhunderts zusammen, was seit Beginn der Sonnenfleckenaufzeichnungen um 1610 nicht stattfand und wohl letztmalig während dem Klimaoptimum des Mittelalters stattfand (verlässliche Daten über die Sonnenfleckenzahl aus dieser Zeit liegen dem Autor nicht vor, daher das „wohl“).

Wie dominant der Brückner-Zyklus die klimatischen Bedingungen in der Arktis, die Warm-und Kaltphasen und damit die Eisausdehnung bestimmen, zeigt ein Blick auf 1.200 Jahre Klimageschichte.

 

Abbildung 16, Quelle:  Fredrik Charpentier Ljungqvist, Stockholm University, “A regional approach to the medieval warm period and the little ice age“, zeigt Temperaturschwankungen aus Eisbohrkerndaten in Grönland (blau) und von Messungen an der Westküste Grönlands (rot) im Zeitraum von 800 – 2000 (grau: Standardabweichung). Zu sehen ist ein heftig gezacktes Muster, in dem sich relative Minima und relative Maxima abwechseln. Werden z.B. die Maxima gekennzeichnet (blaue Linien), sind im Betrachtungszeitraum 31 volle Perioden von ca. 850 – 1935 abgebildet (der nächste also 1970 und er darauf folgende 2005!!! Vergleiche mit Abbildung 15). Daraus ergibt sich eine mittlere Zykluslänge von exakt 35 Jahren, was dem Brückner-Zyklus entspricht. Temperaturspitzen wechseln sich im Mittel alle 35 Jahre ab. Während des Klimaoptimums des Mittelalters sind die Zyklen eng zusammen, gleich wie heute, wogegen sie zu dessen Ausgang und während der Kleinen Eiszeit deutlich länger werden, was ein sicherer Parameter, für eine schwache Sonnenaktivität ist. So versuchen IPCC-nahe Wissenschaftler vergeblich, die Kleine Eiszeit nicht mit der variablen Sonne in Verbindung zu bringen. Wie am Brückner-Zyklus gezeigt, ein Versuch, der aussichtslos ist.

Nach diesem Exkurs, welche Parameter die AMO und damit unser Wetter und Klima, sowie die arktische Sommereisschmelze bestimmen, zurück, wie sich die AMO in 2012 entwickelte. Abbildung 12 zeigt die AMO bis 2011 und in der schwarzen Zeitreihe, dass sie gerade am Fallen ist, was natürlich der Begründung für die jetzige starke Sommereisschmelze entgegenstünde. Daher soll die AMO in 2012 betrachtet werden und im Vergleich dazu, in 2007. Die Daten stammen von (http://www.esrl.noaa.gov/psd/data/correlation/amon.us.data).

 

Abbildung 17 zeigt die AMO von Januar bis Juli 2012 im Vergleich zur AMO in 2007. Die AMO-Werte von 2012 laufen den Werten von 2007 regelrecht davon. Während die AMO in 2007 gar fällt, was auf das seinerzeit dort vorliegende Hoch zurück zu führen ist (siehe Zeit-online Interview mit Prof. Rahmstorf) und dem damit verbundenen schwachen atmosphärischen Polarwirbel, steigt in 2012 die AMO raketenartig an, was schnell und stark ansteigende Temperaturen in der Arktis bedeutet, vor allem in Grönland, dass sozusagen vor der „Haustür“ der AMO liegt. So braucht es niemanden zu verwundern, wenn die Presse solche Bilder brachte, die zeigen, dass zeitweise große Areale der grönländischen Eisdecke an geschmolzen waren.

 

Abbildung 18 zeigt zwei Momentaufnahmen der grönländischen Eisbedeckung vom Juli 2012. Damals fabulierte die deutsche Presse, dass 97% des grönländischen Eis schmilzen, was blühender Unsinn ist, da lediglich die oberste Schicht kurz an schmolz (Wasser gemessen wurde). Warum dem so war, wissen die EIKE-Leser nun.

Der Autor ist unseren Lesern noch die Beantwortung einer wichtigen Frage schuldig. Warum die arktische Eisschmelze mit dem Maximum der AMO gerade jetzt so ausgeprägt ist? Die Antwort stammt aus der Untersuchung von Prof. Solanki (Max Planck Institut für Sonnenforschung, MPS) “Solar activity over the last 1150 years: does it correlate with climate”. Er ermittelte, dass das Klimasystem der Erde der solaren Aktivität um 10 Jahre nachläuft – die Sonnenaktivität dem Klima um 10 Jahre vor eilt. Was in erster Linie auf die Trägheit und Wärmekapazität des Wassers zurückzuführen ist.

 

Abbildung 19 links zeigt den Nachlauf des Klimasystems zur Sonnenaktivität (Quelle: Solanki et al.). Die Abbildung rechts, den Hitzesommer von 2003 (Quelle: Hadley Center). Während die solare Aktivität auf die Lufttemperaturen und damit Bodentemperaturen unmittelbar wirkt, wirkt sie auf das die Wassertemperaturen und das Klima verzögert, nach Solanki et al. mit einem Nachlauf von 10 Jahren. Die AMO wechselte 1995 in ihre positive Phase, die ca. 35 Jahre andauert. Daraus ergibt sich, dass sie um 2012/2013 ihr Maximum erreicht, was die Zeitreihen der AMO belegen. Ihr Einfluss auf die Eisschmelze wird anschaulich, wenn im Vergleich die Jahre 2007, 2011 und 2012 betrachtet werden (Abbildung 20).

 

Abbildung 20 zeigt die arktische Sommereisbedeckung (Juli) für 2007 (links), 2011 (Mitte) und 2012 (rechts). Gegenüber dem bisherigen Rekord in 2007 sind in 2012 vor allem die Gebiete östlich und westlich von Grönland betroffen, also die Gebiete, die unmittelbar vor der „Haustür“ der AMO liegen. Was den Unterschied zu 2007 ausmacht.

So wird auch die Aussage der russischen Wissenschaftler Dr. habil. Genrich Alexejew, Forschungsinstituts für Arktis und Antarktis (St. Petersburg) zur arktischen Eisschmelze 2012 verständlich: “Der sommerliche „Rückzug“ der Eisdecke im Nordpolarmeer erfolge außerdem nicht gleichmäßig. Die für Russland transportrelevanten Meeresgebiete seien im laufenden Jahr sogar stärker als gewöhnlich mit Eis bedeckt. In der Kara-, Laptew-, Tschuktschen- und Ostsibirischen See sei die Eisdecke beispielsweise stärker als im Jahr 2007“ (Quelle: http://german.ruvr.ru/2012_08_31/86793871/). Und weiter “Die langjährigen Beobachtungen des Petersburger Arktis-Instituts belegen zyklische Schwankungen im Klimasystem des Planeten: Im Abstand von ungefähr 60 Jahren erleben die atmosphärischen Vorgänge und die damit zusammenhängende ozeanische Zirkulation eine Neugestaltung. Derzeit geht eine Erwärmungsphase laut Forschern zu Ende (der vorhergehende Wärme-Höhepunkt war in den 1930er und 1940er Jahren zu beobachten). Die Natur dieser Zyklen ist vorerst nicht ganz klar – ebenso wie die Gesetze, nach denen das Weltmeer lebt.“ EIKE-Leser ist dies klar und sie können diese Zyklen und ihren Einfluss nun beantworten.

Ergebnis:

Zusammenfassend ist festzuhalten, dass die Rekordeisschmelze 2012 auf eine starke AO, wie in 2007 (Abbildung 8) zurückzuführen ist und ihr Minimum gegenüber 2007 auf die steil ansteigende, positive AMO zurückzuführen ist (Abbildung 17), was bereits in 12/11, bzw. spätestens 05/12 absehbar war.

So viel zu den eingangs geschilderten Meinungen und Aussagen eines PIK-Professors. Aber, dass es sich beim PIK mehr um ein Wiederentstanden des Orakels von Delphi, als um eine Wissenschaftseinrichtung handelt, hatte der Autor bereits in seinem EIKE-Artikel “Prognosen des Meeresspiegelanstiegs und was sie wert sind“ (http://www.eike-klima-energie.eu/klima-anzeige/prognosen-des-meeresspiegelanstiegs-und-was-sie-wert-sind/) gezeigt. Der Autor schloss seinen EIKE-Artikel mit den Worten. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.“ Mit Wissenschaft hat all dies nichts zu tun.

Die Wissenschaft sucht nach Fragen und strebt danach, diese Fragen zu beantworten und zu beweisen. Herr Prof. Rahmstorf weiß davon offensichtlich nichts. Er ist jedoch in einem Alter, in dem es nicht abwegig ist, an den verdienten Ruhestand zu denken. In Anbetracht seiner gezeigten Leistungen im Zeit-online Interview, eine echte Alternative. Bei der Süddeutschen und beim ZDF fällt dem Autor spontan ein, dumm, dümmer, ZDF.

Warum viele deutsche Journalisten so verpicht darauf sind, sich als Halbwissende auszuzeichnen, vermag der Autor nicht zu beantworten. Möglicherweise hat dies etwas mit der Tradition des deutschen Journalismus zu tun. In Deutschland gab es mal Zeiten, in denen die Journalisten von Amts wegen die Dummheit verbreiteten und damit als Verstärker dienten. In Ostdeutschland ist dies noch nicht so lange her, etwas mehr als 20 Jahre. In Westdeutschland, etwas länger – mit dem Unterschied zu heute (wie Heute-Journal), dass sie dies jetzt freiwillig tun wie beim Heute-Journal (Frau Reidt ).

Raimund Leistenschneider – EIKE




Prognosen des Meeresspiegelanstiegs und was sie wert sind

 

Abbildung 1: BILD benutzte die Veröffentlichungen zum prognostizierten Meeresspiegelanstieg um 3 m und mehr, für einen wohl scherzhaften Aufmacher. Holland geht also wieder einmal unter, wie im bereits wiederlegten IPCC-Bericht, dass die Niederlande unter Wasser lägen.

Da Klimacomputerspiele in der Öffentlichkeit offensichtlich an Glanz verloren haben, ist das PIK dazu übergegangen, seiner Studie einen vermeintlichen Wahrheitscharakter dadurch mitzugeben, dass sich ihre Studie auf tatsächliche Beobachtungen der letzten tausend Jahre stützt: “Erstmals bietet diese Studie damit eine umfassende Projektion für einen derart langen Zeitraum. Sie stützt sich dabei auf den tatsächlich beobachteten Meeresspiegelanstieg im vergangenen Jahrtausend sowie auf Szenarien für künftige Treibhausgasemissionen“ und weiter “Die neue Studie verwendet einen so genannten semi-empirischen Ansatz, der auf dem Zusammenhang zwischen beobachteter Temperatur und Meeresspiegel während der vergangenen Jahrhunderte basiert, um daraus Schätzungen für einen Meeresspiegelanstieg in Szenarien künftiger globaler Erwärmung abzuleiten und zu berechnen.“

Donnerwetter! Wenn das nichts ist, tausend Jahre tatsächlicher Meeresspiegelanstieg als Datenbasis und „semi-empirischer Ansatz“. Klingt wirklich gut! Man beachte tausend Jahre und “tatsächlich“. Wie der Meeresspiegelanstieg seiner Meinung nach in den letzten tausend Jahren aussieht, hat das PIK bereits am 20.06.2011 veröffentlicht (Abbildung 2).

 

Abbildung 2 zeigt den Meeresspiegelanstieg nach PIK, Quelle: PIK, Sea levels rising at fastest rate in 2000 years“ vom 20.06.2011.

Man beachte in Abbildung 2:

·         von 1000 – 1380 = +0,6 mm/a

·         von 1380 – 1900 = -0,1 mm/a

·         von 1900 – 2010 = +2,1 mm/a

In Summe ergibt die PIK`sche Datenbasis einen mittleren Meeresspiegelanstieg von weniger als 0,4 mm/a über die letzten 1000 Jahre, die Rahmstorf und Co angeblich für ihre Prognose von 3 m Meeresspiegel bis zum Jahr 2300 als Basis herangezogen haben. Wird der prognostizierte Anstieg von 3 m, der nach Aussage von Rahmstorf auf tausend Jahre und “tatsächlich“ beruht, aufs Jahr umgerechnet, so ergibt sich ein Meeresspiegelanstieg von mehr als 10 mm/a und zwar ab sofort ! Ein wahrlich abenteuerlicher Prognosewert, anhand der gezeigten PIK´schen Datenbasis für die letzten 1000 Jahre.

Abbildung 3 zeigt den sich tatsächlich entwickelten Meeresspiegelanstieg über die letzten Jahre.

  

Abbildung 3: Entwicklung des Meeresspiegels über die letzten Jahre. Deutlich ist zu sehen, dass dieser nicht zusehends steigt, sondern, zusehends fällt, Quelle

Das gleiche Bild zeigt Abbildung 4

 

Abbildung 4 zeigt die Anstiegsraten pro Jahr über die letzten 20 Jahre. Der Anstieg des Meeresspiegels hat sich deutlich verlangsamt. Von einem beschleunigten Anstieg kann demnach keine Rede sein, Quelle: WUWT, “Sea Level Rise and Solar Activity“.

Wie auf einer Datenbasis von weniger als 0,4 mm/a für die letzten 1000 Jahre oder der gegenwärtigen Anstiegsrate von 1,5 mm/a ein Meeresspiegelanstieg von 3 m (10 mm/a ab sofort) erreicht werden soll, wissen wohl nur die Seher vom PIK. Obwohl, tausend Jahre, da war doch mal was. Haben die „Forscher“ etwa diese Datenbasis für ihre Studie genommen? Müsste man beim PIK einmal nachfragen.

Was bei der Verwendung von Modelrechnungen im Vergleich zur Realität herauskommt, kann z.B. in den ACIA-Berichten bestaunt werden, woraus die folgenden Abbildungen entnommen sind. Exemplarisch die Prognosemodelle zum Wolkenbedeckungsgrad, der essenziell für die Klimabewertung ist, der solaren Einstrahlung, die z.B. für die Kenntnisse der Energieflüsse (Trenberth) Voraussetzung ist und der Niederschlagsentwicklung.

 

Abbildung 5 zeigt nach diversen Modellberechnungen (alle mit Hochleistungsrechnern, sog. Supercomputern durchgeführt) der Wolkenbedeckung (links) und der solaren Einstrahlung (rechts) im Zeitraum von 1981 – 2000 von 70° – 90° nördlicher Breite. “TOVS“ zeigt die mittels Satellit aufgenommenen Vergleichsdaten beim Bedeckungsgrad und “Langley“ die Beobachtungsdaten der solaren Einstrahlung. „Bemerkenswert“ ist die Übereinstimmung der solaren Einstrahlung für die Monate November bis Februar. Diese kommt indes einzig dadurch zustande, dass die solare Einstrahlung im Winter in den Polargebieten bekanntermaßen gleich Null ist.

Gleiches Durcheinander der Modellbetrachtungen und Ergebnisse beim Niederschlag.

 

Das Tohuwabohu der Ergebnisse, die unterschiedlicher nicht sein können, braucht daher nicht weiter betont zu werden. Erstaunliche Übereinkunft in den verschiedenen und übrigens anerkannten Klimacomputermodellen zueinander und zur Realität zeigt sich einzig in der solaren Einstrahlung im Zeitraum von Oktober – Februar (Abbildung 5 rechts). Die Polarnacht können die Klimamodelle und die Supercomputer demnach exakt vorher bestimmen. Ob hierzu allerdings Supercomputer und aufwendige Klimamodelle diverser Institute notwendig sind, wagt der Autor zu bezweifeln.

Prof. Marotzke, Direktor des Max Planck Instituts für Meteorologie sagte auf dem 4. ExtremWetterKonkress in Bremerhaven “Wenn die Erde zum Eisball wird“ zu den Klimamodellen:

“Unsere Arbeiten zeigen zum ersten Mal mit einem umfassenden gekoppelten Klimamodell, dass die Erde bei heutiger Sonneneinstrahlung und heutiger Konzentration von Kohlendioxid in der Atmosphäre sowohl den heutigen Klimazustand als auch den Eisballzustand annehmen kann.“ Der Volksmund kennt hierzu eine treffende Aussage: “Außer Spesen, nichts gewesen.“

Bereits in seinem letzten EIKE-Beitrag „Climate change is pseudoscience“ fügte der Autor an (da dies so wichtig ist, soll es an dieser Stelle wiederholt und ergänzt werden):

Die angesprochene Pseudowissenschaft mittels Klimamodellen wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Klimamodelle genannt) und Spielplätze (hier der Meeresspiegelanstieg) nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen.

Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur und die diversen Klimaprognosen auf derselben Ebene wie die Vorhersagen der keltisch/germanischen Druiden oder der antiken Orakel. Unsere Vorfahren benutzten die Innereien von Tieren, um die Zukunft zu ergründen. Gänseleber und Krötenblasen waren sehr beliebt. Heute werden wieder Innereien benutzt, um in die Zukunft zu blicken. Es sind die BYTES und FLOPS der Supercomputer – mit demselben Ergebnis.

 

Raimund Leistenschneider – EIKE




Climate change is pseudoscience

 
Abbildung 1, Pseudowissenschaft im 19. Jahrhundert.
Wer kennt sie nicht, die Schreckens- und Horrorszenarien, die Medien, aber auch (vermeintlich) wissenschaftliche Institutionen nutzen, um sich am Klimarummel gütlich zu halten.
….
Abbildung 2 links zeigt einen Aufmacher von BILD, welche z.B. 2007 ihre Leser schockierte: “Felder, die aussehen wie Mondlandschaften. Flüsse, die sich in ihrem Bett zusammenkauern. Wälder, die verdursten … Wird es ZU WARM? Leben wir bald in Sahara-Deutschland?“ Na, immerhin haben die verantwortlichen Redakteure nicht vergessen, das Fragezeichen zu setzen. Auch der Wetterdienst (wir kennen alle den DWD und seine Aussagen, EIKE berichtete ausführlich darüber🙂 wurde nicht vergessen, als „Division“ aufzustellen. Dieser warnt schon mal vor einem Hitzetod. Fragt sich nur, was beim Wetterdienst zu Grabe getragen wurde.
Jedoch nicht nur Massenmedien, deren wissenschaftliche Tiefe oft genug an der Oberfläche endet, bedienen sich Wüstenszenarien, um darzulegen, was den Erdenbürgern bevorsteht, wenn sie vom rechten CO2-Glauben abfallen, sogar solch ehrwürdige Institutionen, wie National Geographic bedienen sich plakativer Darstellungsformen (Abbildung 2, rechts). Wie die Realität aussieht, zeigt sich, wenn sich der Betrachter auf den Sahara-Kontinent, also Afrika, begibt.
Im letzten IPCC-Bericht AR4 (2007) der medienwirksam verbreitet wurde, ist die folgende Abbildung zu sehen:

Abbildung 3 zeigt die weltweiten Auswirkungen des Klimawandels nach Ansicht des IPCC, wie sie im AR 4, April 2007, für politische Entscheidungsträger dargestellt sind. Für Afrika wird bis 2020 ein 50%-iger Rückgang der Agrarproduktion wegen des Klimawandels, der zur Austrocknung und damit Erntereduzierungen führen soll, angegeben. Afrika trocknet demnach aus und versteppt/verwüstet. Man beachte: Wegen Austrocknung.
Wie sieht nun die Realität aus, da EIKE-Leser wissen, dass bei Teilen des IPCC zuweilen Realitätsverlust vorliegt (siehe ClimateGate, HimalayaGate, AmazonGate, ArtensterbenGate,…).
Am 28. Juni 2012 erschien die folgende Veröffentlichung der LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt (Goethe Universität), die auch in Nature veröffentlicht wurde:
“Machtwechsel in der Savanne – Bäume gewinnen die Oberhand über Gräser“
Dort ist zu entnehmen:
“Weite Teile der afrikanischen Savanne könnten bis 2100 zu Wäldern werden. Dies geht aus einer Studie des Biodiversität und Klima Forschungszentrums und der Goethe Universität Frankfurt hervor, die heute in “Nature” veröffentlicht wurde. Die Ergebnisse deuten darauf hin, dass die Düngung durch den steigenden Kohlendioxid‐ Gehalt in der Atmosphäre in ganz Afrika zu einer dichteren Bewaldung führt, wenn ein bestimmter CO2‐Wert überschritten wird. Da sich diese Schwelle jedoch von Gegend zu Gegend unterscheidet, verläuft der Wandel auf regionaler Ebene nicht synchron. Hierdurch sinkt das Risiko einer Erschütterung des Erdsystems durch einen abrupten Vegetationswandel.“
Donnerwetter, Afrika wird grüner! Mehr Wälder bedeuten auch mehr Wasserspeicher. Afrika wird fruchtbarer. Welch krasser Gegensatz zu den Horrorszenarien des IPCC. Dabei sagen die Frankfurter Forscher nichts anderes, als dass, was die NASA und die Naturforscher unter den Klimaforschern (einige sagen auch Klimarealisten) schon lange wissen, wie die folgenden Abbildungen belegen.

Abbildung 4: Der positive Einfluss der CO2-Erhöhung wird durch die Satellitenauswertung ersichtlich. Sie zeigt die Vegetationsveränderung über die letzten 20 Jahre vor 2003. Grüne Stellen zeigen Vegetationszuwachs, rote dagegen einen Rückgang. Quelle: NASA, erschienen in Science, 06. Juni 2003.
Dass CO2 Dünger für die Vegetation ist, wissen Gärtner ebenfalls schon lange. Nicht umsonst besteht Dünger zu großen Teilen aus gebundenem CO2. So ist es denn nicht verwunderlich, dass in den letzten 20 Jahren weltweit die Wüsten auf dem Rückzug sind und nicht, wie in diversen Schreckensszenarien bewusst falsch angegeben, auf dem Vormarsch. Die Wüste Sahara schrumpfte im Zeitraum der letzten 20 Jahre um 300.000 km2, ein Gebiet, fast so groß wie Deutschland (357.000 km2).

Abbildung 5 zeigt die Zunahme der Vegetation in der Sahelzone im Zeitraum von 1982 – 1999. Dem Zeitraum, in dem auf der Erde die Mitteltemperaturen leicht angestiegen sind, Quelle: Der Spiegel, 17/2009, S. 137. Die Gleichmäßigkeit der Vegetationsausbreitung lässt nur den Schluss zu, dass es sich um einen positiven Klimatrend handelt, so der schwedische Geograph von der Lundt-Universität, Lennart Olsson.
So zeigen seit langem Studien, den positiven Einfluss von CO2 auf die Nahrungsmittelproduktion (Abbildung 6).

Abbildung 6 (Quelle: http://www.oism.org/pproject/s33p36.htm) zeigt eindrucksvoll, dass sowohl eine Erhöhung von 295 ppm auf derzeit 383 ppm, sowie eine weitere Erhöhung des atmosphärischen CO2-Gehalts auf z.B. 600 ppm, für die Pflanzen- und somit für die Tierwelt nicht katastrophal, sondern segensreich ist! Dies bestätigt eine Studie von Prof. Hans-Joachim Weigel (Bundesforschungsinstitut für ländliche Räume).
Da Bilder mehr sagen als viele Worte, ist nachfolgend das Pflanzenwachstum bei verschiedenen CO2-Konzentrationen dargestellt. Quelle: http://www.nhteapartycoalition.org/pdf/LeonAshby.pdf

In der Abbildung 7 links wuchs der Baum in einem abgeschlossenen Gewächshaus bei einem CO2-Pegel von 385 ppm, wie er heute auf dem Mauna Loa gemessen wird. Bereits bei einer Zunahme um 150 ppm auf 535 ppm ist ein deutlicher Zuwachs im Wachstum zu erkennen. Bei einer Zunahme auf 835 ppm, also mehr als dem doppeltem heutigen Wert, was dem Verbrennen sämtlicher, heute bekannter fossiler Brennstoffe entspräche, ist der Baum zu beachtlicher Größe heran gewachsen. Er ist im gleichen Wachstumszeitraum auf die doppelte Größe gewachsen, als bei einer CO2-Konzentartion von 385 ppm. Eindrucksvoller kann nicht unter Beweis gestellt werden, dass CO2 Pflanzen und damit Mensch und Tier nicht schädigt, sondern, in den gezeigten Bandbreiten, nützlich ist. Demnach ist festzustellen, dass die derzeitige CO2-Konzentration für Pflanzen nicht optimal ist.
Die Bilderserie belegt eindrucksvoll, dass zum einen CO2 kein Schadstoff ist und zusätzliches CO2 in der Atmosphäre für Pflanzen und damit natürlich auch für Menschen von großem Nutzen ist.
Zu der Bilderserie oben aus derselben Quelle, die Darstellung, wie sich prozentual das Wachstum der Pflanzen steigern lässt, wenn sich die CO2-Konzentration der Atmosphäre ändert (Abbildung 8). Deutlich ist zu erkennen, dass die gegenwärtige CO2-Konzentartion in der Atmosphäre für Pflanzen alles andere als optimal ist. Es ist demnach weit gefehlt, in Panik zu verfallen, sowie Schreckensszenarien zu entwerfen, wenn der CO2-Pegel weiter ansteigt. Genau das Gegenteil ist für die Biosphäre zutreffend.

Untersuchungen, die zeigen, dass Afrika grüner und damit fruchtbarer wird, passen jedoch so gar nicht in die Schreckensszenarien des IPCC und dessen Anhänger und Nature ist nun nicht dafür bekannt, dem IPCC kritisch gegenüber zu stehen und so ist es den Autoren um Nature gelungen, die positive Nachricht (Afrika wird grüner) in eine negative zu wandeln. Am Schluss steht denn folgendes:
“Sollten Graslandschaften und offene Savannen durch Baumsavannen oder Wälder ersetzt werden, geht zudem eine einzigartige Flora und Fauna verloren, die in diesem Lebensraum heimisch ist. Der Anstieg des Kohlendioxidgehalts in der Atmosphäre ist daher ein weiterer Stressfaktor…“
Aha, die Artenvielfalt (“einzigartige Flora und Fauna“) geht dann also verloren. Nun, aus unseren Breiten wissen wir, dass offene, unbewirtschaftete Flächen eine hohe Artenvielfalt an Gräsern, Kräutern und damit an Insekten, Vögeln und Kleintieren hervorbringen, als dies gegenüber unseren Waldgebieten der Fall ist. Allerdings bestehen unsere Waldgebiete vorzugsweise aus Nutz- und damit Monokulturwäldern. Urwälder gibt es in Europa kaum noch. In der Studie befinden wir uns aber in Afrika. Sind dort nicht die tropischen Regenwälder, von denen wir wissen, dass sie die höchste Artenvielfalt überhaupt beherbergen?

Abbildung 9 (Quelle: Wikimedia Commons) zeigt die Savannengebiete (braun) der Erde (Wüstengebiete: gelb). In Afrika liegen diese demnach angrenzend zum tropischen Regenwald. Der Wald und damit auch der tropische Regenwald breiten sich also aus und dies soll die Artenvielfalt beeinträchtigen?
Es ist doch immer wieder erstaunlich, wie sich die Klimaforscher um das IPCC ihre Welt immer wieder aufs Neue basteln, so, wie sie ihnen gerade gefällt. Aber wie lässt bekanntlich Astrid Lindgren ihre Heldin ausrufen: “Ich mach mir die Welt, widewidewie sie mir gefällt.” Ganz offensichtlich haben die „Helden“ in der IPCC-nahen Klimaforschung, sich diese Parole allzu sehr zu Herzen genommen – völlig losgelöst von der Erde, wie in einem Schlager der 1980-Jahre zu vernehmen.
Nachfolgend sind einige dieser Kommandanten, die nach den Aussagen des Physik-Nobelpreisträger Ivar Giaever als Pseudowissenschaftler bezeichnet werden dürfen, aufgeführt. Die folgende Reihe hat weder den Anspruch auf Vollständigkeit, noch ist sie mit einer Klimaahnenreihe zu verwechseln.
 
BILD vom 05.11.2011 “Klimaforscher warnt vor Sahara-Sommern“ (Anmerkung des Autors: Wir erleben gerade einen. Der Autor wusste bis jetzt allerdings nicht, dass es in der Sahara so viel regnet.) Auch beachte man die Handbewegung und vergleiche sie mit Abbildung 1 (der dortigen rechten Hand), was natürlich rein zufällig ist.
 
Klimaforscher Hansen, diesmal nicht bei einer seiner Sightseeing-Touren in die Arktis/Antarktis.
http://wattsupwiththat.files.wordpress.com/2011/12/james-hansen-arrested.jpg
http://wonkroom.thinkprogress.org/wp-content/uploads/2010/09/hansen_arrest.png
 
Quelle: (http://de.academic.ru/dic.nsf/dewiki/577954)
Das letzte Bild in der Reihe zeigt einen weiteren, solchen Klima(folge)forscher, dem ganz offensichtlich die Arbeit über den Kopf gewachsen ist, zumindest lässt das Bild diesen Schluss zu. Daher kann es nicht weiter verwundern, wenn von dort solche Statements kommen: „„..dann würde die Erde explodieren“ (http://de.youtube.com/watch?v=kqGVNqiwu7w).  Hier wird Wissenschaft mit Science Fiction verwechselt und Pseudowissenschaft mit Damaturgie unterlegt, die einem Edgar Wallace (Die Bande des Schreckensoder „Neues vom Hexer“) gerecht werden kann.
Damit die vor genannten Forscher wieder den notwendigen Überblick und Bodenhaftung gewinnen, empfiehlt der Autor ihnen einen Besuch auf der EIKE-Webseite, dort können die Klimaforscher nachschauen, wie es in der Welt da draußen wirklich aussieht. Gerne nehmen wir uns bei EIKE auch die Zeit, in einem Seminar, die Herren mit den Abläufen in der Klimathematik vertraut zu machen.
Die angesprochene Pseudowissenschaft wäre nicht so tragisch, würden durch die Spielzeuge (z.B. Computerspiele, dort Computermodelle genannt) und Spielplätze nicht Unsummen von Geldern, unsere Steuergelder verschleudert. Von den hunderten von Milliarden, die durch daran ansetzende Maßnahmen, Abgaben und falscher Wegrichtungen, buchstäblich in den Wind geschrieben, bzw. Solargöttern geopfert werden, ganz zu schweigen. Insofern bewegen sich diverse Regierungen/politische Programme und deren (pseudo)wissenschaftliche Helfer, auf einer Stufe mit der Weltanschauung der Maya-Kultur, wie sie sich im rituellen Tzolkin-Kalender widerspiegelt.
Raimund Leistenschneider – EIKE




Welche Rolle spielen die Treibhausgase ? – Teil 2

Teil 2: Wie die Wettersysteme allein durch die Sonne angetrieben werden

 

Abbildung 14 (Quelle: www.elnino.info) zeigt die von El Niño betroffenen Gebiete weltweit. Die Monate, in denen diese Auswirkungen stattfinden, sind mit deren Anfangsbuchstaben aufgeführt (z.B. bedeutet OND "Oktober-November-Dezember"). Deutlich ist eine Konzentration zwischen 30° nördlicher und südlicher Breite zu verzeichnen. Dies sind die Einflussgebiete der Passatwinde. Warum dies so ist, gleich mehr.

Wissenschaftler aus Australien und Neuseeland (Prof. Robert M. Carter von der James Cook University in Australien) haben in ihren Untersuchungen den Zusammenhang zwischen der ENSO-Schwingung (El Niño/Southern Oszillation) und dem Weltklima bereits aufgezeigt, wenn auch nicht den Grund dazu erkannt. Sie veröffentlichten ihre Studie, die auf gut erfassten Messdaten der vergangenen 50 Jahre zurück griff, im "Journal of Geophysical Research". Ihr Ergebnis: Je stärker der jeweilige El Niño war, desto deutlicher stieg in der Folge die globale Temperatur an, was auch Abbildung 13 überdeutlich zeigt.

Die Forscher geben an, dass ca. 70% der zuletzt beobachteten Erwärmung auf die El Niño-Tätigkeit zurück zu führen ist (Anmerkung: Wie der Autor zeigte und noch zeigen wird, sind dies 100% – Prof Marotzke muss mit seinen über 90% auf THG wohl auf einem anderen Planeten und in einer anderen Welt zu Hause sein, in der Welt der Computerspiele, in der alles möglich ist und in der sich auch das PIK eingerichtet hat). Es habe sich gezeigt, dass etwa 6 Monate nach einem El Niño-Ereignis die globalen Temperaturen, je nach Stärke des El Niño anstiegen. Blieben dagegen El Niño-Ereignisse über längere Zeit aus, soll dies zu einem globalen Rückgang der Temperaturen geführt haben. Die folgenden Abbildungen geben den Zusammenhang wieder.

Abbildung 15 links zeigt den SOI (Southern Oscillation Index, dunkle Linie) und die GTTA (Global Tropospheric Temperature Anomalies, helle Linie). Deutlich sind die Einflüsse der starken Vulkaneruptionen des El Cichon und Pinatubo zu erkennen, durch die die Globaltemperaturen zeitweise zurückgingen. Deutlich zu sehen, dass außerhalb der Vulkanereignisse eine hohe Korrelation gegeben ist. In der rechten Abbildung sind diese Einflüsse bereinigt. Quelle: McLean, de Freitas, Carter, ”Influence of the Southern Oscillation on tropospheric temperature”, Journal of Geophysical Research Atmospheres. Keine der Zeitreihen hat auch nur im entferntesten einen Zusammenhang mit der atmosphärischen CO2-Konzentration.

Die Forscher gehen weitgehend von natürlichen Ursachen der globalen Temperaturtrends aus.

 

Abbildung 16: Die "Enso" (El Niño und Südliche Oszillation) genannte Schwingung hat Auswirkungen auf die Großwetterlagen weltweit (Abbildung, Quelle: South Carolina State Climatology Office). Die als ENSO benannte natürliche Schwingung hat über den pazifischen Raum Auswirkungen auf die Globaltemperaturen, Nord- und Südamerikas, Afrikas und Europas. Wissenschaftler des MPI-M und der Universität von Cambridge (UK) hatten herausgefunden, dass auch ein Zusammenhang zwischen El Niño-Ereignissen und dem Winterverlauf in Deutschland besteht, Davide Zanchettin, Hans-F. Graf, Central Pacific El Niño, the “subtropical bridge,” and Eurasian climate“ (Journal of Geophysical Research, Vol. 117, Do1102, 10 PP., 2012, doi: 10.1029/2011JD016493).

Über dem tropischen Atlantik ruft El Niño Luftströmungen hervor, die der Bildung starker Wirbelstürme entgegenwirken. So ist denn auch in La Niña-Jahren (das Gegenteil von El Niño), die Hurrikantätigkeit ausgesprochen niedrig. Warum dies so ist, später mehr.

Bereits die Untersuchungen der ETH Zürich, Prof. Dr. Brönnimann, zeigen Auswirkungen auf Europa, (S.d.W. 03/05, “Pazifik ließ Europa frieren“). Er hat anhand von Untersuchungen nachgewiesen, dass in den 40er Jahren des 20. Jahrhunderts über mehrere Jahre eine ungewöhnlich hohe Temperaturschwankung vorlag, die auf El Niño-Ereignissen beruhte. Aus alten meteorologischen Messdaten konnte er die atmosphärischen Verhältnisse auf der Nordhalbkugel zu Beginn der 1940er Jahre rekonstruieren. Die Temperaturanomalien sind in folgender Abbildung vom ihm aufgetragen.

 

Abbildung 17 zeigt die Temperaturabweichungen gegenüber dem Durchschnittswert der Jahre 1961 – 1990 für die untere Atmosphäre (unten) und die Stratosphäre (oben), gemittelt von Januar 1940 – Februar 1942. Die Abbildungen dokumentieren eine großräumige Klimaanomalie, die mit einer ungewöhnlich dicken Ozonschicht verbunden ist. Die Farbskala gibt die Temperaturdifferenzen im Vergleich zu einem Referenzwert an (Grafik: Prof. Brönnimann). In der Stratosphäre (oben) ist die Luft über der Arktis wärmer, der Polarwirbel schwächer und die Ozonschicht dicker als üblich. Auch das Klima auf der Erdoberfläche war außergewöhnlich: Extreme Kälte in Mittel- und Osteuropa, mildes Wetter in Alaska und frostige Kälte im Nordpazifik. Prof. Brönnimann fand heraus, dass das El Niño-Ereignis einen schwachen Polarwirbel auslöste, der für die große Kälte verantwortlich war. Warum dieser schwache Polarwirbel entstehen musste, später mehr.

Sheffield et al. (2009) fanden heraus, dass große Dürren mit der ENSO (El Niño Southern Oszillation) und den nordpazifischen und atlantischen Meeresoberflächen-Temperaturen (SSTs) zusammenhängen. Der Zusammenhang mit der ENSO wird durch eine Studie über den Südwesen der USA durch McCabe et al. 2010 belegt. Warum dies so ist, wird noch anhand der sich ändernden Windsysteme bei einem El Niño-Ereignis erklärt.

Prof. Malberg (ehem. Institutsleiter Meteorologie der Freien Universität Berlin) fand heraus, dass die Änderungen in den Globaltemperaturen unmittelbar mit El Niño/La Niña-Ereignissen gekoppelt sind, “La Niña – El Niño und der solare Einfluss: Die Klimaentwicklung 1950 – 2008“.

In Abbildung 10 (Teil 1) hatte ich Ihnen belegt, wie alle El Niño-Ereignisse im Betrachtungszeitraum und damit die ermittelten globalen Temperaturen durch 3 Sonnenparameter ausgelöst und bestimmt werden. Da in wissenschaftlichen Untersuchungen oft 2 Klimaperioden von je 30 Jahren betrachtet werden, möchte ich dies an dieser Stelle nicht versäumen.

Abbildung 18 zeigt oben, die Sonnenwindstärke, darunter den El-Niño 3.4 der NOAA ab 1950 und den Schwabe-Zyklus der Sonne. Dazu, die atmosphärische CO2-Konzentration, die ohne Zusammenhang zu El Niño-Ereignissen ist. Ganz unten, das Polarfeld der Sonne (durchgezogene Linie) ab 1951, Quelle: Ahluwalia und Ygbuhay, “Is there an instrumental drift in the counting rate of some high latitude neutron monitors?“ Auch im Zeitraum von 1951 – 1980 fallen alle El-Niño-Ereignisse mit der Sonnenaktivität zusammen:

1) Dem Einschalten der Koronaturboheizung, wenn deren Temperatur verdoppelt wird

2) Nach jedem Maximum im magnetischen solaren Zyklus.

3) Dem Polarfeld der Sonne (Maximum = blaue und grüne Ovale)

Die Messdaten belegen in eindrucksvoller Weise, dass die globalen Temperaturen natürlichen Schwankungen, den El Niño-Ereignissen unmittelbar folgen. Mit CO2 oder einer angeblichen anthropogenen Erwärmung hat dies nichts zu tun. Mit dem vorliegenden Nachweis, dass alle El Niño-Ereignisse im Betrachtungszeitraum von 1951 bis 2010 durch die solare Aktivität unmittelbar ausgelöst werden, ist der wissenschaftliche Beweis abgerundet, dass die Erwärmung (und Abkühlung seit Beginn dieses Jahrhunderts) einzig auf die Sonne zurückzuführen ist.

Bleibt noch die Frage zu klären, wie die gezeigte Sonnenaktivität ihren Einfluss sozusagen umsetzt und auf welchen physikalischen Grundprinzipien dieses basiert. Hier geben die Antwort, die Passatwinde (englisch: Trade Winds), also die Großraumwetterlage, die durch die Hadley-Zellen bestimmt wird. Die Passatwinde sind ein beständiges Windsystem, welches sich auf beiden Seiten des Äquators bis zum 24 Breitengrad ausbildet. Es liegt damit im Bereich der Hadley-Zellen und unterteilt sich in den Nordost-Passat (Nordhalbkugel) und in den Südost-Passat (Südhalbkugel). In der Wissenschaft ist unstrittig, dass die Passatwinde durch die Sonne entstehen und ihre Ausbildung und Stärke von der Sonnenscheindauer und Stärke abhängt. Durch erwärmte, aufsteigende Luftschichten (Tiefdruckgebiet entlang der innertropischen Konvergenzzone) die an der Tropopause vom Äquator weg strömt und ca. 30° Nord oder Süd wieder zu Boden fällt (Hochdruckgebiet) entsteht ein Druckgefälle, wodurch sich Ausgleichströmungen zwischen den Hoch-/Tiefdruckgebieten bilden. Durch die Corioliskraft werden sie entsprechend abgelenkt.

Abbildung 19 (http://wattsupwiththat.com/2009/02/17/the-trade-winds-drive-the-enso/#more-5702) zeigt die ENSO und die invertierte Windstärke der Passatwinde (Trade Winds). Unschwer ist zu erkennen, dass beide zusammenhängen. Die Passatwinde werden von den Hoch- und Tiefdrucksystemen (neben der Corioliskraft = Erddrehung) bestimmt. Diese wiederum durch die Wolkenbedeckung, sowie den Luftströmungen und dies ist der Ansatzpunkt, wie die Sonne neben ihrer Strahlungsleistung ihren Einfluss auf das irdische Wettersystem umsetzt. Unnötig zu erwähnen, dass auch hier der atmosphärische CO2-Pegel (kleine Abbildung) irrelevant für die Windereignisse ist.

Da die Passatwinde Ausdruck der Hadley-Zellen sind und diese in einem Band zwischen ±30° um den Globus verlaufen, wird der unmittelbare solare Einfluss auf die Hadley-Zellen untersucht.

Die Hadley-Zelle ist ein wesentlicher Bestandteil der atmosphärischen Zirkulation. Sie entsteht durch die meridional unterschiedliche Sonneneinstrahlung und dem daraus resultierenden Energietransport von den Tropen zu den Polen. Diese thermisch angeregte Zirkulation reicht jedoch im ersten Schritt nur bis zum 30-Breitengrad, weil dort die Strahlungsenergie deutlich zu fallen beginnt (Abbildung 22). Die daraus entstehende Hadley-Zelle ist als globale (verläuft um den ganzen Globus) Vertikalzirkulation zwischen dem Hochdruckgürtel der Subtropen und der äquatorialen Tiefdruckrinne ausgebildet. Die Hadley-Zelle kann näherungsweise als ein in sich abgeschlossenes System betrachtet werden.

 

Abbildung 20: Über der ITCZ (innertropischen Konvergenzzone) steigt aufgrund der Konvektion warme und feuchte Luft auf, wobei dort ein Tiefdruckgebiet entsteht. Die Luft expandiert, kühlt dabei ab, was zur Wolkenbildung führt. Durch die Corioliskraft wird die Luft abgelenkt. Im Bereich des Subtropenhochdruckgürtels sinkt die kalte und trockene Luft (schwerer) ab, wodurch am Boden ein Hochdruckgebiet entsteht. Die sich dabei erwärmende Luft nimmt über den Ozeanen große Mengen an thermischer Energie in Form von fühlbarer und latenter Wärme (Luftfeuchte) auf und fließt als Nord/Ost-Passat zum Äquator zurück. Der übrige, meridionale Energietransport findet über die sich anschließenden Zellen durch horizontale zyklonale (entgegen dem Uhrzeigersinn drehende) und antizyklonale (mit dem Uhrzeigersinn drehende) Zirkulation statt. In der Ferrel-Zelle wird die Energie durch die Westwinddrift abgeführt. Diese entsteht aus thermodynamischen Gründen wegen des Temperaturgegensatzes der Luft von ca. 20 K zwischen 30° und 60°-Breite.

Wie Untersuchungen zeigen, hat sich die Hadley-Zelle im Zeitraum der moderaten Erwärmung zwischen 1979 und 2005 (Anstieg des Hauptsonnenzyklus) um 5-8 Breitengrade ausgedehnt und sich dessen Volumen, da auch die Tropopause wegen der erhöhten Konvektion durch die Wärmeflüsse um einige Zehnmeter erhöhte, um ca. 5% vergrößert, D. J. Seidel et al. (2008), ”Widening of the tropical belt in a changing climate“, Nature Geoscience 1, 21-24.

Xiao-Wei Quan et al. “Change of the Tropical Hadley Cell Since 1950“, untersuchten die Hadley-Zellen anhand des Hadley-Zirkulations-Index. Dies ist die Abweichung vom Mittel der zonalen Meridiangeschwindigkeit in der 200 hpa-Höhe minus des Mittels der zonalen Meridiangeschwindigkeit in 850 hpa-Höhe und steht für die Luftströmungen in der Hadley-Zelle (folgende Abbildung, obere Zeitreihe, Y-Achse = 1010 kg/s).

Abbildung 21: Wie nicht anders zu erwarten, sind die El Niño-Ereignisse unmittelbar mit der Aktivität in der Hadley-Zelle gekoppelt (obere Zeitreihe). Wie bereits gezeigt, sind die Auswirkungen von El Niño um den ganzen Globus zu verzeichnen, insbesondere in einem Band von ±30° nördlicher und südlicher Breite, was dem Gebiet der Hadley-Zellen entspricht (kleine Abbildung, oben). Wie die Gesamtabbildung zeigt, ist jeder El Niño einem Hadley-Ereignis direkt zugeordnet (rote gestrichelte Linien) und damit, wie bereits bewiesen, der solaren Aktivität unmittelbar zuzuordnen. Der Hadley-Zirkulations-Index wird aus der gemittelten Windgeschwindigkeit der 200 hpa-Höhe, minus der gemittelten Windgeschwindigkeit in der 850 hpa-Höhe gebildet und ist somit ein Maß für die Luftmassengeschwindigkeit und des Luftmassenstroms in der Hadley-Zelle. Die Abbildung zeigt, dass mit Eintreten eines El Niño-Ereignisse und des entsprechenden solaren Parameters, die Windgeschwindigkeiten in der Höhe zunehmen und in den unteren Schichten abnehmen. Dies ist auch der Schlüssel zu der Erkenntnis, dass die El-Niño-Auswirkungen nicht nur zonal (zwischen ±30° geographischer Breite), sondern global auftreten. Auch hier spielt CO2 keine Rolle. Die zonalen Energieströme zeigt Abbildung 22.

Abbildung 22 zeigt das Jahresmittel der Energieflüsse der Atmosphäre in Abhängigkeit von der geographischen Breite nach Häckel, 1990. Neben der Strahlungsbilanz dominieren die Flüsse von sensibler und latenter Wärme (Luftfeuchte). Die Advektion von Wärme durch die Luft, verhindert die Auskühlung der Pole. Gut zu sehen, wie Energie meridional transportiert wird, Quelle: Häckel, 1990, “Meteorologie“.

Aus dem Energietransport zwischen der Hadley-Zelle und den nördlichen Breiten, bzw.  dem Luftmassenstrom über die Hadley-Zelle zu den nördlichen Breiten wird ersichtlich, dass El-Niño-Ereignisse über den Bereich der Hadley-Zelle Einfluss auf das Wettergeschehen haben, wie dies aus den Untersuchungen von Prof. Brönnimann und des MPI-M, sowie Prof. Malberg hervorgeht. Der Grund dafür liegt im Drehimpulserhaltungssatz.

Abbildung 23 zeigt das Druckverteilungsmuster und die Windverhältnisse der bodennahen Troposphäre. Im Absinkbereich der Hadley-Zelle bilden sich Hochdruckgebiete, wodurch dort trockenes Klima vorherrscht. So liegen in ihrem Bereich die Wüstengebiete der Erde. Durch die Passatwinde fließt ein stetiger Rückstrom (Oststrom) in Richtung Äquator. In der IPCZ fließt daher ein schwacher Ostwind. In der Westwinddrift der Ferrel-Zelle fließen die Frontensysteme der Tiefdruckgebiete nach Osten und zwar entlang des Polarfrontjet, an dem sich fortwährend Tiefdruckgebiete bilden. An der sich angrenzenden Polar-Zelle entsteht an der absinkenden schweren Kaltluft ein Hochdruckgebiet. Zwischen dem Druckgradient und der Corioliskraft bildet sich dort ein Gleichgewicht, welches einen schwachen Ostwind verursacht. Sowohl die Ostwinde der Subtropen/Tropen, als auch die Ostwinde der Polargebiete und der Westwind der mittleren Breiten sind mit einem Drehimpuls verbunden. Aus Gründen der Drehimpulserhaltung muss deren Summe Null ergeben.

Drehimpuls

Der Drehimpuls (Einheit: Nms) wirkt bei einer Kreisbewegung in Richtung Zentrum und gibt die Drehachse der Bewegung an. Er steht damit senkrecht zur Ebene, in der sich die Masse bewegt. Der Drehimpuls ist abhängig von der Geschwindigkeit, der Masse, sowie dem Abstand zur Drehachse. Bei Zunahme einer der drei vorgenannten Parameter, wächst der Drehimpuls an. Der Drehimpulserhaltungssatz gibt an, dass der Gesamtdrehimpuls in abgeschlossenen Systemen konstant ist.

Verändert sich z.B. der Drehimpuls auf Grund einer Geschwindigkeitszunahme der Luftströmungen in der Hadley-Zelle, wie im Hadley-Zirkulations-Index zu sehen, so muss dies wegen dem Drehimpulserhaltungssatz Auswirkungen auf die Luftströmungen in den beiden anderen Zellen (Ferrel- und/oder Polar-Zelle) haben. Wird die Geschwindigkeit der Luftströmungen durch ein solares Ereignis in der (oberen) Hadley-Zelle erhöht (bei einem El Niño-Ereignis), so sind durch die Kopplung über den Drehimpuls auch die anderen Zelle(n) beeinflusst. In der Ferrel-/Polarzelle stellen sich geringere Drehimpulse ein, was zu einem ruhigen, kalten Winter führt (siehe Untersuchungen von Prof. Brönnimann und des MPI-M). Jetzt wird auch sichtbar, warum sich ein schwächerer Polarwirbel ausbilden muss. Der Drehimpulserhaltungssatz lässt gar nichts anderes zu. Auch, dass Dürreperioden in den USA mit der ENSO verbunden sind. Die Winde in der oberen Troposphäre des Westwindgürtels, sowie der Polarfrontjet werden wegen der Verringerung des Drehimpulses und der damit verbundenen geringeren Luftmassenbewegung schwächer.

Da die Hadley-Zelle zeitlich begrenzt als geschlossenes System betrachtet werden kann, gilt für das geschlossene System der Energieerhaltungssatz. D.h., aufgrund der Trägheit und des Energieerhaltungssatzes muss eine Erhöhung der Windgeschwindigkeiten in der Höhe (Hadley-Zirkulations-Index) mit einer zeitlich begrenzten Verringerung der Windgeschwindigkeiten in niedriger Höhe verbunden sein, wodurch bei einem solaren Ereignis, dass zeitlich verzögert und zwar zu festen Zeiten, zu einem El Niño führt, die Passatwinde erschlaffen und den El-Niño damit erst auslösen. Ein El Niño-Ereignis wird bekanntlich durch die Erschlaffung der Passatwinde ausgelöst! Da die Hadley-Zelle jedoch mit der Ferrel-Zelle im Energieaustausch steht, wird die Energiezunahme, die ein solares Ereignis auslöst (und die Xiao-Wei Quan et al. gemessen haben, ohne jedoch zu wissen, auf was diese Änderungen im einzelnen beruhen, sie also auslöst), über diesen und den Jetstream wieder abgebaut, wodurch sich die „normalen“ Bedingungen wieder einstellen und die Passatwinde wieder an Kraft gewinnen und das El Niño-Ereignis zu Ende geht.

Aufgrund Naturbeobachtung und dem Anwenden physikalischer Grundgesetze lassen sich sowohl die Wettersysteme, El Niño-Ereignisse, als auch der global ermittelte Temperaturgang beschreiben. THG werden für nichts dergleichen benötigt und kommen folglich in der Betrachtung nicht vor, da weder Auswirkungen zu erkennen, noch nachweisbar sind. THG werden zur Erklärung nicht benötigt, mehr noch, sie widersprechen der tatsächlichen Beobachtung. Sie scheiden damit als Verursacher einer Klimabeeinflussung gänzlich aus!

Wir sollten uns in der Wissenschaft wieder mehr mit der Natur und ihrer Beobachtung befassen, wie dies durchgehend bis zur Treibhausgashysterie noch der Fall war. Denn, wie Einstein dies so treffend beschrieb: “Unsere Theorien sind freie Schöpfungen des menschlichen Geistes, und wir können nie sicher sein, dass sie die wirklichen Verhältnisse zutreffend darstellen.“ Die Richtigkeit einer Theorie vermag nur die Naturbeobachtung zu liefern. Entweder in Experimenten oder im „Labor“ der Natur selbst. Deutschlands bekanntester Naturforscher ist Alexander von Humboldt. Ein weiterer Vertreter ist Charles Darwin. Ihre Verdienste für die moderne Wissenschaft sind unbestritten.

Heute haben teilweise bezahlte Hasardeure das Regiment übernommen, die sich in Palästen abschotten und mit der modernen Glaskugel, den sog. Supercomputern, versuchen, Theorien zu beweisen. Gelingt dies nicht oder liefert die Natur gar die Beweise, die die Theorie stürzen, so wird durch Tricks oder gar Fälschungen versucht, die Theorie und damit das eigene Sein zu retten. All dies, mit enormen Geldsummen, unseren Steuermitteln, realisiert. Eine Schande für die Politik, wie im Namen sog. THG Unsummen an Steuergeldern und Vermögen verpulvert werden. Dass sich die deutsche Presse von einem investigativen Journalismus schon vor Jahren verabschiedete, verwundert angesichts der dort herrschenden naturwissenschaftlichen Blindheit nicht. Wegen der dortigen ideologischen Verblendung auch nicht, dass Lobbyisten aus NGO´s oder dem industriellen „Grünen Komplex“ (oftmals ein und dasselbe) unzensiert und ungeprüft ihre Lobbyvorstellungen unters Volk streuen und Lüge und Betrug als vermeintliche "Wahrheit" verkaufen. Angesichts der verbreiteten Desinformationen und Fälschungen möchte der Autor seinen Artikel denn auch mit einem Zitat des früheren Präsidenten der Max Planck Gesellschaft, Prof. Dr. Hubert Markl abschließen:

“Es ist nicht zu bestreiten, dass es auch in der Wissenschaft – häufiger als uns Wissenschaftlern lieb ist – Lug und Trug gibt, nicht nur fahrlässige Schlamperei, sondern wirklich absichtlichen Betrug.“

Raimund Leistenschneider – EIKE

 Teil 1 finden Sie hier

Der vollständige Beitrag ist im Anhang als pdf herunter ladbar

Related Files