Die Temperatur wird von natürlichen Mechanismen der Wärmeverteilung in der Atmosphäre gesteuert– Klimasensitivität und Gewitter

Die folgende Graphik stammt aus der Summary for Policymakers SPM des AR 4:

Abbildung 1 findet sich hier als Abbildung SPM2.

Das IPCC glaubt, dass das Kohlendioxid für 55% des positive Antriebs verantwortlich ist, Methan etwa zu 16%. Aber der Wasserdampf als beitragendes Element fehlt in dieser Graphik, außer Wolken als Reflektor. Wasserdampf ist ein starkes Treibhausgas – und in der Atmosphäre hoch variabel. Über den Ozeanen liegt die Relative Luftfeuchtigkeit normalerweise nahe 100%, in Wüsten dagegen teilweise sogar nur bei 0%. Der absolute Wasserdampfgehalt ist auch abhängig von der Temperatur. In den Tropen ist der Wasserdampfgehalt sehr hoch. In der Arktis und der Antarktis ist er in den sehr kalten Wintern jeweils sehr niedrig.

Abbildung 2: globale relative Luftfeuchtigkeit in der Troposphäre (Quelle). Eine ähnliche Darstellung gibt es hier zusammen mit globalen Karten für Wasserdampf und Methan. Man klicke auf Greenhouse Gases an der Seite und wähle dann das interessierende Gas. Methanquellen sind zumeist tropischen Ursprungs.

Das IPCC glaubt, dass der Wasserdampfgehalt mit steigender Temperatur zunimmt und als positive Rückkopplung agiert. Aber dem ist nicht so. Die Daten von Wetterballonen weltweit zeigen, dass der Wasserdampfgehalt mit der Zeit ab- und nicht zugenommen hat.

Warum sollte die troposphärische Feuchtigkeit mit steigender Temperatur abnehmen? Die Antwort lautet, dass die Feuchtigkeit in der oberen Troposphäre zum größten Teil von Gewittern (Konvektion) getrieben wird, und Gewitter haben zugenommen.

Abbildung 3: Gewitter-Häufigkeit in Hongkong seit 1947. Quelle

Die höchste Gewitteraktivität findet sich in den Tropen, und Hongkong liegt auf der subtropischen Breite von 22°N, sollte also für die globale Aktivität repräsentativ sein. Die Daten zeigen ein Minimum in den kühlen sechziger Jahren und ein Maximum in den warmen neunziger Jahren mit einer Zunahme von 1,7 Tagen pro Jahrzehnt, was grob zum Verlauf der globalen und lokalen Temperatur passt. Die lokale Temperatur am Royal Observatory in Hongkong ist nicht um den Effekt des städtischen Wärmeinsel-Effektes korrigiert oder vom GISS „homogenisiert“ worden. Ich konnte keine globalen Daten für die Häufigkeit von Gewittern finden.

Abbildung 4: Stadien der Gewitterentwicklung. Quelle: Wikipedia.

Bild oben rechts: Nach einem Hagelunwetter nahe der Ortschaft La Luz im US-Bundesstaat New Mexico im August 2009: Quelle: der Autor

Gewitter entstehen durch Konvektion. Haben sie sich erst einmal gebildet, führt es zu einer rapiden Abkühlung am Boden und Wärmetransport in die Stratosphäre. Die aufsteigende Luft verliert ihren Wasserdampf [durch Kondensation] in allen Höhen der Troposphäre bis in die Stratosphäre. Gibt es mehr Gewitter, gibt es auch mehr Austrocknung und Abkühlung am Boden. Die in die Stratosphäre transportierte Wärme wird dann durch die Zirkulation der Hadley-Zellen polwärts gelenkt und in den Weltraum abgestrahlt. Dies ist ein Grund dafür, warum sich die Pole (zumindest der Nordpol) stärker erwärmen als die Tropen [?].

Gewitter sind natürliche Thermostate. Das kann man leicht beobachten. An einem heißen Sommertag bilden sich durch aufsteigende Warmluftpakete Cumulus-Wolken, die sich manchmal bis zu Gewitterwolken auftürmen, gefolgt von Regen und manchmal Hagel. Die Temperatur am Boden kann unter der Wolke innerhalb von Minuten von 40,5°C auf 15,5°C fallen. Die Winde am Boden sind lediglich der unterste Teil eines Luftpaketes, das mit dem Regen nach unten gerissen wird. Nach dem Gewitter liegt der Wasserdampf als Wasser oder Hagelkörner am Boden, und die Wärme wurde bis zur Tropopause gehoben. In mittleren Breiten kann es ein paar Tage dauern, bis Wärme und Feuchtigkeit erneut für die Gewitterbildung reichen, in den Tropen kann es schon am nächsten Tag wieder losgehen.

Das wichtigste Gebiet für die Steuerung des Klimas auf der Erde sind die Tropen, und in den Tropen befindet sich der meiste Wasserdampf und gibt es am häufigsten Gewitter. Gewitter bewirken zweierlei: sie transportieren Wärme von der Oberfläche bis zur Tropopause, und die entsprechenden Wolken reflektieren Sonnenlicht zurück in den Weltraum. Sie setzen auch den Thermostat der Wassertemperatur auf 30°C; siehe den Beitrag von Willis Eschenbach zu diesem Thema [ein früherer Beitrag von Eschenbach zu diesem Thema findet sich auf Deutsch beim EIKE hier]. Wenn sich die Erde erwärmt, werden größere Gebiete der Erde den Thermostat-Punkt erreichen, und mehr Wärme wird durch Wolken und Gewitter aus der Atmosphäre entfernt, entweder als kurzwellige Reflektion von Strahlung an der Wolkenobergrenze oder langwellige Strahlung von der Obergrenze der Atmosphäre in den Weltraum. Dies reduziert auf natürliche Weise die Klimasensitivität bzgl. mehr Treibhaus-Erwärmung. Die Klimasensitivität hat sich mit der Zeit geändert. Dies ist der Grund, dass die Erwärmung zu Anfang des 20. Jahrhunderts ebenso stark wie der CO2-Anstieg gering war und die Erwärmung zum Ende des 20. Jahrhunderts die gleiche Amplitude aufwies mit einem viel stärkeren CO2-Anstieg. Hier folgt ein Plot der 60-jährigen Gleichgewichts-Klimasensitivität von 1880 bis 2010 nach den GISStemp-Daten und einer Kombination von CO2-Daten von Law Dome und Keeling.

Abbildung 6: Plot der Gleichgewichts-Klimasensitivität in einem 60-Jahres-Fenster (1880 bis 1940; 1881 bis 1941; und so fort). Die Länge des Fensters überbrückt die natürlichen Klimazyklen.

Wie der Plot zeigt, betrug die Klimasensitivität zu Beginn des 20. Jahrhunderts etwa 4°C pro CO2-Verdoppelung, aber bis zur Jahrtausendwende hat sich diese auf 1,5°C reduziert. Sie wird sich vermutlich Null nähern, wenn wir alle GISS-„Anpassungen“ entfernen und die wirklichen Temperaturen betrachten. Dies erklärt den „Stillstand“ der letzten 17 Jahre. Die Temperatur kann nicht weiter steigen, weil wir [die Atmosphäre] nicht über den von Mutter Natur gesetzten Thermostat-Punkt hinaus erwärmen können, gesetzt durch die maximale Wassertemperatur.

Mehr: http://notrickszone.com/2014/03/17/earths-surface-temperature-regulated-by-natural-heat-dissipation-mechanisms-in-the-atmosphere/#sthash.YEU1uwEe.dpuf

Link: http://notrickszone.com/2014/03/17/earths-surface-temperature-regulated-by-natural-heat-dissipation-mechanisms-in-the-atmosphere/

Übersetzt von Chris Frey EIKE




Die Sonne bringt Licht ins Dunkel – Was die Erdtemperaturen wirklich bestimmt, Teil 2

Teil 2: 2014, ein El Niño-Jahr (?) – El Niño und seine solaren Auslöser über die letzten 1.000 Jahre

Im 2. Teil werden die im Teil 1 gefundenen Korrelationen mit den Daten der letzten 140 Jahre abgeglichen und dadurch gezeigt, dass auch für diesen Zeitraum die gefundenen Beziehungen und Zusammenhänge bestehen. Darüber hinaus wird ein El Niñodatenabgleich für die letzten 1.000 Jahre mit dem Hauptsonnenzyklus vorgenommen. Es wird gezeigt, dass immer dann ein El Niñoereignis stattfindet, wenn der Hauptsonnenzyklus in seiner Aktivität (nach seinem Aktivitätsminimum) wieder zu steigen beginnt. Anhand der Theorie des Autors wird anschließend dargelegt, dass Ende 2014 ein El Niño vorliegen wird, der zu Beginn 2015 sein Maximum (stärkste Ausprägung) erreichen wird.

Anhand der Abb.15 möchte der Auto die letzten 60 Jahre zeigen. Inwieweit auch für diesen Zeitraum die gefundenen Korrelationen gelten. Hier muss auf rekonstruierte Werte zurückgegriffen werden.

 

Abb.15: Alle El Niño-Ereignisse stehen auch hier in unmittelbarem Zusammenhang „ihres“ solaren Parameters. Ein solarer Parameter (um 1955) steht bei den rekonstruierten Werten nicht mit einem El Niño in Beziehung.

Zwischenergebnis: Von 19 Ereignissen fallen alle mit einem solaren Maximum zusammen. Bei den rekonstruierten Werten löst ein solares Ereignis (1955) keinen El Niño aus.

Lässt sich darüberhinaus die aufgestellte Theorie des Autors anhand von Datenreihen erhärten? Hierzu schauen wir uns den Zeitraum der El Niño-Ereignisse und der solaren Parameter, die ihn auslösen, bis in die 1870-Jahre an. Allerdings handelt es sich hier, wie auch in Abb. 15, nicht um gemessene, sondern um rekonstruierte Werte, die nicht die Exaktheit und die Aussagefähigkeit, wie gemessene Ereignisse besitzen.

 

Abb.16 zeigt die Zusammenhänge bis Mitte der 1870-Jahre. Alle El Niño-Ereignisse, bis auf das Ereignis im Jahre 1900, lassen sich einem solaren Aktivitätsereignis zuordnen. Bei zwei solaren Ereignissen bleibt der El Niño aus. Der Autor hat zu seiner Untersuchung die gleichen solaren Parameter verwendet. Allerdings sind diese nicht gemessen, sondern rekonstruiert. Die Zeitreihe ganz unten zeigt den TSI, Quelle: NASA. Die NASA schreibt hierzu auf ihrer Internetseite, dass der TSI aus einem eigenen, physikalischen Modell entwickelt wurde und die Abbildung von der University of Montreal stammt. Die Zeitreihe darüber zeigt den Total flux, Quelle: ”A Doubling of the Sun’s Coronal Magnetic Field during the Last 100 Years”, M. Lockwood, R. Stamper, and M.N. Wild, Nature Vol. 399, 3.Juni 1999.

Lässt sich der El Niño von 1900 wirklich keinem solaren Ereignis zuordnen?

Abb.17 stammt aus der Arbeit von Russell und T. Mulligan (Institute of Geophysics and Planetary Physics, University of California) “The 22-year Variation of Geomagnetic Activity: Implications for the Polar Magnetic Field of the Sun”,Geophysical Research Letters, 22, 3287-3288, 1995. 

Abb.17 zeigt den geomagnetischen aa-Index von 1850 – 1990. In 1900 beginnt die magnetische Aktivität der Sonne wieder anzusteigen (grüne Trendlinie) und erreicht zum ausgehenden 20. Jahrhundert ihren Höhepunkt. Dabei steigt der aa-Index um 100% (blaue waagerechte Linien), was Rückschlüsse auf den starken Anstieg der solaren Aktivität zulässt. Der Anstieg verläuft synchron zum Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus. Er reduzierte dabei die kosmische Strahlung im gleichen Zeitraum um ca. 15%.

Diese Arbeit soll mit einer anderen, die ebenfalls den Verlauf des Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus, zeigt, verglichen werden (Abb.18).

 

Abb.18 zeigt natürliche Schwankungen auf die Meeresströmungen im Nordatlantik und somit auf den Golfstrom, Quelle: Dr. Axel Mörner, “Keine Gefahr eines globalen Meeresspiegelanstiegs“. Die Abbildung wurde vom Autor um den de Vries/Suess-Sonnenzyklus (Zeiten) ergänzt. Zu sehen ist die arktische Eisentwicklung in Verbindung mit den vorherrschenden Meeresströmungen in Relation zum Hauptsonnenzyklus (de Vries-Suess-Zyklus). Sowohl die arktische Eisbedeckung, als auch das Muster der Meeresströmungen folgt dem im Mittel 208-jährigen de Vries-Suess-Zyklus. Bei Sonnenminima erleben Nordwesteuropa, der Nordatlantik und die Arktis Kaltphasen. Die Abbildung zeigt weiter, dass für die nächsten 30 – 40 Jahre eine arktische Eisausdehnung und keine Eisschmelze zu erwarten ist.

Abb.18 zeigt, dass der Hauptsonnenzyklus Ende der 1890-Jahre sein Minimum erreichte und die solare Aktivität im Hauptsonnenzyklus in 1900 wieder zunimmt, was einen El Niño ausgelöst haben könnte. Haben solare Gesetzmäßigkeiten, die auf kleinen Skalen auftreten, auch auf großen Skalen ihre Gültigkeit?

Vom Schwabe-Zyklus ist bekannt (Friis-Christensen, E. & Lassen, K.: Length of the solar cycle: an indicator of solar activity closely associated with climate. Science 254 (1991), 698) dass, je länger sein Zyklus ist, umso schwächer die solare Aktivität im selben Zyklus. Dieser Zusammenhang auf kleinen Skalen ist ebenfalls auf großen Skalen zu beobachten. Auch beim Hauptsonnenzyklus und seiner Oberschwingung, dem Hallstatt-Zyklus verhält sich die Zyklusdauer analog zur Sonnenaktivität, d.h. je schwächer der Hallstatt-Zyklus, desto länger seine Zyklusdauer.

Die Sonne scheint sich bei Auslösen eines El Niño-Ereignisses auf großen Skalen auch hier gleich zu verhalten, wie auf kleinen Skalen. Der Autor hat gezeigt, dass mit jedem Anstieg der solaren Aktivität im Schwabe-Zyklus, ein El Niño-Ereignis ausgelöst wird. Dies scheint auf großen Skalen gleich zu sein. Steigt die solare Aktivität im Hauptsonnenzyklus an, löst dies (den El Niño von 1900) einen El Niño aus. Anhand eines Ereignisses kann noch keine Korrelation hergestellt werden, daher soll die These weiter geprüft werden. Abb.18 zeigt eine Übersicht historischer El Niño-Ereignisse.

 

Abb.19, zeigt eine Auflistung historischer El Niño/La Niña-Ereignisse über die letzten 1.000 Jahre, Quelle: http://nexialinstitute.com/climate_el_nino.htm

Nach den Arbeiten von Prof. Mörner (Abb.18) hatte der Hauptsonnenzyklus ca. 1670 und 1465 sein Minimum und drehte dann in seiner Aktivität.

 

Abb.20 zeigt den C14-Proxy, der als Maß der solaren Aktivität steht über die letzten 1.100 Jahre, Quelle: United States Geological Survey. Der Autor hat dazu die Minima (blaue Linien) eingezeichnet, an denen sich der Verlauf umkehrt, also die Sonnenaktivität wieder zunimmt. Die Minima sind identisch mit den Minima der solaren Aktivität und wie die Zykluszeit unschwer erkennen lässt, den Hauptsonnenzyklus darstellen. Die Minima liegen bei ca. 1078, 1338, 1538 und 1718.

Jetzt werden diese Daten mit der Auflistung in Abb.19 verglichen (Abb.21).

 

Abb.21: Sowohl die Wechsel in der solaren Aktivität aus den Arbeiten von Prof. Mörner (Abb.18, die Jahre 1670 und 1465), als auch die Wechsel in der Aktivität aus Abb.19 (United States Geological Survey, die Jahre 1718, 1538, 1338 und 1077) fallen exakt mit einem El Niño-Ereignis zusammen.

Daraus lässt sich der Schluss erhärten, dass zu den bereits drei gefunden solaren Parametern, die einen El Niño auslösen, ein vierter Parameter kommt:

4. Zu jedem Aktivitätswechsel im Hauptsonnenzyklus, den im Mittel 208-jährigen de Vries/Suess-Zyklus wird ein El Niño ausgelöst, wenn die solare Aktivität im Hauptsonnenzyklus ihr Minimum durchlaufen hat und wieder ansteigt.

Anhand der Untersuchungsergebnisse ist festzustellen dass alle 40 El Niño-Ereignisse im Untersuchungszeitraum der letzten 140 Jahre durch einen solaren Parameter ausgelöst werden. Bei der solaren Aktivität bleiben bei den rekonstruierten Werten zwei El Niño aus. Im Zeitraum der gemessenen Werte bleibt kein solares Ereignis, ohne „seinen“ El Niño ausgelöst zu haben. Der El Niño tritt dabei in einem exakten Zeitfenster nach der solaren Aktivitätserhöhung/solarem Maximum ein. Genau 11 Monate danach.

Aus diesen Gründen geht der Autor davon aus, dass sich Ende 2014/Anfang 2015 ein El Niño-Ereignis einstellen wird und zwar deswegen, weil die Sonne genau jetzt ihr magnetisches Maximum im 24. Schwabe-Zyklus hat (Abb.22). Jedes gemessene magn. Maximum hat im Untersuchungszeitraum „seinen“ El Niño ausgelöst. Dass die Physiker Armin Bunde und Josef Ludescher von der Universität Gießen anhand ihrer Studie (veröffentlicht im US-Fachjournal „Proceedings of the National Academy of Sciences“) unabhängig zu dem gleichen Ergebnis gelangen, erfreut natürlich den Autor. Dabei schreiben die Physiker “Jetzt geben wir bekannt, dass unser Verfahren bereits im September 2013 die Wiederkehr von El Niño im Spätjahr 2014 erkennen ließ.“ Der Autor hat bereits im Januar 2011 bekannt gegeben, wann und wie El Niños auftreten. Er ließ dies nicht nur „erkennen“, sondern hat klar die Aussage abgegeben.

Während die Gießener Physiker angeben “die Wahrscheinlichkeit, mit der ein El Niño noch in diesem Jahr eintritt, liege bei 76 Prozent“, konnte der Autor zeigen, dass alle El Niño in den letzten 140 Jahren durch „ihren“ solaren Parameter ausgelöst wurden. Dies ist eine Trefferquote von 100%. Werden die beiden solaren Ereignisse, die keinen El Niño auslösten, mit einbezogen, so liegt die Wahrscheinlichkeit bei 96%. Inwieweit beide Fraktionen Recht behalten, wird sich Ende 2014 zeigen.

 

Abb.22 zeigt den gegenwärtigen 24. Schwabezyklus, Quelle:http://www.solarham.net/ Das magnetische Maximum liegt in 02/14. Anhand der Untersuchungen des Autors wird demnach 11 Monate später, in 01/15, der El Niño voll ausgeprägt sein und sein Maximum erreichen.

  

Raimund Leistenschneider – EIKE




Die Dosis macht das Gift -auch bei Strahlung!

Die LNT Hypothese bedeutet, dass jede noch so kleine Strahlendosis ein Gefahrenpotential darstellt und wurde auf der Basis eines damals nicht bekannten Selbstheilungs-Mechanismus der Zellen eingeführt.  

Da in wachsender Zahl über Untersuchungsergebnisse berichtet wird, die zeigen, dass schwache Dosen ionisierender Strahlung nicht nur keinen nachweislichen Schaden anrichten sondern im Gegenteil gesundheitsfördernd sein können, steht die LNT Hypothese auf zunehmend unsicheren Füssen und sollte dringend überarbeitet werden, um eine unnötige Verunsicherung der Bevölkerung zu vermeiden1-3.  

Immerhin wird in über 3000 Berichten über einen positiven Gesundheitseffekt kleiner Strahlungsdosen berichtet  (Luckey4).  

Die allgemein existente Angst der Bevölkerung  vor jeder Art von Strahlung behindert den medizinischen, wissenschaftlichen und technischen Einsatz von Prozessen, bei denen ionisierende Strahlung entsteht, vernichtet Menschenleben und führt zur Vergeudung von Billionen € für Stilllegungen von Kernkraftwerken, Rückbau von Anlagen, Abfallmanagement von radioaktivem Material, Umstellung der Energieversorgung etc.

Ionisierende Strahlung erzeugt Radikale, d.h. kurzlebige Molekülbruchstücke, die Körperzellen und Erbgut beeinträchtigen können. Es gibt keinen Zweifel daran, dass hohe Dosen  stark gewebeschädigend sind. Neuere Untersuchungen zeigen jedoch, dass Strahlungsdosen unter einem Schwellenwert von 200 mSv nicht nur keine Gesundheitsschäden verursachen, sondern im Gegenteil gesundheitsfördernd sein können. Die Tatsache, dass die Menschheit seit dem Beginn ihrer Entstehung einer kontinuierlichen Bestrahlung mit ionisierenden Strahlen ausgesetzt ist, ließ auch kaum ein anderes Ergebnis erwarten.

Molekularbiologen führen diesen Vorgang darauf zurück, dass geringfügige Strahlungseinflüsse einen Reparaturprozess am DNA- Molekül aktivieren, der auch vor zukünftigen Schäden schützt.

Als Risiko hat die Internationale Strahlenschutzkommission (ICRP) die Wahrscheinlichkeit des Auftretens von Schäden  nach einer Strahleneinwirkung bei der Einzelperson durch eine einfache Formel:

R = 0,05/1Sv

festgelegt.

Sie gilt ohne Schwellenwert und ohne zeitliche Begrenzung.

Diese Formel sagt aus, dass bei einer Ganzkörperbestrahlung  von 1 Million Menschen  mit 4 mSv  innerhalb der nächsten Jahrzehnte 200 Menschen (0,02 %) zusätzlich von Leukämie oder Krebs befallen werden. Zur richtigen Einordnung dieser auf den ersten Blick erschreckenden Zahl muss allerdings berücksichtigt werden, dass allein 2010 in Deutschland 220.000 Menschen an Krebs starben. Bei einer Bevölkerung von 80 Millionen also 2,75%. Die Rechnung ergibt also eine Erhöhung von 2,75% auf 2,77%, wenn alle zusätzlichen Krebserkrankungen tödlich enden. Solche Unterschiede sind statistisch kaum zu ermitteln.

Die Formel regt jedoch auch zu missbräuchlichen Interpretationen an, da das relativ kleine Risiko, multipliziert mit einer großen Bevölkerungszahl eine große Zahl von „Krebsopfern“ ergibt, mit denen Horrorszenarien aufgebaut werden. Aus 1 Million Menschen, die nach einer Bestrahlung mit 1 Sv jeweils mit einer Wahrscheinlichkeit von  0,05% betroffen sind, werden reale 500 Krebstote. Oder noch abstruser : Der radioaktive Niederschlag  nach den Kernwaffentests hat angeblich zu einer Erhöhung der Hintergrundstrahlung auf der Erde um 1 mSv geführt, bei 7 Milliarden Menschen auf der Erde also zu 350.000 zusätzlichen Krebstoten.

Da von der ICRP einer über lange Zeit aufsummierten Dosis das gleiche Risiko zugeordnet wird wie einer kurzzeitigen Belastung gleicher Stärke, muss die LNT Hypothese bei geringen Dosen auch aus einem weiteren Grund zu falschen Ergebnissen führen. Das Immunsystem eines  lebenden Organismus kann einen Schaden umso besser abwehren kann, je länger die Zeit ist,  über die die Dosis verteilt ist.

Diese Erfahrungen sind bei Beeinflussung durch Licht, Chemikalien, Bakterien und Viren bekannt, nur bei der Strahlung wird dieser Effekt offiziell nicht zur Kenntnis genommen, obwohl der menschliche Organismus auf der Erde überall einer ionisierenden Bestrahlung ausgesetzt ist, die in Deutschland5 für jeden Einwohner im Mittel ca. 4 mSv pro Jahr beträgt.

Die in Deutschland lebenden 80 Millionen Menschen  erhalten damit bis zu ihrem 80. Lebensjahr im Mittel (40 Jahre) eine Dosis von ca. 160mSv. Nach der Formel des ICRP müssten  in Deutschland durch ionisierende Strahlung jedes Jahr  pro  Million Einwohner 8000 Menschen jährlich  von  Leukämie oder Krebs neu befallen werden, also insgesamt 640.000 Menschen. Bei einer Heilungsrate von 50% würden 320.000 Todesfälle pro Jahr in Deutschland allein auf den Einfluss ionisierender Strahlung zurückzuführen sein. Laut deutscher Krebsstatistik und einer Harvard- Untersuchung6 sind jedoch nur 1,5% der 2010 durch Krebs erfolgten 220.000 Todesfälle auf die Einwirkung ionisierender Strahlung zurückzuführen, also 3300 Todesfälle, 1% des Vorhersagewertes nach dem ICRP Modell!

Dieser Widerspruch allein sollte zum Nachdenken darüber anregen, ob die LNT Hypothese ohne Einschränkung gilt.

Geringe Dosen schädlicher oder giftiger Substanzen  können eine positive Wirkung auf den Organismus haben, ein Effekt, der in der Medizin unbestritten ist und zur Heilung eingesetzt wird. Die Giftwirkung setzt erst ein, wenn eine gewisse spontan eingenommene Dosis überschritten wird. Auch über einen Gewöhnungseffekt des menschlichen Organismus an geringe Dosen besteht kein Zweifel. Wenn das nicht so wäre, würde jedes Glas Wein ein Schritt in Richtung Selbstmord durch Alkohol sein, was ein übermäßiger Alkoholgenuss ohne Zweifel ist.

Dem Menschen wird jedoch dieser Schutzmechanismus bzgl. der  radioaktiven Strahlung abgesprochen, obwohl er seit Beginn seiner Existenz auf der Erde einer anfänglich weitaus höheren Bestrahlung ausgesetzt war und immer noch ist. Kaum eingegangen in die Betrachtungen des ICRP ist die Tatsache, dass in einigen Gegenden der Welt die in Deutschland vorherrschende Bodenstrahlung von 0,47mSv deutlich überschritten wird und Werte von 10 mSv! erreicht (Monazit-Abbaugebiete in Kerala, Indien), ohne feststellbar erhöhte Krebs- und Leukämieraten.

Doch nicht nur in Indien findet man bewohnte Gebiete mit hoher natürlicher Strahlung. Yangjiang in China, Guarapari in  Brasilien und Ramsar im Iran sind weitere bekannt Gebiete mit sehr hoher natürlicher Strahlung.

In Ramsar liegt die mittlere Strahlenbelastung bei 10 mGy pro Jahr, einige Gebiete der Stadt mit ca. 2000 Einwohnern weisen eine Strahlenbelastung bis zu 260mGy pro Jahr aus.

Eine Strahlendosis von 100 mSv pro Jahr stellt nach deutschen Richtlinien den Eingreifrichtwert für eine Umsiedlung der betroffenen Bevölkerung dar, da angeblich mit einer steigenden Krebsrate und Genschäden zu rechnen ist. Die Bewohner von Ramsar leben seit vielen Generationen mit dieser hohen Hintergrundstrahlung, die nach dem LNT- Modell genetische Abnormitäten und ein erhöhtes Krebsrisiko bedeuten. Da im allgemeinen davon ausgegangen wird, dass ca. 1,5% aller Krebsarten von ionisierender Strahlung hervorgerufen werden, müssten im Laufe der Zeit alle Einwohner Ramsars bereits an Krebs gestorben sein. Die Untersuchungen von S.M.J. Mortazavi, M. Ghiassi-Nejad, P.A. Karam, T. Ikushima, A. Niroomand-Rad, J.R. Cameron7 zeigen jedoch bei zytologischen Untersuchungen keine signifikanten Unterschiede im Vergleich zu Menschen, die unter normalen Umweltverhältnissen leben.

Im Gegensatz zur allgemeinen Ansicht zeigen viele  Versuche mit geringen Strahlendosen einen positiven Effekt bezüglich Schutz vor bzw. Verlangsamung einer Krebsausbreitung bei Tierversuchen, wie in den Veröffentlichungen von Sanders8, Doss9, Jolly und Meyer10 berichtet wird.

In seiner Arbeit: „The health effect of low dose ionizing radiation“ zeigt Luckey11 dass ein optimaler Gesundheitszustand bei Säugetieren bei einer Strahlenbelastung von 60 mSv/y erreicht wird, dass das Lungenkrebsrisiko mit steigender Radonbelastung  amerikanischer Häuser zurückgeht (Cohen12), dass die Krebs-Mortalitätsrate mit steigender Dosis schwacher Strahlung sinkt und dass mit steigender natürlicher Strahlenbelastung mit rückläufigen Krebserkrankungen zu rechnen ist (Nambi et all13).

In die gleiche Richtung weisen die Ergebnisse einer  Untersuchung in Taiwan14 . Dort wurde 1980 in Taipeh mit Co-60 (Halbwertzeit 5,3 Jahre) kontaminierter Stahl in Wohngebäuden verbaut. Erst nach 20 Jahren wurde dieser Fehler festgestellt.

Die anfängliche Bestrahlung erreichte bis zu 900 mSv!! pro Jahr und ließ entsprechend der Halbwertszeit in den Jahren nach. Die mittlere Dosis für alle betroffenen Personen wird mit 400 mSV pro Jahr angegeben.

Der Gesundheitszustand der Bewohner wurde nach Bekanntwerden des Baufehlers eingehend auf Krebs, Leukämie und Missbildungen untersucht. Die folgende Abbildung zeigt den Einfluss der Bestrahlung auf die Krebs-Sterberate im Vergleich zum allgemeinen Verlauf in Taiwan.

Die mittlere Mortalitätsrate für Krebs lag in Taiwan in den Jahren zwischen 1983 und 2002 bei 116 Toten auf 100000 Personen- Jahren. Das bedeutet z. B. für 10.000 Personen in einem Zeitraum von 20 Jahren (10000*20*116/100000) erwartete 232 Tote. An Krebs starben von den Bewohnern jedoch nur 3% dieser erwarteten Zahl, obwohl Untersuchungen von S.I Hwang et.all15. zeigten, dass ein Krebsbefall in dieser Gruppe nicht  ausgeschlossen ist. Von 7271 Menschen mit 101560 Personen- Jahren  unter einer mittleren Strahlenbelastung  von 47,8 mSv im Bereich von 1- 2363 mSv wurden 141 Krebsfälle diagnostiziert.  

Obwohl viele der Bewohner über lange Zeit eine sehr hohe Strahlendosis erhalten hatten, wurden keine nachteiligen Krankheitssymptome, wie Strahlenkrankheit, deutlich steigende Krebsrate oder Missbildungen beobachtet. Auch Chromosom- Veränderungen konnten ausgeschlossen werden.

Diese Ergebnisse sind ein weiteres Beispiel dafür, dass lebende Organismen in der Lage sind, Schäden durch ionisierende Strahlung zu reparieren und Schutzmechanismen auch gegen Zellschädigungen durch andere Ursachen aufzubauen.

Im Gegensatz zum Anstieg der Krebsrate bei kurzzeitig sehr hohen Dosen (größer 2 Sv), der bei Personen beobachtet wurde, die durch Atombomben geschädigten waren, wurde in Taiwan ein positiver Effekt bzgl. der Gesundheit bei geringeren Dosen schon kurze Zeit nach der Bestrahlung beobachtet, wie die obige Abbildung zeigt.

Diese Ergebnisse widerlegen die allgemein verbreitete und politisch verankerte Annahme, dass jede auch noch so kleine Dosis potentiell schädlich ist. Die Konsequenzen für alle Risikoanalysen in Bezug auf ionisierende Strahlung bei der Anwendung der Kerntechnologie in Medizin und Technik liegen auf der Hand und relativieren die in Deutschland allgemein verbreitete Ansicht,  Strahlung sei grundsätzlich gesundheitsschädlich.

Das Gegenteil scheint Realität zu sein, geringe Strahlungsdosen scheinen eine aussichtsreiche Waffe gegen Krebs zu sein und könnten für eine deutliche Reduktion der Sterblichkeitsrate sorgen.

Eine seriöse Überprüfung der LNT Hypothese ist angesagt.

Anstatt aus Angst vor Strahlenschäden Milliarden für die „Energiewende“ auszugeben und sich bzgl. der Energieversorgung mit „Erneuerbaren Energien“ ins Mittelalter zurückzubewegen, sollte man diese Erkenntnisse ernsthaft überprüfen und die Strahlenschutzverordnungen entsprechend anpassen. Die Einführung eines Schwellenwertes, bis zu dem keine Strahlenschäden sondern im Gegenteil  positive gesundheitliche Auswirkungen zu erwarten sind, würde die Strahlenschutzmaßnahmen drastisch vereinfachen und Billionen € einsparen, Mittel, die erheblich sinnvoller zur Lösung sozial- und wirtschaftspolitischer  Probleme eingesetzt werden könnten.

Über den Autor:

Dr. Jürgen Langeheine ist Diplomphysiker. Sein beruflicher Werdegang verschaffte ihm ein breites Wissen in Physik, Chemie und Verfahrenstechnik. Als  langjähriger Vorsitzemder der Geschäftsführung  der BASF- Magnetics/ EMTEC sind ihm wirtschaftliche Zusammenhänge geläufig. Dr. Langeheine ist Autor des Buches „ Energiepolitik in Deutschland- das Geschäft mit der Angst“

Zusammen mit seiner Frau wohnt er in Gauting bei München.

Literatur:

1. K. Becker, E. Roth: Zur Wirkung  kleiner Strahlungsdosen : atw (10) 616-620, 1998

2. K. Becker: LNT or not LNT that ist he question, Strahlenschutzpraxis 2/2006 ,44-48

3. K. H. Weber: Kritik an der linearen Extrapolations- Hypothese biologischer Strahlenwirkungen

    http://leibnizsozietaet.de/wp-content/uploads/2000/07/03_weber_kh.pdf

4. T.D.Luckey, Abundant health from radioactive waste: IntJ LowRadiation 5, 71-82, 2008

5. J. Langeheine: Energiepolitik in Deutschland-das Geschäft mit der Angst, Athene- Media Verlag , ISBN 978-3-86992-054-2

6. Harvard Reports on Cancer Prevention 1996

7. S.M.J. Mortazavi, M. Ghiassi-Nejad, P.A. Karam, T. Ikushima, A. Niroomand-Rad, J.R. Cameron, Int. J. of Low

    Radiation, 2006 Vol.2, No.1/2, pp.20 – 27

8. Charles L. Sanders: Radiation Hormesis and the Linear No Threshold Assumption

   Springer Verlag, Berlin Heidelberg 2010, ISBN 978-3-642-03719-1

9. M. Doss, Dose Respose, 10;584-592, 2012

10. D. Jolly, J. Meyer, A brief review of radiation hormesis, Austral.Phys. EngSci Med 2009; 32; 180-7

11. T.D.Luckey,The health effect of low dose ionization radiation: J. of American Physicians and surgeons Vol. 13, 2, 39-42

12. B.L. Cohen, The test of  the linear no thresthold theory of radiation carcinogenesis for inhaled radon decay products,

     Health Phys 1995:68:157-174

13. KSV Nambi, SD Soman. Environmental radiation and cancer deaths in India. Health Phys  1987;52:653-666

14. Dose Response. 2006 Aug 25;5(1):63-75.doi:10.2203/dose-response.06-105.

      Effect of cobalt-60exposure on health of Taiwan residents suggest new approach needed in radiation protection

     Chen WL, Luan YC, Shieh MC, Chen ST, Kung HT, Soong KL, Yeh YC, Chou TS, Mong SH, Wu JT, Sun CP, Deng

     WP, Wu MF, Shen ML.

15. S.L. Hwang,H.R.Guo, W.A.Hsieh, J.S.Hwang, S.D. Lee, J.L.Tang, C.C. Chen, T.C. Chang, J.D. Wang, Dr. W. P. Chang

     Intern. J. rad. Boil. 2006 Vol 82 no. 12 ,848-858

*Die Strahlenbelastung wird in Gray Gy ( J/ kg) gemessen und gibt die Strahlungs-( Energie-) Dosis an, die von 1 kg des bestrahlten Materials absorbiert wird. Üblicherweise wird jedoch die biologische Wirksamkeit einer Strahlung mit der Äquivalentdosis bewertet. Diese ist das Produkt aus der Energiedosis und einem dimensionslosen Strahlungsgewichtungsfaktor q und wird in Sv (Sievert) gemessen. da sich der Zahlenwert der Dosisgröße durch den Strahlungswichtungsfaktor auch ändern kann, werden für Energiedosen Gray verwendet, für gewichtete Dosisgrößen Sievert . Der Strahlungsgewichtungsfaktor beträgt für Gamma – Strahlung 1, für Alpha- Strahlung 20. Die Dosisleistung, also die Strahlenbelastung pro Zeiteinheit wird dann durch Gray pro Jahr (Gy/a) oder Sievert pro Jahr (Sv/a) beschrieben. Da 1 Gy oder 1Sv eine sehr hohe Strahlenbelastung darstellt, werden diese Strahlenbelastungen in mGy oder mSv angegeben.




Occams Rasierer und Klimaänderung

Wie Prof. Phil Jones einmal in einem Interview mit der BBC zugegeben hat, enthält die Zeitreihe mit Instrumenten-Aufzeichnungen Erwärmungsperioden, die statistisch ununterscheidbar von der Erwärmung der neunziger Jahre – Erwärmungsperioden, die nicht durch anthropogenes CO2 angetrieben worden sein können, weil sie erfolgten, bevor die Menschen dem CO2-Niveau signifikant ihren Stempel aufgedrückt hatten.

Zwischen 1860 und 1880 hat sich die Welt 21 Jahre lang erwärmt, und zwar mit einer Rate ähnlich der während des Zeitraumes 1975 bis 1998. Es gab damals einfach nicht genug CO2 in der Atmosphäre, um die Erwärmung in den sechziger Jahren des 19. Jahrhunderts zu erklären, so dass folglich nur die natürliche Variation die Ursache sein kann.


Wie also kann man Occams Rasierer auf diese Beobachtung anwenden?

Der Definition in Wikipedia zufolge legt das Prinzip von Occams Rasierer fest, dass „unter rivalisierenden Theorien diejenige mit den wenigsten Hypothesen gewählt werden sollte. Andere, kompliziertere Lösungen mögen sich ultimativ als richtig herausstellen, aber – bei fehlender Gewissheit – gilt: je weniger Hypothesen gemacht werden müssen, umso besser“.

Wikipedia dazu, warum Occams Rasierer wichtig ist:

Um das zu verstehen ziehe man in Betracht, dass es für jede akzeptierte Erklärung eines Phänomens immer eine unbegrenzte Anzahl von möglichen, komplexeren und ultimativ falschen Alternativen gibt. Dies ist so, weil man immer sich als falsch herausstellende Erklärungen mit einer Ad-Hoc-Hypothese belasten kann. Ad-Hoc-Hypothesen sind Rechtfertigungen, die Theorien davor bewahren, falsifiziert zu werden. Selbst andere Kriterien wie Übereinstimmung können niemals wirklich solche Erklärungen als rivalisierend eliminieren. Jede wirkliche Erklärung kann also viele Alternativen gehabt haben, die einfacher und falsch waren, aber auch eine unbegrenzte Anzahl von Alternativen, die komplexer und falsch waren. Falls jedoch eine Ad-Hoc-Hypothese  tatsächlich gerechtfertigt werden kann, würden dessen implizite Schlussfolgerungen empirisch verifizierbar sein. Nach einem allgemein akzeptierten Prinzip der Wiederholbarkeit sind diese alternativen Theorien niemals beobachtet worden und werden auch weiterhin nicht beobachtet werden. Außerdem sagen wir nicht, dass eine Erklärung richtig ist, die diesem Prinzip nicht standgehalten hat.

Anders gesagt: jede neue und sogar noch komplexere Theorie kann immer noch wahr sein. Beispiel: Falls ein Individuum übernatürliche Behauptungen aufstellt, dass Kobolde für das Zerbrechen einer Vase verantwortlich waren, wäre die einfachere Erklärung, dass man ihn falsch verstanden habe, aber aufgestellte Ad-Hoc-Rechtfertigungen (z. B. „Das bin nicht ich in dem Film, sie haben daran auch herumgefummelt“), verhindern erfolgreich die augenblickliche Falsifizierung. Die endlos zur Verfügung stehenden, sorgfältig ausgearbeiteten rivalisierenden Erklärungen, Rettungs-Hypothesen genannt, können nicht ausgeschlossen werden – außer durch Occams Rasierer“.

Quelle: http://en.wikipedia.org/wiki/Occam’s_razor

Mit anderen Worten, falls wir das Prinzip von Occams Rasierer zurückweisen, öffnen wir die Tür für die Akzeptanz von Theorien mit willkürlicher, ultimativ unendlicher Komplexität. Eine von Forschern aufgestellte Theorie, die nicht dem Prinzip von Occams Rasierer folgt, kann nicht falsifiziert werden, weil die Theorie immer auf willkürliche Weise verformt werden kann, um die Falsifikation zu verhindern.

Warum nun zwingt uns das Prinzip von Occams Rasierer, die Theorie abzulehnen, dass anthropogenes CO2 der Haupttreiber einer zeitweiligen Klimaänderung ist? Der Grund ist, dass die Natur Erwärmungsphasen ähnlich der jüngsten Erwärmung hervorgebracht hat, ohne signifikanten Beitrag durch anthropogenes CO2.

Wir haben also zwei rivalisierende Hypothesen für das, was eine zeitweilige Klimaänderung treibt:

1. Beobachtete natürliche Variation, die zu natürlichen Erwärmungsphasen geführt hat, die statistisch ununterscheidbar sind von der 1998 zu Ende gegangenen Erwärmung.

2. Beobachtete natürliche Variation + eine unbewiesene Behauptung, dass anthropogenes CO2 jetzt der Haupttreiber der Klimaänderung ist.

Die zweite Hypothese besteht den Test von Occams Rasierer eindeutig nicht. Angesichts eines fehlenden überzeugenden Beweises, dass anthropogenes CO2 die natürliche Variation übertrumpft hat, müssen wir Hypothese 1 akzeptieren – dass die beobachtete Klimaänderung das Ergebnis natürlicher Variationen ist.

Das Klima ist nicht wärmer als in der Vergangenheit. Das zeigen Zeiträume wie das Optimum des Holozäns oder noch früher die Eemian-Zwischeneiszeit. Die 1998 zu Ende gegangene Erwärmung erfolgte nicht schneller und dauerte nicht signifikant länger als ähnliche natürliche Erwärmungen, die es in der jüngeren Vergangenheit gegeben hat.

Nichts am gegenwärtigen Klima liegt außerhalb des Bereiches klimatischer Bedingungen, die sehr wohl aus der natürlichen Variation resultieren können – daher müssen wir den Regeln der Wissenschaft folgend Hypothesen zurückweisen, die unnötigerweise unbewiesene Vermutungen enthalten, solange oder bis solche Vermutungen getestet und verifiziert werden können, und zwar auf eine Art und Weise, die die Theorie falsifiziert, dass die natürliche Variation immer noch im Fahrersitz Platz genommen hat.

Link: http://wattsupwiththat.com/2014/03/22/occams-razor-and-climate-change/

Übersetzt von Chris Frey EIKE

Hinweis: Zu Occams Rasierer gibt es bei Wikipedia auch etwas auf Deutsch. Ich habe aber ausschließlich den obigen Text übersetzt ohne Berücksichtigung dessen, was dazu auf Deutsch dort steht.

C. F.




Der IPCC Bericht der Gruppe II, die WMO, die Stagnation und das sechstwärmste Jahr

Die Spatzen pfeifen es von den Dächern, selbst schwer grün eingefärbte mediale Dauertalker kommen an der seit 17 Jahren stagnierenden globalen Mitteltemperatur nicht mehr vorbei. Also muss erneut Alarm gegeben  werden. Und was eignet sich besser dazu als die „Alarmmeldung“, dass das Jahr 2013 weltweit das sechstwärmste Jahr seit Beginn der Wetteraufzeichnungen gewesen sei. Da durfte auch Frau Inge Niedeck bekannte Klimaalarmistin des ZDF nicht fehlen, die in ihrer Freude, über diese Schreckensmeldung im 3-Sat Fernsehen mal eben Australien nach Südeuropa verlegte.  Lesen Sie was es mit dem schrecklichen sechstwämsten Jahr auf sich hat.

Videoausschnitt der 3 Sat Wettersendung mit Frau Inge Niedeck zum 6. wärmsten Jahr. Mit Dank an Spürnase R. Hoffmann

Die WMO, das sechstwärmste Jahr und die Stagnation

von Rudolf Kipp tlw. ergänzt von EIKE Redaktion

Die Weltorganisation für Meteorologie hat (WMO) hat gestern ihren Jährlichen Bericht zur Klimaentwicklung vorgestellt. Wer, wie die meisten Leser hier, die Entwicklung der globalen Temperaturen mehr oder weniger regelmäßig verfolgt, für den kommt die Hauptbotschaft des Reports nicht überraschend. Die seit etwa 1998 andauernde Stagnation beim Anstieg der Globaltemperaturen hat sich auch im Jahr 2013 weiter fortgesetzt. Die Grafik rechts zeigt die Entwicklung der Globaltemperatur seit 1997  nach unterschiedlichen Messdaten.

Stagnation beim Temperaturanstieg kein Thema

Zugegeben, von der Stagnation erfährt man lediglich in dem dem Bericht zugrunde liegenden Daten, nicht im Bericht selbst. Die WMO, die ebenso wie das IPCC eine Organisation der UNO ist, wählt ihre Formulierungen dann doch lieber so, dass der Umstand dass es seit über 15 Jahren nicht mehr wärmer wird nicht so deutlich auffällt. In der Presseerklärung wird der Begriff Stillstand (Hiatus) nicht einmal erwähnt. Dort heißt es stattdessen:

The report confirmed that 2013 tied with 2007 as the sixth warmest on record, continuing the long-term global warming trend.

(…)Thirteen of the fourteen warmest years on record have all occurred in the 21st century, and each of the last three decades has been warmer than the previous one, culminating with 2001-2010 as the warmest decade on record.

An diesen Aussagen ist zunächst einmal nichts falsch. seit 1850 ist es etwa 0,9 °C wärmer geworden.

Die Erwärmung fand, wie in der Grafik oben (aus die kalte Sonne) und unten (aktuelle Grafik) gut erkennbar, in drei Schüben statt. Von 1860 bis 1880, von 1910 bis 1940 und von 1975 bis ungefähr 2000.

Seit 1998 befindet sich die globale Temperatur auf einem Plateau, es wird weder wärmer noch kälter. Das was die WMO beschreibt, also dass 13 der 14 wärmsten Jahre im 21. Jahrhundert liegen (einzige Ausnahme 1998) und dass damit sämtliche Jahre ab 2000  irgendwo in den Top 14 der letzten 160 Jahre liegen, ist schließlich genau das, was man bei einer Stagnation auf hohem Niveau erwarten würde.

Extremwetter als neue Drohkulisse

Der Hauptaugenmerk des diesjährigen Klimareports liegt allerdings nicht auf der Temperaturentwicklung, die wie gezeigt ja auch wenig besorgniserregend rüberkommt. Stattdessen wird schon im Titel angekündigt, worum es an Stelle der Temperatur gehen soll, nämlich Extremwetter-Ereignisse (“WMO Annual Climate Statement Highlights Extreme Events”). Und da wird dann auch die gesamte Klaviatur des Schreckens gespielt:

“The year 2013 once again demonstrated the dramatic impact of droughts, heat waves, floods and tropical cyclones…”

Wobei nicht direkt gesagt wird, dass die Dürren, Hitzewellen, Fluten und tropischen Wirbelstürme nun tatsächlich auf den Klimawandel zurückzuführen wären. Es wird jedoch sehr sehr deutlich impliziert.

“…many of the extreme events of 2013 were consistent with what we would expect as a result of human-induced climate change.”

Wenn man nämlich genauer hinschaut wird deutlich, dass der postulierte Zusammenhang zwischen dem Klimawandel und der Zunahme jeglicher Unbillen des Wetters statistisch kaum bis gar nicht gesichert ist. Selbst der Weltklimarat IPCC hat in seinem letzten Sachstandsbericht diesbezügliche Aussagen aus den vorherigen Berichten deutlich zurückgenommen und sieht wenig bis kaum Belegbares. Aus Kapitel 2 des IPCC AR5:

♦  “Overall, the most robust global changes in climate extremes are seen in measures of daily temperature, including to some extent, heat waves. Precipitation extremes also appear to be increasing, but there is large spatial variability”

  “There is limited evidence of changes in extremes associated with other climate variables since the mid-20th century”

  “Current datasets indicate no significant observed trends in global tropical cyclone frequency over the past century … No robust trends in annual numbers of tropical storms, hurricanes and major hurricanes counts have been identified over the past 100 years in the North Atlantic basin”

  “In summary, there continues to be a lack of evidence and thus low confidence regarding the sign of trend in the magnitude and/or frequency of floods on a global scale”

 “In summary, there is low confidence in observed trends in small-scale severe weather phenomena such as hail and thunderstorms because of historical data inhomogeneities and inadequacies in monitoring systems”

  “In summary, the current assessment concludes that there is not enough evidence at present to suggest more than low confidence in a global-scale observed trend in drought or dryness (lack of rainfall) since the middle of the 20th century due to lack of direct observations, geographical inconsistencies in the trends, and dependencies of inferred trends on the index choice. Based on updated studies, AR4 conclusions regarding global increasing trends in drought since the 1970s were probably overstated. ”

 “In summary, confidence in large scale changes in the intensity of extreme extratropical cyclones since 1900 is low”

Starke Stürme – dünne Daten

Besonders hervorgehoben wird in der WMO Presseerklärung der Taifun “Haiyan”, der im letzten Jahr auf den Philippinen große Verwüstung angerichtet hatte. Wobei sich die WMO dabei auf recht dünnes Eis begibt. Denn auch wenn solche Stürme“konsistent mit dem sind was man wegen der menschengemachten Erwärmung erwarten würde” sind, spricht doch der gemessene Trend der letzten Jahre eine völlig andere Sprache. Obwohl es seit den frühen 70er Jahren unbestreitbar wärmer geworden ist, ist bei der Energie und Anzahl der tropischen Stürme in diesem Zeitraum eher ein Rückgang als ein Anstieg zu erkennen (Abbildungen links, klicken zum  vergrößern).

Diese Daten sind auch der WMO bekannt, weshalb auch nicht explizit gesagt wird, die (menschengemachte) globale Erwärmung wäre für einen Anstieg von Anzahl oder Intensität von tropischen Wirbelstürmen verantwortlich. Dort wird das Ganze etwas vorsichtiger formuliert:

“We saw […] more damage from storm surges and coastal flooding as a result of sea level rise – as Typhoon Haiyan so tragically demonstrated in the Philippines,” said WMO Secretary-General, Mr Michel Jarraud.

Es war demnach also der Anstieg des Meeresspiegels, der den Taifun Haiyan erst so verheerend gemacht hätte. Diese Aussage verdient eine nähere Betrachtung. Schließlich liegt Rate des Meeresspiegel-Anstiegs global irgendwo bei 20 bis 30 cm in 100 Jahren, mit starken regionalen Schwankungen.

Glücklicherweise gibt es ziemlich genau in der Bahn des Taifuns Haiyan über die Philipinen die Pegelstation Cebu. Dort wird seit 1947 ununterbrochen der Meeresspiegel gemessen (Abbildung links, klicken zum vergrößern). Der Anstieg in den letzten 60 Jahren betrug dort insgesamt kaum 10 cm. In den letzten 15 Jahren war überhaupt kein Anstieg mehr zu beobachten. Es scheint also so, als würden diese Daten die Behauptung der WMO eher nicht stützen, es sei denn man glaubt daran dass ein 10 Zentimeter höherer Meeresspiegel einen signifikanten Einfluss auf die Zerstörungskraft eines Taifuns hat.

Bei der Berichterstattung über das Klima, beziehungsweise den Klimawandel, zeichnet sich in den letzten Jahren verstärkt der Trend ab, dass kaum noch über die Temperaturentwicklung gesprochen wird. Was kaum wundert, gibt es dort in letzter Zeit doch kaum etwas zu berichten, was auf den katastrophalen Klimawandel hindeutet mit dem uns seit Jahren gedroht wird. Stattdessen wird  die Zunahme von “Extremwetter” als neue Drohkulisse aufgebaut.

Und das oft auch mit Erfolg. Zum Teil weil es sich dabei um eine statistisch weit schwieriger zu fassende Größe als die Temperatur handelt. Das Wetter ist nie im eigentlichen Sinne normal, und wenn uns das normale, also dass beinahe ständig irgendwo außergewöhliche Wetterphänomen wie Überschwemmungen, Dürren, Hitze, Kälte, Sturm und Flaute stattfinden, als eine Zunahme von Extremen verkauft wird, dann sind offenbar viele geneigt das erst einmal zu glauben. Wobei sicher auch die Medien bei der Wahrnehmung, das Wetter würde immer extremer, eine nicht unerhebliche Rolle spielen. Über kaum etwas wird dort so geren berichtet wie über Wetterkatastrophen und deren sicher geglaubte Verbindung zum Klimawandel.

Bei der Veranstaltung “Die Klimadebatte und ihre Folgen” waren sich die anwesenden Klimawissenschaftler Hans von Storch und Andreas Hense in einem Punkt besonders einig. Die Klimawissenschaft steckt in einer Glaubwürdigkeitskrise, weil in der Vergangenheit, und zum Teil noch heute, die Folgen eines möglichen Klimawandels übertrieben dargestellt wurden und weil wissenschaftlich strittige Ergebnisse als gesichertes Wissen verkauft worden sind. Bei der WMO scheint diese Erkenntnis, dass ein solches Vorgehen langfristig immer nach hinten losgeht, noch nicht angelangt zu sein.

Der Bericht erschien zuerst bei ScienceSceptical