Akute Erklärungsnot: Die Grundrechenarten sind die schlimmsten Feinde des IPCC

Im “Summary for Policymakers” findet sich keine Inhaltsangabe für eine überschlägigen Suche und auch keine vernünftige Zusammenfassung der Ergebnisse. Es drängt sich erneut der Eindruck auf, dass  das IPCC gar kein Interesse daran hat, der Öffentlichkeit allgemeinverständliche Ergebnisse zu präsentieren. Ein Blick auf die deutsche Zusammenfassung hilft leider auch nicht weiter, um direkt an die Kernaussagen zu gelangen. Verlassen wir uns hier also einmal auf die öffentlich-rechtlichen Medien, deren Auftrag eine seriöse Informationen der Zwangsbeitragszahler ist, Zitat von tagesschau.de, Stand: 08.08.2019 um 10:49 Uhr mit Hervorhebungen:

Dürren, Hitzewellen, Wasser- und Nahrungsmangel: In seinem neuen Sonderbericht zum Klimawandel zeichnet der Weltklimarat ein düsteres Zukunftsbild und fordert eine dringende Kehrtwende bei der Landnutzung.

Der Weltklimarat (IPCC) hat seinen neuen Sonderbericht zur Erderwärmung veröffentlicht und darin die dramatischen Auswirkungen des Klimawandels beschrieben. Aus dem Bericht geht hervor, dass der weltweite Temperaturanstieg über den Landmassen bereits 1,53 Grad erreicht hat. Unter Berücksichtigung der sich langsamer erwärmenden Meeresflächen sei die globale Temperatur insgesamt um knapp 0,9 Grad gestiegen. Verglichen wurden die Zeiträume 1850 bis 1900 und 2006 bis 2015.”

Zunächst fällt einmal auf, dass es bei den öffentlichen Verlautbarungen zur Globaltemperatur NST bisher KEINE Aufteilung Land/Meer Unterscheidung gegeben hatte, Vergleichsdaten dazu also kaum öffentlich sind. Vermutlich hat man jetzt diese Landtemperatur aus der NST ausgegliedert, um analog zum ominösen 97%-Konsens (=Rekursion der 100% Anfangsmenge auf eine Teilmenge) einen medienwirksamen „Aufhänger“ zur Befeuerung der globalen Klimahysterie generieren zu können. Weiterhin wäre hier auch noch die grob unwissenschaftliche Darstellung der betreffenden Temperaturwerte zu nennen, denn bei direkten wissenschaftlichen Zahlenvergleichen MUSS immer die GLEICHE Anzahl von Nachkommastellen angegeben werden:

  • Temperaturanstieg über den Landmassen bereits 1,53 Grad-
  • -globale Temperatur insgesamt um knapp 0,9 Grad gestiegen-

Das ist also schon mal ganz schlecht. Aber wir können uns ja wegen der Chancengleichheit auf eine Nachkommastelle einigen und mal ein bisschen Kopfrechnen, vielleicht wird es dann ja besser. Wir wissen, dass die Erde zu 70% mit Wasser bedeckt ist. Und dann rechnen wir mal auf Grundlage der nachfolgenden Beziehungen los:

Landfläche       0,3 Fläche @1,5 Grad @ 0,3F    (1)

Gesamtfläche   1,0 Fläche @0,9 Grad @ 1F       (2)

Meeresfläche  0,7 Fläche @X Grad @ 0,7F       (3)

Diese Beziehungen (1) bis (3) können wir dann folgendermaßen als Gleichung ausdrücken:

1,0 * F * 0,9° = 0,3 * F * 1,5° + 0,7 * F * X°

Wir teilen nun beide Seiten  durch „F“ und erhalten:

1 * 0,9° = 0,3 * 1,5° + 0,7 * X°

Diese Gleichung lösen wir nach „X°“ auf und erhalten:

X° = (0,9° – 0,3 * 1,5°) / 0,7 = 0,64° Temperaturanstieg über den Ozeanen

Probe: 1,5° * 0,3 + 0,64° *0,7 = 0,9°

Ergebnis: Der Temperaturanstieg über den Ozeanen betrug also 0,6 Grad C.

Daraus ergibt sich nun aber wiederum ein Problem für die Klimasensitivität von CO2: Der CO2-Gehalt der Atmosphäre war von vorindustriellen 280 ppm auf aktuell etwa 415 ppm angestiegen. Für eine grobe Abschätzung rechnen wir mal mit einem Anstieg von 50%. Weiterhin GLAUBEN wir für die nachfolgende Berechnung mal an einen alleinigen CO2-Klimaantrieb und vernachlässigen den logarithmischen Zusammenhang zwischen CO2-Gehalt und Temperatur. In einer einfachen linearen Abschätzung würde ein CO2-Anstieg von 50% dann die Hälfte der CO2-Klimasensitivität [°C/2xCO2] betragen, also:

Temperaturanstieg über den Landmassen = 1,5 Grad C=> Klimasensitivität CO2= 3 [°C/2xCO2]

Temperaturanstieg über den Ozeanen = 0,6 Grad C       => Klimasensitivität CO2= 1,2 [°C/2xCO2]

Globaler Temperaturanstieg = 0,9 Grad C                     => Klimasensitivität CO2= 1,8 [°C/2xCO2]

Aus den aktuellen Zahlen des IPCC ergibt sich folglich eine sehr unterschiedliche CO2-Klimasensitivität für Landmassen und Ozeane. Daraus leitet sich schon mal die Frage ab:

Wie kann das CO2seine unterschiedliche Klimawirkung steuern, die offenbar invers zu einer behaupteten Wasserdampf-Verstärkung verläuft?

Also hilft es den IPCC-Alarmisten auch nicht weiter, dass sie jetzt die Landmassen ausgegliedert hatten, weil die Erdoberfläche nun mal zu 70% aus Wasser besteht. Eine Verdoppelung des CO2-Anteils in der Atmosphäre würde demnach folgenden Temperaturanstieg ergeben:

3,0°C * 0,3 + 1,2°C *0,7 = 1,7°C  (die Zahlen für KS-CO2in die Proberechnung oben eingesetzt)

Anmerkung: Dieses Ergebnis stimmt mit der aus dem globalen Temperaturanstieg abgeleiteten CO2-Klimasensitivität von 1,8 [°C/2xCO2] überein. Der Unterschied von 0,1°C mag die Trolle nähren…

Das Ergebnis heißt also: Wir können so weitermachen wie bisher und halten das 1,5°-Ziel ein!

Anmerkung: Aufgrund deslogarithmischen Zusammenhangs zwischen CO2-Gehalt und Temperatur ist die Klimawirkung der zweiten 50% CO2geringer als die der ersten.

Diese Berechnung hat auch Auswirkungen auf ein globales CO2-Budget:

Bei einer durchschnittlichen Lebensdauer von etwa 100 Jahren für atmosphärisches CO2beträgt das jährlich erneuerbare CO2-Budget 30 Gigatonnen (=3.000 Gt/100 Jahre)  für einen stabilen Temperaturanstieg um 1,5 Grad – WENN wir denn ÜBERHAUPT an eine Klimawirksamkeit von CO2GLAUBEN wollen (was dem Autor sehr fern liegt).

Selbst wenn die ganze Welt also an einen alleinigen CO2-Klimaantrieb glauben würde, müsste sich eine globale Erwärmung von 1,5°C bei einem jährlichen CO2-Ausstoß von 30 Gigatonnen von selbst stabilisieren. Die beabsichtigte globale Dekarbonisierung muss also ganz andere Zielehaben…




Fabrikation von Wahrheiten*

97 Prozent der Klimawissenschaftler unterstützen die Aussage des Weltklimarates – dies wird denjenigen entgegengehalten, die im Spektrum der Klimawissenschaft zu Ergebnissen kommen, die dem Mainstream widersprechen. Insbesondere in Diskussionen mit Politikern, Journalisten, aber auch Klimaaktivisten ist dieser Hinweis das probate Mittel, um jeden Zweifel abzublocken. Zweifel etwa, ob es nicht auch natürliche Ursachen für einen Teil der Erwärmung gegeben haben könnte; ob nicht das CO2 in seiner Klimawirkung überschätzt sei; ob die Klimamodelle wirklich ein zureichendes Bild der realen Klimaentwicklung abgäben.

Der immer wieder zitierte 97-Prozent-Konsens beruht auf einer Arbeit von John Cook, einem australischen Psychologen, aus dem Jahr 2013. Cook hat klimawissenschaftliche Artikel aus den Jahren 1991 bis 2011 untersucht. Er stellte fest, dass 97 Prozent der Veröffentlichungen einen Zusammenhang zwischen Erwärmung und anthropogenem Einfluss annehmen. Schaut man sich die Studie Cooks allerdings etwas genauer an, stellt man fest, dass gerade mal 1,6 Prozent diesen menschlichen Einfluss mit mehr als 50 Prozent beziffern, die restlichen 95,4 Prozent sehen einen Zusammenhang, ohne ihn zu quantifizieren.

Die weit überwiegende Zahl der Wissenschaftler – ich zähle mich zu ihnen – sieht den CO2-Ausstoss durch den Menschen als eine von mehreren Ursachen für die globale Erwärmung der letzten 150 Jahre. Darunter sind einige, die den CO2-Beitrag auf weniger als 50 Prozent einschätzen, einige sicher auch auf 60 oder gar 80 Prozent. Der Uno-Weltklimarat (IPCC) behauptet in seinem Bericht aus dem Jahr 2018, dass ausschliesslich menschliche Aktivitäten für den Anstieg von 0,9 Grad Celsius seit 1850 ursächlich sind. Und landauf, landab verbreiten Politik und Medien, die Wissenschaftler seien sich zu 97 Prozent einig. Abweichende Meinungen werden damit als absurd oder skurril gebrandmarkt.

Da ist es doch interessant, einen Blick auf den letzten Bericht der American Meteorological Society aus dem Jahr 2017 zu werfen. 42 Prozent der befragten Meteorologen erachteten die Natur als bedeutsamere oder mindestens gleichwertige Ursache für die Erwärmung. 49 Prozent sehen den Menschen als Urheber im Vordergrund, allerdings vermuten auch hier nur 15 Prozent den Menschen als alleinig ursächlich: gegenüber der Untersuchung des Zeitraumes 1991 bis 2011 eine deutliche Steigerung, aber eben nur um 15 Prozent.

Nun werden naturwissenschaftliche Erkenntnisse nicht per Mehrheitsentscheid proklamiert. Gerade wenn sich zu politisch gehypten Themen eine unselige Allianz aus Politik, Medien und Wissenschaft bildet, wird es immer gefährlich. Auf dem Höhepunkt der Waldsterbensdebatte in den neunziger Jahren waren die wenigen abweichenden Wissenschaftler sehr schnell isoliert. Sie wurden von den Medien nicht mehr zitiert und von Forschungsmitteln abgeschnitten. Die Realität gab ihnen später recht.

Viele Menschen goutieren Schwarzweiss-aussagen, welche die komplizierte Welt so einfach wie möglich erklären. Von 97 zu 100 Prozent Konsens betreffend menschenverursachtes Klima ist es nur noch ein ganz kleiner Schritt, der alles kolossal vereinfacht und die Schuldfrage auch noch gleich löst. Dabei wird in der Klimawissenschaft mit so extremen Unsicherheiten operiert wie sonst nirgendwo. Sämtliche Klimaberichte strotzen nur so vor Unsicherheiten. Erkenntnisse werden mit Konfidenzbereichen ausgewiesen: «sehr wahrscheinlich», «wahrscheinlich» und «unwahrscheinlich». Man stelle sich vor, Galileo oder Einstein hätten ihre gesetzmässigen Erkenntnisse mit derart ungefähren Formeln begründet.

Sündenbock CO2

So gibt etwa der IPCC die entscheidende Grösse der Klimasensitivität – also die Temperaturentwicklung bei Verdoppelung des CO2-Gehalts der Luft von vorindustriellen 280 ppm auf zukünftige 560 ppm (parts per million) – mit einem Streubereich von 1,5 bis 4,5 Grad an. Bei 1,5 Grad könnten wir der Entwicklung mit Gelassenheit entgegensehen; bei 4,5 Grad droht eine katastrophale Entwicklung. Was gilt nun? Auch der Weltklimarat kann die Antwort nicht liefern. Für den Weltklimarat ist die Sache klar: Der Mensch ist zu 100 Prozent schuld. In früheren Berichten hiess es, CO2 determiniere das Klima seit 1950. Neuerdings ist man sich sehr sicher: Bereits seit 1850 gibt es nur einen Stellknopf für das sich seither erwärmende Erdklima: Die anthropogenen Einflüsse allein sind die Sünder, vornehmlich CO2.

Woher weiss man das? Aus Modellrechnungen, in denen bestimmte mögliche Einflüsse eingegeben werden. Aus Messungen weiss man indes lediglich, dass CO2 eine Klimasensitivität von 1,1 Grad bei einer Verdopplung des CO2-Gehalts hat. Aus Modellsimulationen kommt man inklusive Rückkopplungen auf den etwa dreifachen Wert. Die Sonnenaktivität wird mit nahe null berücksichtigt, denn man stellt fest, dass die gesamte Sonneneinstrahlung während des elfjährigen Sonnenzyklus nur unwesentlich schwankt. Zwar schwankt die UV-Strahlung im Prozentbereich und das Magnetfeld der Sonne im Verlauf der Jahrzehnte um 10 bis 20 Prozent. Da man aber einen Mechanismus, wonach ein schwankendes Magnetfeld oder auch eine schwankende UV-Strahlung die Erdatmosphäre stark beeinflussen können, nicht berücksichtigt, bleibt es bei der Aussage: Die Sonne macht kein Klima. Dass es Hunderte von wissenschaftlichen Arbeiten gibt, welche die Warmzeiten und Kaltzeiten der Menschheitsgeschichte mit der solaren Aktivität in Zusammenhang bringen, ist für das Uno-Gremium nicht von Bedeutung. Was nicht zur Theorie passt, wird einfach ignoriert.

Zweifellos gibt es auch noch den Einfluss ozeanischer zyklischer Strömungen, im Atlantik wie auch im Pazifik, auf das Temperaturgeschehen. Diese können innerhalb eines sechzigjährigen Zyklus um plus/minus 0,3 Grad schwanken. Man kann diese Zyklen mit den IPCC-Rechenmodellen immer noch nicht zutreffend berücksichtigen. Also schlägt man Erwärmungseffekte, die in den letzten dreissig Jahren hierdurch bedingt sind, einfach dem CO2 zu. So einfach geht das.

Und dann gibt es noch einen kühlenden Effekt, der in die Rechenmodelle eingeht: die Aerosole. Dabei handelt es sich um Staubteilchen und Tröpfchen zum Beispiel aus Schwefeldioxidemissionen. Dummerweise ist aber die Unsicherheit über die Wirkung der Aerosole extrem hoch. Sie streuen in den Modellen um den Faktor zehn und können in den Computerberechnungen immer so eingesetzt werden, dass CO2 und Realität zur Übereinstimmung gebracht werden können. Die Aerosole sind, samt ihrer Wirkung auf Wolken, der Joker im Spiel der Klimamodellierer: Man berücksichtigt sie je nach Bedarf – stärker oder schwächer oder auch gar nicht.

So gelingt es dann insgesamt, die CO2-Wirkung auf das Klima um den Faktor drei höherzuschrauben. Begründet wird dies mit der Annahme, dass CO2 zu einer Erwärmung der Ozeane führt und dass Wasserdampf einen viel stärkeren Einfluss auf das Klima zeitigt als CO2. Auch Wolken sollen angeblich modelltechnisch ein positives Feedback bewirken. Über diesen kleinen Umweg erreicht das CO2 seine allmächtige, das Klima fast im Alleingang steuernde Wirkung.

Doch was passiert, wenn die steigende Verdunstung der Meere zu mehr Wolkenbildung führt und Wolken sich insgesamt abkühlend auswirken? Man weiss es nicht, weil bislang die Rechenmodelle die Wolken nicht berechnen können.

Viel Unsicherheit also. Trotzdem ist man ganz fest dabei, die Politik zu überzeugen, dass das CO2 auf null gebracht werden muss, weil es in so dominanter Weise das Klima verändert.

Wie war es nur möglich, dass es in der mittelalterlichen Wärmeperiode von 900 bis 1150 ebenso warm war wie heute – und das bei tieferen CO2-Konzentrationen. Eine Reihe von Publikationen zeigt, dass die Erwärmung nicht nur ein Phänomen in Grönland oder Nordeuropa war, sondern alle Erdregionen weltweit umfasste.

So warm wie heute

Und wie konnte es dramatisch kühler werden während der Kleinen Eiszeit (1600 bis 1820), ohne dass das CO2 seine Finger im Spiel hatte? Hungerkatastrophen und Kriegen um schwindende Ressourcen fielen in jenem Zeitraum Millionen von Menschen zum Opfer. Warum sollte die Natur diese Schwankungen um mehrere Grad Celsius nach 1850 einfach eingestellt haben?

Das sind unangenehme Fragen. Daher hat es immer wieder Versuche gegeben, die Vergangenheit zu retuschieren. Das berühmteste Beispiel ist diehockey stick-Kurve von Michael Mann. Dabei wurden die Berechnungen so manipuliert, dass die mittelalterliche Warmzeit verschwindet und auch die Kleine Eiszeit als transitorisches kühles Lüftchen eingestuft werden konnte. Denn es stellte sich heraus, dass die Modelle, die an den Temperaturentwicklungen zwischen 1850 und heute angepasst wurden, die Vergangenheit vor 1850 nicht zutreffend wiedergeben konnten.

Weder die mittelalterliche Wärmeperiode noch die Kleine Eiszeit scheinen in den Modellrechnungen je existiert zu haben. Weil menschengemachte Emissionen aber die einzigen Stellschrauben in den Modellen sind, versagen diese, wenn die Ursachen der Klimaänderung natürlichen Ursprungs sind. Und so verwundert es nicht, dass die mittelalterliche Warmzeit, die so warm war wie die heutige Warmzeit, von ausserordentlich hoher Sonnenaktivität gekennzeichnet war. Eine Aktivität, die wir als solares Maximum auch für das 20. Jahrhundert feststellen: So aktiv wie im letzten Jahrhundert war die Sonne seit fast 2000 Jahren nicht mehr. Dass in der Kleinen Eiszeit die Sonne ihre Sonnenfleckenaktivität über ein halbes Jahrhundert vollständig einstellte (Maunder-Minimum), passt da ins Bild.

Wie schrecklich sind 0,9 Grad?

Die Basis für die heutige Erwärmung ist das Ende der Kleinen Eiszeit. Es war die kälteste Zeit in der Geschichte der letzten 10 000 Jahre. Doch ist das wirklich die richtige Basis für Klimaziele? Wer wollte dahin zurück? Nimmt man den Mittelwert der letzten 2000 Jahre, so wäre als Nulllinie eher das Klima zwischen 1940 und 1970 als Basis geeignet. Damit hätten wir bisher eine Erwärmung von 0,5 Grad festgestellt – eine Abweichung also vom langjährigen Mittelwert, die schon die zyklischen Temperaturschwankungen im Atlantik und im Pazifik von plus/minus 0,3 Grad mit sich bringen.

Mit der heute festzustellenden Erwärmung wären wir in der besten aller Klimawelten, wie uns ein Blick in die rund alle tausend Jahre stattfindenden Warmzeiten (minoisches, römisches und mittelalterliches Zeitalter) zeigt. Weil aber die katastrophalen Voraussagen der Klimamodelle, eine Erwärmung von 1,5 bis 4,5 Grad, in der Zukunft die Debatte bestimmen, müssen wir uns mit den Klimaprognosen beschäftigen.

Die Gleichgewichtsklimasensitivität ECS (Equilibrium Climate Sensitivity) beschreibt die Änderung des Temperaturniveaus durch eine Verdoppelung des CO2 von 280 auf 560 ppm nach Einstellen eines neuen Gleichgewichtes durch die Ozeane, was mehrere hundert Jahre beanspruchen dürfte. Hierfür gibt der IPCC die erwähnte Bandbreite von 1,5 bis 4,5 Grad Celsius an. Fast niemand in der Politik und in den Medien hat bislang offensiv kommuniziert, dass dies nach den Vorstellungen des IPCC ein über mehrere Jahrhunderte dauernder Prozess ist.

Doch wie wirkt sich eine Verdoppelung des CO2 in diesem Jahrhundert aus? Eine Antwort liefert uns die transiente Klimaantwort TCR (Transient Climate Response). Sie gibt uns die Änderung der Temperatur bei Verdoppelung des CO2-Gehaltes in der Luft an zum Zeitpunkt, in dem 560 ppm erreicht worden sind. Nehmen wir also an, dass bei einem jährlichen Zuwachs von 2 ppm CO2 der Wert (heute 411 ppm) in 75 Jahren erreicht werden wird, also im Jahre 2094. Dann beträgt der entsprechende Temperaturanstieg von 1850 bis 2094 nach Angaben des IPCC 1 bis 2,5 Grad. Als wahrscheinlichster Wert wird 1,8 Grad angegeben.

Das hört sich nicht besonders gefährlich an, wenn man bedenkt, dass hiervon schon angeblich 0,9 Grad durch bisherige CO2-Emissionen verursacht wurden. Natürlich bewegt sich im Modell des IPCC die Temperatur nach 2100 in Richtung 4,5 Grad, jedoch – immer unter der Voraussetzung, dass sich die Prognostiker nicht irren – in mehreren hundert Jahren. Wissen das unsere Politiker? Wissen das die Bürger?

Doch es wird noch besser. Mittlerweile sind die ECS- und TCR-Werte des Weltklimarates einer Erosion unterworfen. Sie schmelzen gleichsam mit den Alpengletschern.

Thorsten Mauritsen vom Max-Planck-Institut in Hamburg und Robert Pincus von der Colorado-Universität kamen 2017 in der ZeitschriftNature Climate Changezum Ergebnis, dass der ECS-Wert nur noch 1,79 Grad betrage und der TCR-Wert 1,32 Grad. Zu einem ähnlichen Ergebnis kamen die Klimaforscher Judith Curry und Nicholas Lewis 2018 in einer Veröffentlichung der American Meteorological Society (ECS: 1,7 Grad, TCR: 1,33 Grad). Diese beiden Arbeiten sind die zurzeit besten Abschätzungen der Auswirkungen des CO2-Anstiegs aus realen Betrachtungen.

Bemerkenswert bei beiden wissenschaftlichen Publikationen ist, dass sie sich am unteren Rand der Bandbreite, die der IPCC für die Temperaturentwicklung vorsieht, befinden. Alle Arbeiten zur Abschätzung der Sensitivität unseres Klimas aus tatsächlichen Beobachtungen kommen zu niedrigeren Empfindlichkeiten gegenüber CO2, als die Modelle des IPCC ergeben.

Bei einer ECS von 1,7 Grad langfristig und einer TCR von rund 1,3 Grad können wird die Klimakatastrophe bis 2100 getrost absagen. Damit die vom IPCC angestrebten 2 Grad nicht überschritten werden, dürften wir die 560 ppm nicht wesentlich überschreiten. Das bedeutet, dass die Emissionen in den nächsten hundert Jahren auf das vorindustrielle Niveau gesenkt werden müssen. Auch das ist eine gewaltige Herausforderung. Doch wir hätten viel mehr Zeit für eine nachhaltige Energiezukunft, mit welcher Technologie auch immer. Das Ziel wäre über drei Generationen, nicht über drei Legislaturperioden hinweg zu bewältigen.

Auf null bis 2050 – wirklich?

In Anbetracht der aussergewöhnlich hohen Unsicherheit, des Versagens der Klimamodelle und der immer deutlicher werdenden wissenschaftlichen Erkenntnisse, dass die Klimamodelle zu heiss laufen, bleibt eigentlich nur eine vernünftige Strategie. Es ist richtig, die CO2-Verminderung auf globaler Ebene anzustreben, aber wir müssen diese immer wieder am realen Erwärmungsprozess nachjustieren. Wenn sich wider Erwarten die Katastrophenszenarien des IPCC nicht in Luft auflösen, müssen wir auf drastischere CO2-Minderungs-Schritte vorbereitet sein. CO2-arme Technologien müssen auf jeden Fall entwickelt werden. Varianten gibt es viele: Kernfusion, inhärent sichere Kernkraftwerke, fossile Kraftwerke mit CO2-Sequestrierung und natürlich auch erneuerbare Energien. Es wäre ausgesprochen dumm, sich auf eine bestimmte Option zu versteifen und andere a priori auszuschliessen.

Wenn die Klimareaktion auf das CO2 bei einem TCR-Wert von 1,3 Grad liegt, haben wir bis 2100 Zeit, um das vorindustrielle Emissionsniveau zu erreichen. Dabei ist es unerheblich, ob Deutschland und Europa 2050 oder 2100 auf netto null kommen. Entscheidend ist: Was macht die Welt, und vor allem, was macht China? Zu glauben, dass China, wie in Paris versprochen, bis 2030 die CO2-Emissionen von 8,9 Milliarden Tonnen auf (nur!) 12,5 Milliarden Tonnen ansteigen lassen wird, um diese hernach in zwanzig Jahren auf null zu senken, wäre schon arg naiv. Chinas Regierung selbst rechnet im 2050 mit den gleichen Emissionen wie heute, was schon eine gewaltige Anstrengung voraussetzt. Oder entspricht es etwa der europäischen Logik, dass wir unsere Industriegesellschaft zerstören, damit China richtig aufblühen kann?

Der Weltklimarat oder die «Fridays for future» sind der KP von China so ziemlich egal. Für die Chinesen ist gut, was China nützt, darüber sollten wir uns keine Illusionen machen. Wie China mit internationalen Abkommen umspringt, zeigte erst kürzlich der Bruch des Montreal-Abkommens. Das Übereinkommen, das für China 2002 in Kraft getreten ist, verbietet die Produktion und das Inverkehrbringen von Ozonschicht-schädigenden FCKW. Seit 2013 stossen chinesische Fabriken wieder jährlich mehr als 7000 Tonnen der verbotenen Gase aus. Reaktionen der Weltgemeinschaft: null.

1600 Kohlekraftwerke werden zurzeit weltweit in 62 Ländern gebaut, die meisten übrigens durch chinesische Firmen und mit Hilfe chinesischer Kredite. Konkret heisst das gemäss derSouth China Morning Post:15 300 MW zusätzlicher Kohlestrom für Pakistan, 16 000 MW für Bangladesch, selbst Myanmar will mit zusätzlichen 5100 MW seine Wirtschaft anheizen. Insgesamt wird die Kohlekraftwerkskapazität weltweit nicht reduziert, sondern um 43 Prozent erweitert. Das ist keine theoretische Modellrechnung, sondern die Realität. Und in Deutschland proklamiert die Bundeskanzlerin netto null für 2050.

Katastrophenwarnungen gab es schon viele. Die einen bewahrheiten sich, andere nicht, oft kam es auch ganz anders, als man dachte. Das nächstliegende Szenarium aber wäre zurzeit: Die Welt stellt sich bis 2100 langsam um, und Deutschland stürzt in zehn Jahren ab.

=====================================

Prof. Dr. Fritz Vahrenholt hat in Chemie promoviert und ist Honorarprofessor an der Universität Hamburg. Als Vertreter der SPD war er Umweltsenator in Hamburg (1991 bis 1997). Unter Bundeskanzler Gerhard Schröder war er auch als Berater für Energiefragen auf Bundesebene tätig.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

http://www.weltwoche.ch/

EIKE dankt der Redaktion der WELTWOCHE und dem Autor Fritz Vahrenholt für die Gestattung der ungekürzten Übernahme des Beitrages.

=================================================================




Panik macht alle Probleme schlimmer – die Klimapanik genauso!

(Einleitung von AR Göhring)

Der Philosoph Dushan Wegner, gebürtiger Tscheche und in Köln aufgewachsen, ist ähnlich wie sein Kollege Michael Klonovsky einer der pointierten kritischen Stimmen unserer grünen Zeitläufte. Immer wieder spießt er die Widersprüche und versteckten Konsequenzen der sogenannten Klimarettung auf und analysiert die dahinterstehenden Intentionen.

In einem aktuellen Artikel seines glänzenden Weblogs schaut er sich die Profiteure und deren Orwellsche Logik genauer an. Zitat:

„Selbst wenn man annimmt, daß es einen neuartigen Klimawandel gibt, daß er diesmal menschengemacht ist, daß er dazu noch erstens aufgehalten werden sollte und zweitens aufgehalten werden kann – selbst wenn wir all das annehmen, stellt sich doch immer noch die Frage, wie man dabei vorgeht?“

Ja, das sind die Formulierungen, die wir auch von Klonovsky oder Norbert Bolz kennen – sie treffen zielgenau bis ins grüne Mark.

Genießen Sie realitätsbezogene moderne Philosophie abseits der Hofberichterstatter wie Richard David Precht:

Panik macht alle Probleme schlimmer – die Klimapanik genauso!

 

Mit freundlicher Genehmigung von Dushan Wegner




Spätester Beginn der Hurrikan-Saison im Atlantik seit 2004

[*Im Original verwendet Watts den Terminus disaster porn. Anm. d. Übers.]

Abbildung: Graphik des National Hurricane Center NHC

Dass es gegenwärtig keine Gebiete gibt, in denen die Bildung eines Hurrikans zu erwarten ist, bedeutet, dass es mindestens seit 2004 nicht mehr zu einem so späten Beginn gekommen war. Damals war es der Hurricane Charley, der als erster Hurrikan am 9. August benannt worden war. In einer privaten E-Mail mit dem erfahrenen Hurrikan-Prognostiker Joe Bastardi stimmte dieser zu und fügte hinzu:

Es bestehen gute Aussichten, dass es auch gleichzieht mit dem August 1977 mit der geringsten ACE in einem August

ACE = Accumulated Cyclone Energy, ein Index zur Messung der von Tropical Storms/Hurricanes in die Atmosphäre freigesetzten Energie. 1977 war das Jahr mit der geringsten ACE innerhalb einer Saison.

Dem NHC zufolge ist nichts dergleichen während der nächsten Tage zu erwarten:

Tropical Weather Outlook
NWS National Hurricane Center Miami FL
800 AM EDT Wed Aug 7 2019

For the North Atlantic...Caribbean Sea and the Gulf of Mexico:

Tropical cyclone formation is not expected during the next 5 days.

$$
Forecaster Stewart

[Diese Meldung spricht für sich und wurde absichtlich unübersetzt gelassen. Anm. d. Übers.]

Abbildung 2

Unter der Annahme, dass sich bis zum 9. August keine neuen tropischen Zyklone bilden, würde der Beginn der Namensgebung bis zum Jahr 2001 zurückgehen, als am 14. August Tropical Storm Chantal benannt worden war.

Der Höhepunkt der Saison liegt aber noch vor uns, nämlich im September.

Abbildung 3: Graphik der Häufigkeit von Tropical Storms und Hurrikanen im Atlantik auf monatlicher Basis von 1851 bis 2017. Daten von der NOAA hier und von Chris Landsea am NHC. „Gesamte und mittlere Anzahl tropischer Zyklone nach Monaten (1851 bis 2017)“, NOAA, Atlantic Oceanographic and Meteorological Laboratory, Stand 1. September 2018. Graphik von Rcraig.

Link: https://wattsupwiththat.com/2019/08/07/slowest-start-to-atlantic-hurricane-season-since-2004/

Übersetzt von Chris Frey EIKE




Klimakrise und Trockenheit: Waldsterben 2.0?

Unser Wald ist massiv geschädigt“ titelte SPON am 01.08.2019 und verkündete: „Der Wald in Deutschland ist in einem schlechten Zustand. 100.000 Hektar wurden seit 2018 von Stürmen, Dürren und Schädlingen beschädigt“. In einem weiteren Beitrag vom 25.7. zum gleichen Thema sagt Ulrich Dohle, Vorsitzender des Bundes Deutscher Forstleute (BDF), das Hauptproblem sei die Trockenheit. In vielen Wäldern habe es seit dem Frühjahr 2018 zu wenig geregnet. Die aktuell hohen Temperaturen von um die 40 Grad Celsius seien nicht das Problem. Selbst Buchen, die eigentlich als robust gelten, werfen vielerorts ihr Laub ab und drohen abzusterben. Sowohl alte als auch junge Bäume seien betroffen. „Das ist vor allem bei den jungen Bäumen tragisch, weil sie die nächste Waldgeneration bilden“, wird Dohle zitiert. Selbst naturbelassene Buchenmischwälder seien gefährdet.

Der Klimawandel wird zum Kernproblem erklärt

schlimme Trockenheit in unseren Böden bis in eine Tiefe von 1,8 m in flammenden roten und gelben Farbtönen darstellen, Bild 2. Untermalt wird diese Botschaft durch eine Legende, deren Abstufungen ausschließlich von „ungewöhnlich trocken“ bis „extreme Dürre“ reichen.

Bild 2. In Fernsehnachrichten wurden Ende Juli 2019 Bilder wie dieses gezeigt, welche die schlimme Trockenheit unserer Böden selbst noch in einer Tiefe von 1,8 m belegen sollen (Bild: UFZ)

Die (Klima)-Wissenschaft hat festgestellt…

Beim Helmholtz Zentrum für Umweltforschung handelt es sich um eine staatlich unterstützte Großforschungseinrichtung mit rund 1.100 Mitarbeitern an mehreren Standorten, das sich u.a. mit den Ökosystemen der Zukunft sowie der Klimaforschung beschäftigt. Deshalb gilt auch hier automatisch der Grundsatz, dass die vermittelten Erkenntnisse dem aktuellen Stand der Wissenschaft entsprechen und höchstens von „Leugnern“ in Frage gestellt werden. Dennoch wollen wir hier die durch solche Diagramme vermittelte Klimakatastrophen-Botschaft einem Faktencheck unterziehen. Das oben gezeigte Diagramm entspricht der aktuellen Situation von Ende Juli 2019. Schauen wir deshalb einfach mal auf zwei „normale“ Jahresübersichten, nämlich die Zeitreihen der Dürredarstellungen der Jahre 2016 und 2017, Bild 3 und Bild 4.

Bild 3. Verlauf der Trockenheit über den Gesamtboden (bis ca. 1.8m Tiefe) im Jahr 2016. Oben links = Januar (Grafik: UFZ)

Bild 4. Verlauf der Trockenheit über den Gesamtboden (bis ca. 1.8m Tiefe) im Jahr 2017 (Grafik: UFZ)

Wie man sieht, zeigt die Karte für das Jahr 2016 über insgesamt fünf Monate hinweg überwiegend Warnfarben, wobei sich die Situation in den letzten vier Monaten stark verschlimmert. Dies setzt sich dann noch über die ersten sieben Monate des Jahres 2017 hinweg fort. Erst ab dem August des Jahres 2017 signalisiert die Zunahme weißer Farbe eine Besserung der Lage. Soweit die Wissenschaft. Grundlage der Diagramme sind übrigens, so wie in den Klimadisziplinen heute üblich, Berechnungen, die auf der Grundlage einer Modellierung erfolgen.

doch was sagen die Fakten?

Sucht man für die Jahre 2016 und 2017 die jeweiligen Regenmengen aus der Niederschlagsmengenstatistik des Umweltbundesamtes heraus, so findet man für 2016 eine Regenhöhe von 733 mm und für 2017 sogar den Wert 859 mm. Das Gesamtmittel der Jahre 1881 bis 2017 liegt bei 772 mm, wobei Extremwerte zwischen 552 mm (1959) und 1018 mm (2002) registriert wurden. Demnach liegt die Regenmenge des Jahres 2016 um lediglich 5 % unter dem Mittelwert, während der Niederschlag im Jahr 2017 sogar um mehr als 11 % darüber lag. Wenn man dies mit den Darstellungen von Bild 3 und Bild 4 vergleicht, drängt sich schon die Frage auf, ob diese Diagramme die Realität nicht ein klein wenig zu stark in Richtung Alarmismus verzerren.

Waldsterben 2.0 – was sagt die Statistik?

Auch beim Blick auf die in den SPON-Artikeln genannte Schadenshöhe von 100.000 Hektar seit 2018 lohnt es sich, die Försterklage genauer mit der Faktenlage zu vergleichen. Vor allem, wenn der Klimawandel ins Spiel gebracht wird. So betont der BDF-Vorsitzende Ulrich Dohle: „Bis vor einem Jahr hätte ich noch nicht von einem Waldsterben 2.0 gesprochen. Jetzt schon“. Es habe zwar auch in den vergangenen Jahrtausenden immer wieder Klimaschwankungen gegeben. Doch der Mensch beschleunige den Prozess, wodurch den langsam wachsenden Bäumen die Zeit fehle, um sich anzupassen.

Die aktuell genannten 100.000 Hektar, die sich zudem noch auf alle Ursachen – also Stürme, Dürren und Schädlinge – verteilen, sollte man zunächst mit anderen Schadensereignissen ins Verhältnis setzen. So ist beispielsweise vom Sturm „Lothar“ aus dem Jahr 1999 dokumentiert, dass er allein schon 60.000 Hektar Wald zerstört hat, d.h. allein dieser Sturm hat einen Schaden in fast vergleichbarer Größenordnung angerichtet hat wie die Kombination von Windbruch, Dürre und Schädlingsbefall aus den anderthalb Jahren seit Anfang 2018. Seitdem hat es zahlreiche weitere schwere Stürme wie Jeanett (2002), Gudrun (2005), Kyrill (2007), Paula (2008), Emma (2008), Klaus (2009), Xynthia (2010), Norina (2010), Christian (2013), Xaver (2013), Ela (2014), Niklas (2015), Axel (2017) und Xavier (2017) gegeben. Die bisher bekannten Schadenssummen aus diesen Unwettern summieren sich zu rund 33 Mrd. €. Das in den Betrachtungszeitraum fallende Sturmtief Burglind (2018) und der Orkan Friederike (2018) verursachten mit zusammen 2,6 Mrd. Schäden weniger als 10 % dieser Summe. Diese Zahlen mögen dabei helfen, die aktuellen Klagen der Waldbesitzer besser einzuschätzen. Natürlich hat der eine oder andere Kleinwaldbesitzer erhebliche bis existenzielle Schäden erlitten, doch auf die gesamte Branche bezogen erscheint die derzeitige Klagelautstärke doch recht hoch. Ganz auszuschließen ist ein Zusammenhang mit der Aussicht auf Gelder aus einem Fördertopf von ca. 800 Mio. natürlich nicht.…

Ein Blick in den Waldschadensbericht

Seit den denkwürdigen „Waldsterbens“-Aktionen der Grünen im letzten Jahrhundert wird der Waldzustand in Deutschland jährlich bundesweit erfasst. Zu den Kernstücken des Berichts gehört eine zusammenfassende Grafik. In dieser wird der Kronenzustand der Bäume in die drei Kategorien „ohne Verlichtung“, „Warnstufe“ und „deutliche Kronenverlichtung“ unterteilt, Bild 5.

Bild 5. Ergebnisse der Waldzustandserhebung aus den Jahre 1984 bis 2018 (Grafik: BMEL)

Der Blick auf diese Auswertung zeigt, dass es auch im Dürrejahr 2018 nicht zu außergewöhnlichen Schädigungen gekommen ist. Wie auch in anderen „trockenen“ Jahren wie 1991 und 2003/ 2004 stieg der Anteil der Bäume mit starker Kronenverlichtung auf um die 30 % an. Die Vergangenheit zeigt jedoch, dass sich der Wald danach stets schnell erholte. Den umgekehrten Trend zeigt naturgemäß der Anteil der Bäume ohne Kronenverlichtung. Insgesamt verlaufen alle drei Trends wenn, dann eher mit kleinen Schwankungen linear seitwärts. Bis auf eine geringfügige Zunahme des Anteils der Bäume in der Warnstufe ist seit etwa 1990 kein Negativtrend erkennbar. Von dem behaupteten „dramatischen“ Anstieg der Waldschäden, gar von einem Waldsterben 2.0 aufgrund von Klimaveränderungen, kann keine Rede sein. Zu beachten ist außerdem, dass es bei der Erfassung keine eindeutigen, wissenschaftlich exakt überprüfbaren Kriterien gibt. Stattdessen gibt es einen breiten individuellen Ermessenspielraum. Die Ergebnisse können daher kaum als belastbar angesehen werden.

Die Klimaentwicklung ist in Wahrheit der Freund des deutschen Waldes

Vollends haltlos werden alle Behauptungen über nachteilige Auswirkungen des Klimawandels beim Blick auf eine seit mehr als 135 Jahren sehr gut dokumentierte Statistik, nämlich die Entwicklung der Niederschlagsmengen, Bild 6.

Bild 6. Entwicklung der Niederschlagshöhe in Deutschland von 1881 bis 2019 nach Daten von UBA und Statista. Daten für 2019 auf der Grundlage des bisherigen Jahresverlaufs hochgerechnet (Grafik: Autor)

Aus der Niederschlagsstatistik geht nämlich hervor, dass jegliche Klimahysterie in Sachen Waldsterben völlig unangebracht ist. Seit 1881 ist das Klima in Deutschland nämlich nicht etwa trockener, sondern feuchter geworden, d.h. es fällt mehr Regen als früher. Damit sind Klagen über nachteilige Folgen des Klimawandels auf deutsche Wälder durch die Fakten widerlegt. Während die Vertreter der „Klimaerwärmung“ gerne behaupten, hinter ihnen stehe „die Wissenschaft“, lässt sich hier eindeutig beweisen, dass das Gegenteil der Fall ist. Seit 1881 ist die mittlere Regenhöhe in Deutschland von 728 mm/a um 63 mm/a bzw. fast 9 % auf inzwischen 791 mm/a angestiegen. Was wir dagegen in den vergangenen zwei Jahren hatten, waren die üblichen kurzfristigen Schwankungen, die für Wetter normal sind. Das Klima, der langfristige Trend dagegen, ist im Gegenteil positiv für unsere Wälder und auch für unsere Ernten. Es ist ein Jammer, dass unseren Journalisten hier wieder einmal die sonst so vielbeschworene investigative Motivation abhandenkommt, sobald das Stichwort „Klimawandel“ ins Spiel gebracht wird.


Bild 7. Im Dürrejahr 2018 trugen die Apfelbäume in der Region Stuttgart so reichlich saftige Früchte, dass vielfach die Äste abbrachen (Foto: Autor)