Klimamodelle: Schlimmer als gar nichts?

Klimamodelle: Als ob man mit einem Taschenrechner das Wetter in 100 Jahren simulieren kann. Bild: Thorben Wengert / pixelio.de

Robert L. Bradley Jr., übernommen von AIER

Wenn in ferner Zukunft die Geschichte der Klimamodellierung geschrieben wird, könnte die wichtigste Geschichte sein, wie sich die einfache, berechenbare Antwort als die falsche herausstellte, was zu einer überschätzten Erwärmung und falschen Ängsten vor dem verstärkten (vom Menschen verursachten) Treibhauseffekt führte.

In der Zwischenzeit häufen sich die empirischen und theoretischen Beweise, die auf dieses spielverändernde Urteil hinweisen, trotz der besten Bemühungen des Establishments, wegzuschauen.

Betrachten Sie eine Pressemitteilung in diesem Monat von der University of Colorado Boulder, „Warmer Clouds, Cooler Planet“, mit dem Untertitel „precipitation-related ‚feedback‘ cycle means models may overestimate warming“ [etwa: Niederschlags-bezogener „Rückkopplungs“-Zyklus bedeutet, dass Modelle die Erwärmung überbewerten können].

„Die heutigen Klimamodelle zeigen mehr Wärme als ihre Vorgänger“, beginnt die Ankündigung:

Aber eine in dieser Woche veröffentlichte Arbeit zeigt, wie die Modelle sich auf der Seite der zu starken Erwärmung irren können: Die sich erwärmenden Wolken der Erde kühlen die Oberfläche stärker ab als erwartet, berichtet das Team unter deutscher Leitung in „Nature Climate Change“.

„Unsere Arbeit zeigt, dass der Anstieg der Klimasensitivität aus der letzten Generation von Klimamodellen mit einem großen Körnchen Salz genommen werden sollte“, sagte CIRES-Mitglied Jennifer Kay, eine außerordentliche Professorin für atmosphärische und ozeanische Wissenschaften an der CU Boulder und Co-Autorin des Papiers.

In der Pressemitteilung heißt es weiter, dass die Einbeziehung dieser negativen Rückkopplung die Klimamodelle der nächsten Generation verbessern wird, was angesichts der bevorstehenden Sechsten Bewertung des Intergovernmental Panel on Climate Change (IPCC) von größter Bedeutung ist. Aber werden konfliktbehaftete Modellierer und das politisierte IPCC mit dem Elefanten im Raum offen umgehen?

Hintergrund

Starke positive Rückkopplungen durch die Freisetzung von Kohlendioxid (CO2) und anderen vom Menschen verursachten Treibhausgasen (THG) sind es, die eine bescheidene und sogar positive Erwärmung in das Gegenteil verwandeln. Man geht davon aus, dass eine erhöhte Verdunstung in einer wärmeren Welt (vor allem aus den Ozeanen) eine stark positive Rückkopplung verursacht, die die primäre Erwärmung verdoppelt oder sogar verdreifacht.

Technisch ausgedrückt: Wassermoleküle fangen Wärme ein, und Wolken oder Dampf in der oberen tropischen Troposphäre – wo die Luft extrem trocken ist – fangen wesentlich mehr Wärme ein und verdicken das Treibhaus. Wie das Wasser in dieser oberen Schicht (≈30.000-50.000 Fuß) die Wärme entweder blockiert (vergrößert) oder freisetzt (vermindert), ist umstritten, so dass das Vorzeichen der Externalität für die Klimaökonomie unbekannt ist. Und es ist die obere Troposphäre, in der die Klimamodelle mit den Daten nicht zurechtkommen.

Die Annahme einer festen relativen Luftfeuchtigkeit erlaubt es den Modellierern, sich ceteris paribus auf veränderte physikalische Prozesse zu berufen, die die sekundäre Erwärmung durchaus negieren könnten. Diese umstrittene Annahme öffnet die Tür für Hyper-Modellierung, die im Widerspruch zur Realität steht. (Für Ökonomen wäre die Analogie die Annahme von „perfektem Wettbewerb“, um Hypermodellierung zu entfesseln.)

Seit Jahrzehnten haben Modellkritiker die vereinfachte Behandlung von Komplexität in Frage gestellt. In der Zwischenzeit haben die Klimamodelle viel mehr Erwärmung vorhergesagt, als eingetreten ist.

Theoretiker sind seit langem mit Modelltechnikern zerstritten. Richard Lindzen vom MIT, Autor von Dynamics in Atmospheric Physics, hat verschiedene Hypothesen darüber aufgestellt, warum die Wasserdampf-Rückkopplung viel geringer ist als modelliert. Judith Curry, deren Blog Climate Etc. eine führende Quelle ist, um physikalisch-wissenschaftliche und verwandte Entwicklungen zu verfolgen, ist eine weitere Kritikerin der hoch sensitiven Modelle.

Es gibt eine Reihe von glaubwürdigen Perspektiven, die ich versuche zu berücksichtigen“, sagt sie. „Es ist ein sehr komplexes Problem, und wir haben die Antworten noch nicht.“ Und weiter:

Und jetzt haben wir viel zu viel Vertrauen in einige sehr zweifelhafte Klimamodelle und unzureichende Datensätze. Und wir fassen das Problem nicht weit genug, um … glaubwürdige Vorhersagen über die Bandbreite der Dinge zu machen, die wir möglicherweise im 21. Jahrhundert noch erleben werden“.

Wie geht der ‚Mainstream‘ damit um?

Klimawissenschaftler wissen, dass Klimamodelle extrem kompliziert und anfällig sind. In What We Know About Climate Change (2018, S. 30), erklärt Kerry Emanuel vom MIT:

Die Computermodellierung des globalen Klimas ist vielleicht das komplexeste Unterfangen, das je von der Menschheit unternommen wurde. Ein typisches Klimamodell besteht aus Millionen von Zeilen mit Computeranweisungen, die eine enorme Bandbreite an physikalischen Phänomenen simulieren sollen….

Obwohl die Gleichungen, die die physikalischen und chemischen Prozesse im Klimasystem darstellen, gut bekannt sind, können sie nicht exakt gelöst werden. …. Das Problem dabei ist, dass viele wichtige Prozesse auf viel kleineren Skalen ablaufen.

Das Problem der Parametrisierung ähnelt den Irrtümern der Makroökonomie, wo die entscheidende Kausalität des individuellen Handelns ignoriert wird. Die Mikrophysik ist die treibende Kraft des Klimawandels, doch die Gleichungen sind ungeklärt und unter dem Gitterniveau. Wie die Makroökonomie hätte auch die Makroklimatologie schon längst hochqualifiziert und degradiert werden müssen.

Mein Mentor Gerald North, ehemaliger Leiter der Abteilung für Klimatologie an der Texas A&M, hatte bereits 1998-99 eine Reihe von Anmerkungen über die krude, überbewertete Natur von Klimamodellen, die auch heute noch relevant sind:

Wir wissen nicht viel über die Modellierung von Klima. Es ist so, als ob wir einen Menschen modellieren würden. Die Modelle sind endlich in der Lage, uns zu sagen, dass die Kreatur zwei Arme und zwei Beine hat, aber wir werden gebeten, Krebs zu heilen.

Es gibt einen guten Grund für den fehlenden Konsens in der Wissenschaft. Es ist einfach noch zu früh. Das Problem ist schwierig, und es gibt erbärmlich wenige Möglichkeiten, Klimamodelle zu testen.

Man muss herausfinden, was zwischen 5 km und der Oberfläche vor sich geht. Der Standardweg ist über atmosphärische Modelle. Eine bessere Ausrede kann ich nicht finden.

Die verschiedenen Modelle koppeln unterschiedlich an die Ozeane. Hier gibt es eine ganze Menge Spielraum (unbestimmte Fudge-Faktoren). Wenn ein Modell zu empfindlich ist, kann man einfach ein wenig mehr Ozean einkoppeln, damit es mit den Aufzeichnungen übereinstimmt. Das ist der Grund, warum Modelle mit unterschiedlichen Empfindlichkeiten die Aufzeichnungen alle etwa gleich gut nachahmen. (Modellierer wären von meiner Erklärung beleidigt, aber ich denke, sie ist richtig.)

Modellergebnisse könnten auch soziologisch sein: die sozial akzeptable Antwort zu bekommen.

Der 5. Sachstandsbericht des IPCC (2013), der „offizielle“ oder Mainstream-Bericht, erkennt die grundlegende Unsicherheit an, während er die Modellmethodik und -ergebnisse für bare Münze nimmt. „Die Komplexität der Modelle“, so heißt es (S. 824), „hat seit dem Ersten Sachstandsbericht des IPCC von 1990 erheblich zugenommen….“. Und weiter:

Jedoch führt jedes bisschen zusätzliche Komplexität, während es dazu gedacht ist, irgendeinen Aspekt des simulierten Klimas zu verbessern, auch neue Quellen möglicher Fehler (z.B. durch unsichere Parameter) und neue Wechselwirkungen zwischen Modellkomponenten ein, welche, wenn auch nur vorübergehend, die Simulation eines Modells von anderen Aspekten des Klimasystems verschlechtern können. Darüber hinaus besteht trotz der erzielten Fortschritte nach wie vor eine wissenschaftliche Unsicherheit bezüglich der Details vieler Prozesse.

Die demütigende Natur der Klimamodellierung wurde von The Economist im Jahr 2019 veröffentlicht. „Predicting the Climate Future is Riddled with Uncertainty erklärt:

Klimamodellierung ist ein komplizierter Prozess. Der Code eines Modells muss alles darstellen, von den Gesetzen der Thermodynamik bis hin zu den Feinheiten, wie Luftmoleküle miteinander interagieren. Die Ausführung bedeutet, dass Quadrillionen von mathematischen Operationen pro Sekunde ausgeführt werden – daher der Bedarf an Supercomputern.

Solche Modelle sind sehr grob. Millionen von Gitterzellen mögen viel klingen, aber das bedeutet, dass die Fläche einer einzelnen Zelle, von oben gesehen, etwa 10.000 Quadratkilometer beträgt, während eine Luft- oder Meereszelle ein Volumen von bis zu 100.000 km3 haben kann. Wenn man diese enormen Flächen und Volumina als Punkte behandelt, entgehen einem viele Details.

Wolken zum Beispiel stellen eine besondere Herausforderung für Modellierer dar. Je nachdem, wie und wo sie sich bilden, können sie das Klima entweder erwärmen oder abkühlen. Aber eine Wolke ist viel kleiner als die kleinsten Gitterzellen, so dass ihre individuelle Wirkung nicht erfasst werden kann. Das Gleiche gilt für regionale Effekte, die durch Dinge wie topografische Merkmale oder Inseln verursacht werden.

Die Erstellung von Modellen wird auch durch mangelndes Wissen über die Art und Weise erschwert, wie sich Kohlenstoff durch die Umwelt bewegt.

„Aber die Forscher tun das Beste, was sie können“, folgerte The Economist.

Tatsächlich überschätzen die Klimamodelle die Erwärmung deutlich, sogar um die Hälfte. Und die Lücke vergrößert sich, da ein kühles 2021 in vollem Gange ist. Und was die Zukunft betrifft, so wird die anthropogene Erwärmung durch den logarithmischen und nicht linearen Effekt des Treibhauseffekts begrenzt. Der Sättigungseffekt bedeutet, dass der Anstieg der Erwärmung immer geringer wird, je mehr CO2 in der Atmosphäre enthalten ist. Die Erwärmung aus einer Verdopplung des CO2 tritt also nicht bei einer Verdreifachung, sondern bei einer Vervierfachung wieder ein.

Das Mitigationsfenster schließt sich also rapide, was die schrille Sprache prominenter Politiker erklärt. Aber es sind die zugrunde liegenden Klimamodelle, nicht das Klima selbst, dem die Zeit davonläuft.

Unsettled“ gelangt in den Mainstream

Die krude Methodik und die falschen Schlussfolgerungen der Klimamodellierung treten aus dem Schatten. Der Physiker und Computerexperte Steven Koonin erklärt in seinem einflussreichen Werk Unsettled: What Climate Science Tells Us, What it Doesn’t, and Why It Matters (Kapitel 4):

Klimamodellierung ist zentral für die Klimawissenschaft….. Doch viele wichtige Phänomene treten auf Skalen auf, die kleiner sind als die 100 km (60 Meilen) Gittergröße (z.B. Berge, Wolken und Gewitter), und so müssen Forscher „Untergitter“-Annahmen machen, um ein vollständiges Modell zu bauen….

Da die Ergebnisse im Allgemeinen nicht viel mit dem von uns beobachteten Klimasystem übereinstimmen, passen die Modellierer diese Parameter an („frisieren“), um eine bessere Übereinstimmung mit einigen Merkmalen des realen Klimasystems zu erzielen.

Untertuning macht das Modell unrealistisch, aber Übertuning „riskiert, die Antwort vorher zu bestimmen“, fügt Koonin hinzu. Er zitiert dann aus einem Papier, das von 15 Weltklasse-Modellierern mitverfasst wurde:

… Tuning wird oft als ein unvermeidlicher, aber schmutziger Teil der Klimamodellierung gesehen, mehr Technik als Wissenschaft, ein Akt der Bastelei, der es nicht verdient, in der wissenschaftlichen Literatur festgehalten zu werden…. Tuning kann in der Tat als ein unsäglicher Weg gesehen werden, um Modellfehler zu kompensieren.

Conclusion

Die Klimamodellierung war also wohl schlimmer als nichts, weil falsche Informationen als wahr und als „Konsens“ präsentiert wurden. Alarmismus und störender politischer Aktivismus (erzwungene Substitution von minderwertigen Energien; Infragestellung von Lebensstil-Normen) haben sich verselbständigt. Achtung, fertig, los hat die Besonnenheit ersetzt, von der Wissenschaft bis zur öffentlichen Politik.

Die Daten widersprechen weiterhin naiven Klimamodellen. Eine sehr schwierige Theorie erklärt langsam aber sicher, warum. Die Klimadebatte ist zurück in der physikalischen Wissenschaft, aus der sie sich nie hätte entfernen dürfen.

Link: https://wattsupwiththat.com/2021/06/24/climate-models-worse-than-nothing/

Übersetzt von Christian Freuer für das EIKE

 




Sehr warmer Juni 2021 in Deutschland – doch CO2 ist nicht der Verursacher

Ein warmer, dank kräftiger Gewitterschauer stellenweise fruchtbarer Juni 2021 entschädigte für die Frühjahreskälte. Foto: Stefan Kämpfe

Stefan Kämpfe

Der Juni zeigt schon seit über drei Jahrzehnten eine starke Erwärmungstendenz Dank stärkerer Besonnung und häufigerer Südlagen – wird auch der Juli recht warm verlaufen?

Nach der harschen Kälte im April/Mai konnten sich Sommerfans über einen sehr warmen Juni freuen, den auch der Autor dieses Beitrages, freilich nur sehr vorsichtig, angekündigt hatte. Die enorme Hitze der Junimonate 2003 und vor allem 2019 wurde jedoch nicht erreicht, und eitel Sonnenschein über längere Zeit blieb wegen häufiger Gewitterschauer aus. Regional sprießte die Vegetation so üppig, wie seit Jahren nicht mehr. Leider beglückte der Regen nicht alle Regionen – die „Streusandbüchse“ Deutschlands (Land Brandenburg) bekam nur wenig ab, und dort war es auch am wärmsten und sonnigsten. Bei aller Skepsis gegenüber Langfristprognosen – im Juli könnte es noch eine ganze Weile so weitergehen.

Viele unbestimmbare (XX) und südliche Wetterlagen bringen oft Juni-Wärme und gefährden Deutschlands Stromversorgung

Seit dem Beginn der Erfassung der Objektiven Wetterlagen beim DWD (zweite Jahreshälfte 1979) gab es nur selten mehr Juni-Tage ohne eindeutig bestimmbare Anströmrichtung über Deutschland, als 2021 (der bisherige Rekord datiert aus dem Vorjahr mit 13 Tagen).

Abbildung 1: Die Häufigkeit der im Juni unbestimmten Lagen (keine eindeutige Anströmrichtung im 700-hPa-Niveau, entspricht etwa 3.000 Metern Höhe) nahm merklich zu. Bis zum 26. Juni 2021 hatte es schon 11 Tage mit XX-Lagen gegeben; der Beitrag wurde aus Aktualitätsgründen vor dem Monatsende vollendet.

Diese XX-Lagen gehen fast stets mit mehr oder weniger deutlichen Flauten auch in den bodennahen Luftschichten einher; Niederschlagsgebiete ziehen oft nur sehr langsam und fallen daher lokal besonders ergiebig aus; die stagnierende Luft kann sich außerdem unter den Bedingungen der sehr langen Frühsommertage stark erwärmen. Und das häufige Vorhandensein potentiell instabiler Luftmassen (mPs, xSp, xS) begünstigte die Entstehung von Gewitterschauern. Ähnlich wie schon im Vorjahr, hatte das auch an den übrigen Juni-Tagen meist schwachwindige Juni-Wetter sehr negative Auswirkungen auf die Windstromproduktion.

Abbildung 2: Stromproduktion Deutschlands von 1. bis zum 26. Juni 2021. Der Windstromanteil lag über weite Strecken bei lächerlichen 1 bis 15 %, und das bei gut 30.000 Windkraftanlagen! Strom kann nach wie vor NICHT in größeren Mengen gespeichert werden – man achte auf den nur tagsüber mitunter reichlich vorhandenen Solarstrom, welcher die Last (Stromverbrauch, schwarze Linie) tagsüber nicht selten überschritt und verschleudert werden musste. Bildquelle energy-charts.info, ergänzt.

Der Juni galt stets als ein Monat mit vielen Nordlagen; vielen Lesern ist sicher noch die berüchtigte „Schafskälte“ in Erinnerung. Doch mittlerweile nahm die Häufigkeit der Großwettertypen Süd und Südwest stark zu und holte die Häufigkeit der Großwettertypen Nord und Nordwest ein, was die enorme Juni-Erwärmung der letzten Jahrzehnte ebenfalls erklärt:

Abbildung 3: Starke Häufigkeitsabnahme der nördlichen und nordwestlichen (blau) zugunsten der südlichen und südwestlichen (rot) Großwettertypen 1881 bis 2020; Daten für 2021 liegen noch nicht vor. Dieses Häufigkeitsverhalten der Großwetterlagen trug wesentlich zur Juni-Erwärmung bei.

Das langfristige Verhalten der Juni-Temperaturen in Deutschland

Im Gegensatz zu den meisten anderen Monaten, erwärmte sich der Juni bis zur Mitte des 20. Jahrhunderts kaum. Ab da bis zum Beginn der 1990er Jahre zeigte er aber die fast allen Monaten eigene Abkühlungsphase trotz steigender CO2-Werte, um sich ab etwa 1990 so kräftig zu erwärmen, wie es nur noch der April und der November schafften. Seit Aufzeichnungsbeginn (1881) betrug die Erwärmung mäßige 1,2 Kelvin (°C). Dabei sind die DWD-Daten auch noch wärmeinselbelastet, und die DWD-Reihe startet in der letzten Phase der „Kleinen Eiszeit“ – um 1881 war es besonders kühl.

Abbildung 4: Verlauf der Junitemperaturen im Deutschland-Mittel seit 1881 mit drei Entwicklungsphasen. Einer langen, bis etwa 1947 dauernden Stagnationsphase folgte eine Abkühlungsphase bis 1991, in welcher sehr warme Juni-Monate fehlten. Beginnend mit 1992 und gipfelnd im Rekord-Juni 2019, kam es zu einer sehr starken Erwärmung. In den gesamten 141 Jahren der Reihe betrug der Temperaturanstieg nur mäßige 1,2 Kelvin (°C) – bei enorm steigenden CO2-Konzentrationen. Mit WI-Bereinigung hätte es eine geringere Juni-Erwärmung unter 1 Kelvin gegeben. Zur Beachtung: Die Grafik zeigt KEINE Klimasensitivität der CO2-Konzentration; sie verdeutlicht lediglich, dass die von etwa 290 auf 418 ppm steigende CO2-Konzentration über lange Zeiträume nicht zur Temperaturentwicklung passt.

Noch erstaunlicher ist die Entwicklung der Juni-Temperaturen in Zentralengland, für das eine über 360ig-jährige Messreihe vorliegt; sie erfasst damit auch den Höhepunkt der „Kleinen Eiszeit“, das so genannte Maunder-Minimum als vermutlich kälteste Epoche in den mindestens letzten 2.000 Jahren. Seitdem sollte es doch eine kräftige Erwärmung um viel mehr als ein Grad gegeben haben – aber die Realität sieht ganz anders aus:

Abbildung 5: Mit kaum 0,2 Kelvin praktisch kein Juni-Temperaturanstieg seit über 360 Jahren in Zentralengland. Die wärmsten Juni-Monate liegen weit zurück und sind gekennzeichnet; in der Neuzeit war dort nur der Juni 1976 sehr warm; 2021 wird mit knapp unter 16°C dort ein nur mäßig warmer Juni.

Eine Betrachtung seit 1930 belegt ebenfalls die fast völlig fehlende Juni-Erwärmung in Zentralengland, während es in Deutschland wärmer wurde – sollte etwa das CO2 nur in Deutschland gewirkt haben? Das ist wohl nicht plausibel.

Abbildung 6: Während sich der Juni seit 1930 in Deutschland angenehm erwärmte, blieb er in Zentralengland so kühl, wie immer.

Die Sonnenscheindauer als wesentliche Treiber der Juni-Temperaturen

Wie wir schon anhand der Abbildungen 4 bis 6 gesehen hatten, können die stark steigenden CO2-Konzentrationen nicht ursächlich für die Entwicklung der Juni-Temperaturen gewesen sein. Wie in allen anderen Sommerhalbjahres-Monaten, übt außer den Großwetterlagen die Sonnenscheindauer einen signifikanten Temperatureinfluss aus. In Deutschland ist das Flächenmittel dafür leider erst seit 1951 verfügbar:

Abbildung 7: Jun-Erwärmung in Deutschland seit auch dank höherer Besonnung (etwa 55% der Temperaturvariabilität werden von der Sonnenscheindauer bestimmt). Die Zunahme der Sonnenscheindauer hatte verschiedenste Ursachen, unter anderem die stark abnehmende Konzentration der Luftschadstoffe (SO2, Staub) und die Austrocknung Deutschlands durch Bebauung, Versiegelung und Meliorationen. Möglicherweise fördert auch die übertriebene Nutzung der Wind- und Solarenergie eine Bewölkungs- und Nebelabnahme, was mehr Besonnung nach sich zieht. Umrechnung beider Größen in Indexwerte, um sie anschaulicher mit den Lufttemperaturen in einer Grafik zu zeigen.

Der Juni 2021 zählte nicht zu den sonnenscheinreichsten, aber er war überdurchschnittlich besonnt. Man achte auch in der Grafik 7 auf den bis gegen Ende der 1980er Jahre anhaltenden Temperaturrückgang, welcher mit abnehmender Besonnung einherging.

Nachlassende Sonnenaktivität, die Noch-AMO-Warmphase und warme Juni-Monate in Deutschland

Die aktuell nachlassende Sonnenaktivität wird stets mit Abkühlung in Verbindung gebracht; doch das könnte unter bestimmten Umständen voreilig sein. Denn erstens wirkt diese mit einer Verzögerung von mehreren Jahrzehnten – aktuell ist sie noch nicht voll bei uns angekommen. Zweitens fördert eine geringe Sonnenaktivität so genannte Meridionallagen, bei denen der Luftmassentransport überwiegend entlang der Längengrade erfolgt (Nord- oder Südlagen; in Europa auch der Sonderfall der Ostwetterlagen). Süd- und Ostlagen fallen aber, anders als im Winter, im Juni fast stets mehr oder weniger zu warm aus. Und drittens gibt es das Phänomen der so genannten Koronalen Löcher, welche trotz geringer Sonnenaktivität längere, sehr warme Schönwetterperioden auslösten, wie wir das seit 2018 häufig erlebten. Näheres dazu hier. Dieses Phänomen könnte auch die einzelnen, dem Charakter der „Kleinen Eiszeit“ widersprechenden Hitzewellen erklären, so den Sommer 1666 .(historischer großer Stadtbrand in London), oder den in England enorm heißen Juni 1676. Und viertens wirkt (momentan) noch die AMO-Warmphase der solar bedingten Abkühlung entgegen:

Abbildung 8: Merkliche zeitliche Übereinstimmung der AMO und der Juni-Temperaturen in Deutschland. In AMO-Warmphasen, wie zur Mitte des 20. Jh. und aktuell, sind die Junitemperaturen tendenziell höher. Ähnliches gilt für den gesamten Sommer und den Herbst. Die AMO-Juniwerte für 2021 liegen noch nicht vor.

Sollte, was in naher Zukunft durchaus zu erwarten ist, eine AMO-Kaltphase mit der geringen Sonnenaktivität zusammenfallen, so wird es mit den schönen, warmen Junimonaten vorbei sein.

Vegetationsverlauf im Juni: Der Rückstand des kalten Frühlings wurde nicht ganz kompensiert

Der Autor beobachtet zur Festlegung des phänologischen Hochsommerbeginns den Start der Winterlindenblüte in Weimar; leider erst seit 1998.

Abbildung 9: Fast keine Verfrühung der Winterlindenblüte in Weimar seit 1998. Die Juni-Erwärmung konnte, zumindest phänologisch, die leichte Mai-Abkühlung nicht überkompensieren.

Warmer Juli 2021?

Die Siebenschläferregel stellt auf den Witterungstrend Ende Juni/Anfang Juli ab, weil sich die kurz nach dem Sonnenhöchststand einstellende Großwetterlage (Jet-Stream, langwellige Höhen-Rücken oder Höhentröge) meist für einige, keinesfalls aber genau 7 Wochen, stabilisiert. Sie ist für Süddeutschland verlässlicher, als für das Norddeutsche Tiefland und sollte vorrangig nur zur groben Abschätzung der Juli-Witterung dienen. In den Ensemble-Prognosen für den 7. Juli erkennt man einen langwelligen Höhenrücken über Europa, der sich bis nach Nordskandinavien ausdehnt:

Abbildung 10: Vorhersage der Höhenlage der 500-hPa-Fläche der Nordhalbkugel für den 7. Juli. Über Europa (violetter Pfeil) erkennt man eine erhöhte Lage, was (meist) mit Hochdruckwetterlagen und Warmluft in diesem Gebiet einhergeht. Bildquelle: NOAA

Die Witterung im „Entscheidungszeitraum“ (20. Juni bis 10. Juli) war und wird also zwar relativ warm, aber auch teils wechselhaft-gewittrig und mit Regenfällen verlaufen, so dass ein warmer, aber teils wechselhafter Juli recht wahrscheinlich erscheint. Für den August lassen sich noch keine Aussagen treffen; Näheres zur Problematik der Jahres-Prognose 2021 hier.

 




Wie man das Heute mit der Vergangenheit vergleichen sollte

Wie leicht man in diesem Zusammenhang doch Äpfel mit Birnen vergleichen kann… Bild: Tim Reckmann / pixelio.de

Andy May

In meinem vorigen Beitrag [in deutscher Übersetzung beim EIKE hier] habe ich die Probleme angesprochen, die sich bei einem Vergleich instrumenteller Messungen global oder hemisphärisch einerseits sowie Temperaturen der Vergangenheit andererseits ergeben. Die Erfassung der Meerestemperatur war vor 2005 spärlich und von schlechter Qualität. Vor 1950 waren die Messungen an Land (29 % der Oberfläche) ebenfalls spärlich und von schlechter Qualität. Vor der Erfindung von Thermometern sind nur Proxy-Temperaturen verfügbar, aber auch diese sind spärlich und vor 1600 schlecht kalibriert. Wie können wir also moderne Temperaturen mit der fernen Vergangenheit vergleichen? Wir können es nicht global oder hemisphärisch tun, die Daten der Vergangenheit sind zu schlecht oder zu spärlich oder beides. Warum wählt man nicht die besten Proxies aus und berechnet vergleichbare moderne Temperaturen, um sie mit den Proxies an den spezifischen Proxy-Standorten zu vergleichen? Es ist einfacher, die Auflösung zu verringern als sie zu erhöhen.

Die in Abbildung 1 dargestellte Temperaturrekonstruktion von Rosenthal et al. zeigt ~500-Meter-Temperaturen aus dem „Indonesian Throughflow“ (Rosenthal, Linsley, & Oppo, 2013). Ihre Daten stammen von Sedimentkernen, die in der Makassar-Straße östlich der Insel Borneo entnommen wurden. Diese Meerenge ist ein Teil der Hauptverbindung zwischen dem Indischen, Südlichen und Pazifischen Ozean. Die Temperatur dort spiegelt die Temperatur bedeutender Teile dieser drei großen Wassermassen in 500 Metern Tiefe wider.

Rosenthal et al. verwendeten ein Mg/Ca (Magnesium/Calcium-Verhältnis) aus benthischen Foraminiferen, um die 500-Meter-Temperaturen abzuschätzen, und sie nehmen eine Temperaturgenauigkeit von ±0,7°C in Anspruch. Die Datierung wurde mit Radiokohlenstoff (14C) durchgeführt und ist wahrscheinlich nicht besser als ±50 Jahre. Die Radiokohlenstoff-Datierung wurde anhand von markanten vulkanischen Ascheschichten und Blei-Isotopen-Datierungen (210Pb) überprüft.

Die von Rosenthal und seinen Kollegen untersuchten Fossilien und Muscheln stammen von einer bodenbewohnenden Foraminifere, die in etwa 500 Metern Tiefe in der Meerenge lebt. Der Meeresspiegel schwankte über den Zeitraum seiner Studie, aber er hat dies korrigiert. Fünfhundert Meter sind tief genug, um von kurzfristigen Wetterschwankungen an der chaotischen Oberfläche isoliert zu sein, aber flach genug, um längerfristige Klimaschwankungen an der Oberfläche zu reflektieren. Zusätzlich haben wir von der Universität Hamburg eine genaue moderne Temperatur für den Zeitraum von etwa 2006-2016 in 500 Metern Höhe von etwa 7,7°C, diese moderne Temperatur ist auf dem Plot mit einem roten Kasten gekennzeichnet. Rosenthals Rekonstruktion geht nur bis 7100 v. Chr. zurück und hat eine Auflösung von 20 Jahren bis 30 v. Chr., und 50 Jahren davor.

Abbildung 1. Rosenthal, et al.’s indonesische Durchgangstemperatur-Rekonstruktion bei 500 Metern. Klicken Sie auf das Bild oder hier für ein Bild in voller Größe. Datenquelle: (Rosenthal, Linsley, & Oppo, 2013).

Abbildung 1 stellt die Temperaturen der durchmischten Schicht des Ozeans und der oberen Tiefsee in drei großen Ozeanen dar. Diese Ozeane enthalten mehr Wärmekapazität als die gesamte Atmosphäre. Die Rekonstruktion in Abbildung 1 veranschaulicht den stetigen Rückgang der Oberflächentemperaturen seit dem holozänen Klimaoptimum, das vor etwa 6.000 Jahren endete. Die Periode der Abkühlung nach dem holozänen Klimaoptimum wird als Neoglazial bezeichnet. Abbildung 1 deutet darauf hin, dass die Durchschnittstemperatur von 2006-2016 im Vergleich zu den letzten 2.000 oder 1.000 Jahren und davor ziemlich normal, sogar kühl ist. Diese Temperatur gilt nur für die Makassarstraße, die jedoch mit drei großen Ozeanen verbunden ist.

Mehrere historische Ereignisse sind auf dem Diagramm vermerkt, um zu zeigen, wie die Zivilisation zumindest teilweise von den immer niedrigeren Temperaturen beeinflusst wurde. Historische Ereignisse sind wichtige Klimaindikatoren, da sie genau datiert sind und oft Klimaveränderungen über große Gebiete anzeigen. Die „Kleine Eiszeit“ oder LIA, war eine sehr kalte und elende Zeit für die Menschheit. Sie trug zur Pest des Schwarzen Todes, dem Ende der Wikingersiedlungen in Grönland und zur Verbrennung und Verfolgung von Hexen und Juden in Europa bei, da diese oft für das kalte Wetter verantwortlich gemacht wurden (Behringer, 2010, S. 98, 128). Das ist das „vorindustrielle“ Wetter, zu dem die Alarmisten uns zurückbringen wollen, und zwar ohne die Vorteile der fossilen Brennstoffe. Willkommen in der Hölle!

[Hervorhebung vom Übersetzer]

Die mittelalterliche Warmzeit (MWP), die römische Warmzeit (RWP) und das holozäne Klimaoptimum sind in der Makassarstraße alle wärmer als heute. Die neoglaziale Abkühlungsperiode, nach dem Klimatischen Optimum, ist an diesem Ort gut definiert.

[Hervorhebung vom Übersetzer]

Die Rekonstruktion von Bo Christiansen und Fredrick Ljungqvist für die letzten 2.000 Jahre (Christiansen & Ljungqvist, 2012) ist ebenfalls wichtig. Wie im vorherigen Beitrag besprochen, vermeiden sie in ihrer Rekonstruktion eine räumliche Regression, um so viel klimatische Variabilität wie möglich zu erhalten. Ihre Rekonstruktion ist in Abbildung 2 dargestellt. Sie gilt nur für die außertropische Nordhemisphäre. Die rote Box, eingezeichnet im Jahr 2000, ist die durchschnittliche außertropische HadCRUT5-Durchschnittstemperatur der Nordhemisphäre von 1970-2020. In diesem Fall soll sie mit der geglätteten 50-jährigen Rekonstruktion von Christiansen und Ljungqvist verglichen werden. Die HadCRUT5-Anomalie wurde vom HadCRUT5-Nullpunkt (1961-1990) zum von Christiansen und Ljungqvist verwendeten Nullpunkt 1880-1960 verschoben. „Extra-tropisch“ beinhaltet alle HadCRUT5 5°x5° Zellen von 27,5°N bis 87,5°N, wobei Nullzellen ignoriert werden. Die durchschnittliche HadCRUT5-Zelltemperatur ist flächengewichtet nach Breitengrad.

Abbildung 2. Rekonstruktion der außertropischen Temperatur der nördlichen Hemisphäre nach Christiansen und Ljungqvist. Klicken Sie auf das Bild oder hier für ein jpeg in voller Größe.

Genau wie in Abbildung 1 haben wir nicht versucht, den Proxy-Datensatz auf mehr auszudehnen, als er eigentlich abdecken sollte, sondern wir haben HadCRUT5 auf den Bereich reduziert, den der Proxy-Datensatz abdeckt. In diesem Fall passt der HadCRUT5 50-Jahres-Durchschnitt gut zur Proxy-Rekonstruktion und entspricht auch ungefähr der Temperatur der MWP. Die schwachen Linien in Abbildung 2 sind jährliche Proxy-Temperaturen, sie zeigen viel mehr Variabilität als die geglättete 50-Jahres-Kurve, sind aber nicht so aussagekräftig wie der 50-Jahres-Durchschnitt in Bezug auf den Klimawandel.

In Abbildung 2 zeigen wir einige der Erwärmungs- und Abkühlungsereignisse, die in den Veröffentlichungen von Soon et al. aus dem Jahr 2003 für die letzten zwei Jahrtausende dokumentiert sind (Soon & Baliunas, 2003) und (Soon, Baliunas, & Legates, 2003c). Soon und Kollegen heben den wichtigen Punkt hervor, dass das Klima eine lokale Sache ist und nicht gleichmäßig über den Globus variiert. Großräumige Klimaindikatoren, wie z. B. globale Gletschervorstöße und -rückzüge, deuten darauf hin, dass die Mittelalterliche Warmzeit (MWP) global gesehen wärmer war und eine Zeit des globalen Gletscherrückzugs. Die Kleine Eiszeit (Little Ice Age, LIA) war eine Zeit des Vorstoßes der Gletscher und kälteren Wetters. Ein Blick auf detaillierte Aufzeichnungen legt jedoch nahe, dass es während beider Perioden sowohl eine Erwärmung als auch eine Abkühlung gab, je nach Standort. Der größte Teil der Welt erwärmte sich während der MWP, aber um den Taylor Dome in der Antarktis kühlte es deutlich ab. Während der LIA kühlte sich die Welt im Allgemeinen ab, aber die Schweiz und die Antarktis erwärmten sich in den Jahrzehnten um 1540 n. Chr. bzw. 1800 n. Chr. deutlich. Die Spitzenwerte dieser globalen Klimaanomalien wurden zu unterschiedlichen Zeiten an unterschiedlichen Orten erreicht.

Vergleicht man diese Rekonstruktionen mit Vinthers Grönland-Rekonstruktion von 2009 (siehe den ersten Beitrag, Abbildung 2, wo sie mit den antarktischen Temperaturen verglichen wird), wie wir es in Abbildung 3 tun, wird deutlich, wie das Klima je nach Region und Hemisphäre variiert. Diese lokalen Variationen durchkreuzen das Narrativ der „globalen Erwärmung“.

Vinthers Rekonstruktion wurde aus dem Durchschnitt der Agassiz- und Renland-Eiskerne in Grönland erstellt, nachdem diese um Höhenänderungen korrigiert wurden. Der Agassiz-Kern stammt eigentlich nicht aus Grönland, sondern von einer Nachbarinsel. Vinthers Studie enthältt eine Karte der beiden Standorte. Die mittlere Grafik in Abbildung 3 ist die Vinther-Rekonstruktion in tatsächlichen Grad Celsius. Der rote Kasten ist der grönländische Temperaturdurchschnitt aus den 5×5-Grad-Zellen von HadCRUT5, die den Agassiz- und Renland-Standorten am nächsten liegen, für 2000-2020. Wie man sieht, ist es nicht sehr anomal relativ zur Vinther Aufzeichnung. Er ist niedriger als die Spitzen in der MWP, RWP und ein bis zwei Grad niedriger als das holozäne Klimaoptimum.

Abbildung 3. Die vollständige Zeitleiste für das Klima und die Geschichte der Zivilisation. Klicken Sie auf das Bild oder hier, um ein jpeg in voller Größe herunterzuladen.

Es gibt eine große Anzahl historischer Bezüge in der in Abbildung 5 gezeigten Zeitleiste, und wir werden sie hier nicht alle erklären, sie sind in früheren Beiträgen hier und hier gut dokumentiert. Wir wollen nur darauf hinweisen, dass signifikante lokale Klimaänderungen – die einzigen, die für die Menschen von Bedeutung sind – historische Ereignisse sind, die oft von den Historikern der jeweiligen Zeit detailliert beschrieben und genau datiert werden. Diese historischen Beschreibungen können wertvoller sein als biologische oder Eiskern-Proxies. Es gibt drei signifikante Klimaänderungen der nördlichen Hemisphäre oder des globalen Klimas, die eine besondere Erwähnung verdienen.

Die Römische Warmzeit RWP

Die Römische Warmzeit (RWP) war ein Zeitraum von etwa 100 v. Chr. bis 200 n. Chr., je nachdem, wo man sich befindet. Dies war die Zeit, in der sich robuste Zivilisationen in Amerika, rund um das Mittelmeer, China und Indien entwickelten. Ch’in vereinigte China um 200 v. Chr. und Alexander fiel nur 136 Jahre zuvor in Indien ein. Die Maya-Zivilisation stieg vor 250 n. Chr. im heutigen Mexiko, Guatemala und Belize zur Berühmtheit auf. Die römische Warmzeit markiert tatsächlich den Beginn der modernen Zivilisation, schriftliche Aufzeichnungen dokumentieren alle wichtigen Ereignisse über den größten Teil der Welt seit dieser Zeit. Diese Schriften und neuere Rekonstruktionen legen nahe, dass die Temperaturen zumindest auf der Nordhalbkugel höher lagen als heute.

Die Mittelalterliche Warmzeit MWP

Die Mittelalterliche Warmzeit (MWP) wird normalerweise mit 800 n. Chr. bis 1250 n. Chr. angegeben, aber sie begann und endete an verschiedenen Orten zu unterschiedlichen Zeiten. Zu Beginn dieser Periode stiegen die Temperaturen in Zentralgrönland innerhalb von etwa 200 Jahren um etwa 1,5 °C, aber der Anstieg erfolgte unregelmäßig. Sie ist als weltweites Ereignis gut dokumentiert, aber nicht synchron. Es ist ungewiss, wie hoch die globale Durchschnittstemperatur während dieses Zeitraums war und ob die Welt damals wärmer war als heute. Aber mit Sicherheit war es in vielen Gebieten, in denen wir Aufzeichnungen haben, wie Grönland, Großbritannien und China, mit heute vergleichbar und in vielen Fällen sogar wärmer. Während dieser Zeit waren die Wikinger eine dominierende Kraft in Europa und im Nahen Osten.

Die Kleine Eiszeit LIA

Die Kleine Eiszeit (LIA) war keine echte Eiszeit, sondern eine kühlere Periode, die auf die mittelalterliche Warmzeit folgte. Es wird allgemein angenommen, dass sie um 1350 n. Chr. begann und zwischen 1850 und 1900 n. Chr. endete. Die LIA war die kälteste Periode des Holozäns. Die Temperaturen der nördlichen Hemisphäre fielen im Durchschnitt um 1°C bis 1,5°C, aber wie die MWP verlief sie nicht synchron auf der ganzen Welt. Viele Gebiete auf der Südhalbkugel waren wärmer als normal, vor allem in der Antarktis. Es war nicht über den gesamten Zeitraum hinweg kalt, aber die Kleine Eiszeit sah viele Perioden, die sehr kalt waren, vom berühmten Jahr ohne Sommer (1816) bis zur großen Hungersnot von 1315. Der Hafen von New York fror 1780 komplett zu, die nordischen Kolonien in Grönland verhungerten und mussten aufgegeben werden. Eine aktuelle Studie stellt mehrere Dürren in Europa während der Kleinen Eiszeit fest. Diese traten in den Jahren 1540, 1590, 1626 und 1719 n. Chr. auf, sowie eine besonders intensive Dürre von 1437-1473 n. Chr.

Die Moderne Warmzeit

Die moderne Warmzeit beginnt zwischen 1850 und 1905 und war auch die Zeit des Beginns systematisch und objektiv kalibrierter instrumenteller Temperaturdaten aus der ganzen Welt aufzuzeichnen und zu sammeln. Diese Temperaturen waren anfangs nur sporadisch vorhanden, aber Mitte des 20. Jahrhunderts entwickelte sich eine gute, landgestützte weltweite Temperaturdatenbank. Im Jahr 1979 wurden Satelliten gestartet, die uns eine einigermaßen genaue und vollständige Aufzeichnung der Temperatur in der unteren Troposphäre über fast den gesamten Globus liefern konnten. Eine Diskussion über die Genauigkeit der Satelliten-Temperaturmessungen findet sich in einem interessanten Artikel von John Christy, Roy Spencer und William Braswell (Christy, Spencer, & Braswell, 2000) hier. Die Satellitendaten legen nahe, dass sich die untere Troposphäre mit einer unscheinbaren Rate von 0,14°C/Dekade erwärmt.

Conclusions

Moderne globale instrumentelle Temperaturen sind erst seit kurzer Zeit verfügbar. Selbst wenn die gesamte 170-jährige Aufzeichnung verwendet wird, ist sie zu kurz, um repräsentativ für die dokumentierten Temperaturextreme der letzten 2.000 Jahre zu sein. Der New Yorker Hafen ist in letzter Zeit nicht zugefroren, und viele Gebiete, die jetzt mit Gletschereis bedeckt sind, waren in der MWP eisfrei.

Wenn man noch weiter zurückgeht, bis zum Beginn des Holozäns, sind die Temperaturproxies sehr spärlich und die Konstruktion einer hemisphärischen oder globalen Temperaturrekonstruktion ist sinnlos. Die Proxies sind so weit zurück nicht genau, und es gibt keine Möglichkeit festzustellen, ob man die verwendeten Proxy-Temperatur-Funktionen mit einer Kalibrierungsperiode von nur 170 Jahren so weit zurück in der Zeit anwenden kann.

Wie wir in diesem Bericht zeigen und wie von Soon, et al. empfohlen (Soon, Baliunas, Idso, Idso, & Legates, 2003b), ist es viel besser, die Proxies einzeln zu behandeln. Sie statistisch zu kombinieren ist irreführend. Wenn der genaue Ort des Proxy-Datensatzes bekannt ist, sind die modernen Temperaturdaten genau und dicht genug, um einen vernünftigen modernen instrumentellen Temperaturdatensatz für den Ort mit einer passenden zeitlichen Auflösung zu extrahieren. In den in diesem Beitrag gezeigten Beispielen scheinen die modernen Temperaturen für die letzten 2.000 Jahre und die letzten 15.000 Jahre gut innerhalb des Bereichs der natürlichen Variabilität zu liegen.

Es ist bekannt, dass die Sonneneinstrahlung je nach Breitengrad variiert, und die in diesem Beitrag besprochenen Aufzeichnungen unterstützen dies. Kohlendioxid ist ein gut durchmischtes Gas, und man würde erwarten, dass es die Veränderung der globalen Durchschnittstemperatur über einen ausreichenden Zeitraum ungefähr gleichmäßig beeinflusst. Wir sehen keine Beweise dafür, dass dies jetzt der Fall ist, aber die Aufzeichnungen sind kurz.

Professor Steven Mithen drückt es so aus (Mithen, 2003, S. 507):

Das nächste Jahrhundert der vom Menschen verursachten globalen Erwärmung wird als weit weniger extrem vorhergesagt als das, welches um [9600 v. Chr.] stattfand. Am Ende des Jüngeren Dryas war die globale Durchschnittstemperatur innerhalb von fünfzig Jahren um 7°C gestiegen, während der vorhergesagte Anstieg für die nächsten hundert Jahre weniger als 3°C beträgt. Das Ende der letzten Eiszeit führte zu einem Anstieg des Meeresspiegels um 120 Meter, während der für die nächsten fünfzig Jahre vorhergesagte Anstieg bei höchstens 32 Zentimetern liegt…

Perspektive ist wichtig, wir müssen erkennen, dass die Klima- und Temperaturveränderungen, die wir im letzten Jahrhundert beobachtet haben, im Vergleich zu den natürlichen Veränderungen der Vergangenheit sehr gering sind. Um diese Perspektive zu gewinnen, müssen wir valide Vergleiche von historischen Klimaveränderungen zu heute anstellen. Das bedeutet lokale Vergleiche, nicht globale. Das bedeutet, die schlechte zeitliche Auflösung von Proxies und ihre fragwürdige Genauigkeit zu erkennen, die mit der Zeit abnimmt. Es ist auch wichtig zu erkennen, dass das Netzwerk von landgestützten Wetterstationen auf der nördlichen Hemisphäre schon seit einiger Zeit gut ist, während ein gutes Netzwerk auf der südlichen Hemisphäre sehr neu ist. Schließlich sind gute Temperaturaufzeichnungen der Ozeane eine sehr junge Ergänzung. Da die Ozeane 70 % der Erdoberfläche bedecken, sind sie ein zuverlässiger globaler Temperaturaufzeichnung, eine Aufzeichnung, die bis heute nicht ausreichend genutzt wurde. Um die modernen Temperaturen in eine historische Perspektive zu setzen, sollten wir lokal, nicht global vorgehen.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2021/06/23/how-to-compare-today-to-the-past/

Übersetzt von Christian Freuer für das EIKE




CIGS (Japan) legt neuen Report über Daten-Inkonsistenzen vor

Manipulation: Wie kommt ein Buchen-Zweiglein an den Stamm einer Kiefer? Bild: Günter Havlena / pixelio.de

Pierre Gosselin

[CIGS = Canon Institute for Global Studies]

Statistische Datenveränderungen, große Datenlücken und Experten mit abweichenden Standpunkten gehören zu den großen Problemen der Klimawissenschaft, wie ein neues japanisches CIGS-Arbeitspapier zeigt.

Im November 2019 veröffentlichte das Canon Institute for Global Studies (CIGS) eine Studie, das darauf hinweist, dass beim Klimawandel auch natürliche Faktoren eine große Rolle spielen.

Nun hat das CIGS eine weitere hinzugefügt.

Neue Studie

Eine neue Studie wurde veröffentlicht, auf Japanisch – verfasst von KiryeNet – und es berichtet, dass der Klimawandel weit über ein einzelnes Spurengas hinausgeht und dass es eine Reihe von Ungereimtheiten und Schlamperei in der Klimawissenschaft hinsichtlich der Daten und der Berechnung von Trends gibt.

Das neueste 28-seitige Dokument (unten) zitiert eine Reihe von Quellen, darunter NoTricksZone und viele andere führende kritische Seiten und abweichende Wissenschaftler.

Die Studie des CIGS beleuchtet einige der gewaltigen Daten-Inkonsistenzen in der Klimawissenschaft.

Die Studie des CIGS beleuchtet einige der gewaltigen Daten-Inkonsistenzen in der Klimawissenschaft.

Daten-Manipulationen seitens NASA GISS

Das aktuelle CIGS-Papier zeigt zum Beispiel, wie NASA GISS die historischen Datensätze manipuliert hat, so dass Trends, die einst flach oder sogar abnehmend waren, nun stattdessen eine Erwärmung zeigen:

Bild: Canon Institute for Global Studies (CIGS), hier heraus gegriffen.

Ein weiteres Beispiel für die Fälschung von Daten durch die NASA, um Erwärmungstrends zu erzeugen, das im CIGS-Papier zitiert wird, wurde von NoTricksZone veröffentlicht:

Bild: hier heraus gegriffen.

Abkühlung – nicht Erwärmung

Die neue CIGS-Publikation zeigt auch, dass die mittlere Wintertemperatur in Japan in den letzten 30 Jahren tatsächlich gesunken hat und nicht gestiegen ist, wie viele fälschlicherweise glauben machen wollten:

Bild: hier heraus gegriffen

NASA-Forscher: Daten vor 1980 nicht zuverlässig

In dem Arbeitspapier kommt auch der japanische Klimatologe und ehemalige NASA-Forscher Mototaka Nakamura zu Wort, der darauf hinweist, dass Veränderungen der Durchschnittstemperatur auf der Erdoberfläche vor 1980 unzuverlässig sind – wie hier im Artikel von NoTricksZone diskutiert.

In einem Großteil der Erdoberfläche wurde in der Tat in der Vergangenheit nie gemessen, Stationen befanden sich hauptsächlich nur in den USA und Europa, wie die NASA zeigt:

Außerdem berechnet die NASA manchmal Jahresmittelwerte für Jahre, auch wenn bis zu fünf Monate an Daten fehlen, z. B.: Marquette, Michigan.

Bild: Hier heraus gegriffen

The Canon Institute for Global Studies aims to play an active role in shaping the future by precisely plotting out future directions and visions, disseminating information, providing roadmaps, and serving as a venue for outstanding human resources with the sophistication and sensibility to substantively improve the world.

Link: https://notrickszone.com/2021/06/15/japans-canon-institute-for-global-studies-cigs-presents-new-working-paper-on-climate-science-data-inconsistencies/

Übersetzt von Christian Freuer für das EIKE

 




Stronger and more frequent thunderstorms: due to global climate variability

Image: Thunderstorms in the Soiuthern Great Plains [= the southern Great Plains]. more. Photo: Chris Maupin / Texas A&M University

Research News from TEXAS A&M UNIVERSITY

Using isotopes from Texas cave stalactites, scientists at Texas A&M’s College of Geosciences studied the changes in thunderstorms in the southern Great Plains.

Large thunderstorms in the southern Great Plains of the USA are among the strongest on earth. In recent years, these storms have increased in frequency and intensity, and new research shows that these shifts are related to climate varia fluctuations.

The results obtained by Christopher Maupin, Courtney Schumacher and Brendan Roark, as well as all scientists at the College of Geosciences at Texas A&M University, were recently published in Nature Geoscience.

In the study, the researchers analyzed oxygen isotopes from 30,000-50,000-year-old stalactites from Texas caves in order to understand trends regarding thunderstorms in the past and their duration. They discovered that the shift of thunderstorm regimes from weak to strongly organized on millennial time scales coincides with known global abrupt climate shifts during the last ice age, which took place from 120,000 to 11,500 years ago.

Through a recent synoptic analysis, the researchers realized that thunderstorms in the southern Great Plains are strongly related to changes in wind and humidity patterns that occur on a much larger scale. Understanding these changes and various correlations will not only help to reconstruct past thunderstorm events, but also to predict future thunderstorm patterns in the mid-latitudes.

„Proxy data is available in caves in the southern Great Plains,“ Maupin said. „There are probably thousands of caves in the southern Great Plains and in South Texas. Why has more research not been done in these areas? Cave deposits are just as promising as proxies.“

Schumacher said that scientists understand today’s precipitation patterns and that large storms can reduce the number of isotopes formed.

„However, we don’t know what will happen in the future, and this work will help predict trends of storms in the future,“ she said. „If we create a climate model for the past that matches the cave records and run the same model in the future, we can trust the results more if they match the cave records than if they don’t. If one of two models really matches the cave isotopes, then this model can be trusted when it comes to understanding the storm distribution in the future.“

Climate records hidden in caves are far too little known.

Maupin, a paleoclimatologist, described the limitations of capturing the true distribution of weather events over time.

„There are really important questions about what has happened in the past in terms of major weather events that we get through mesoscale convective systems (large storms) versus non-mesoscale (smaller storms) thunderstorms,“ Maupin said. „There are really extraordinary amounts of rain, and the grid of the model is too coarse-meshed to properly capture these events. Paleoclimatology helps to understand past events in order to develop ideas about how they react to the middle climate.“

Maupin worked with National Taiwan University to perform uranium-thorium dating and discovered that the stalactites and stalagmites actually date back to the Ice Age.

Interdisciplinary cooperation

Schumacher’s expertise was needed to establish correlations with various precipitation events that occurred over time. She had experience working with radar data and rain measurements on a global scale.

„Major storms covering hundreds of miles provide about 50-80% of the rain in Texas,“ Schumacher said. „In this day and age, these storms have different isotope signatures.“

Maupin’s research draws on outdated principles in the paleo-world because it is necessary to investigate why storms* are getting stronger and what affects them, he said.

[By „storms“ here always mean thunderstorms. The term „storm“ has a much broader meaning in American than the direct German translation with „Sturm“. for example. If a large continuous rain event is called a „rainstorm“ even if no wind has occurred at all. A. d. Übers.]

„These thunderstorms are so large that even if most of the rain falls in Oklahoma, the rain in Texas still carries the isotopic signature of these huge storms,“ Maupin explained. „You take a fingerprint from these systems no matter where they occur, and they don’t have to be super localized to be detected. Large storms cause impoverished isotope signatures. The variability in stalactites cannot be explained by temperature changes alone.“

From EurekAlert!

Link: https://wattsupwiththat.com/2021/06/22/more-intense-and-frequent-thunderstorms-linked-to-global-climate-variability/

Translated by Christian Freuer for EIKE