Karlsruhe contra Freiheit der Wissenschaft

Wenn sie denn könnte würde Justitia in Tränen ausbrechen ob der Art und Weise, wie in D „Recht“ gesprochen wird! Bild: Thomas Max Müller / pixelio.de

Fred F. Mueller

Wenn die „Klimaschützer“ erstmal an der Macht sind, ist es mit ihrem Motto „follow the science“ schnell vorbei. Der Beschluss des Bundesverfassungsgerichts zum sogenannten Klimaschutzgesetz vom 24.März 2021 wird sicherlich in die Geschichtsschreibung eingehen. Obwohl das Wort „Klima“ in der aktuellen Fassung des Grundgesetzes nirgendwo vorkommt, werden „Klimaschutz“ und darüber hinaus sogar die „Herstellung der Klimaneutralität“ quasi zu Verfassungszielen erhoben. Nach Ansicht des höchsten deutschen Gerichts rechtfertigt die Einhaltung des „2-Grad-Ziels“ und möglichst sogar des „1,5 -Grad-Ziels“ des Pariser Klimaabkommens sogar erhebliche staatliche Eingriffe in die im Grundgesetz verankerten Freiheitsrechte.

Als erstes Freiheitsrecht haben Gerichtspräsident Stephan Harbarth und seine sieben Richterkollegen in der ersten Kammer schon mit der Urteilsbegründung die Freiheit von Forschung und Lehre ins Visier genommen: Das Bundesverfassungsgericht sieht sich befugt, über naturwissenschaftliche Fragen durch Richterspruch statt wie sonst üblich durch naturwissenschaftlichen Nachweis zu entscheiden. Man könnte dies geradezu als eine Art Rückfall ins Mittelalter ansehen. Auch den religiösen und politischen Machthabern jener Epoche waren Menschen, die auf ihren eigenen Verstand vertrauten, ein Dorn im Auge. Diese unabhängigen Geister wagten es doch glatt, all das anzuzweifeln, was dem Volk von Fürsten und Priestern vorgesetzt wurde. In den jahrhundertelangen Auseinandersetzungen zwischen Naturwissenschaften einerseits und den religiösen sowie weltlichen Eliten andererseits markierte das Urteil der Inquisition gegen Galileo Galilei – einen der wesentlichen Begründer der modernen Naturwissenschaften – in gewisser Weise einen Wendepunkt. Bei diesem Prozess ging es im Grunde darum, ob es einem Untertanen erlaubt sei, die Vorgänge in der Natur durch Experiment und Logik zu klären oder ob die Machthaber – damals die Kirche mithilfe von Inquisitionsgerichten, die auch weltliche Macht bis hin zu Scheiterhaufen und Kerkerhaft ausübten – auch hier das letzte Wort hatten. Nach dem Skandalurteil gegen Galilei verlor die Kirche mehr und mehr an Ansehen. Die Naturwissenschaften konnten sich dagegen in langem, zähen Ringen nach und nach durchsetzen, auch wenn es bei der katholischen Kirche bis 1992 dauerte, bevor Galileo Galilei offiziell rehabilitiert wurde. Weltliche Gerichte hatten sich dagegen schon sehr viel länger davor gehütet, naturwissenschaftliche Fragen juristisch „klären“ zu wollen. In Fächern wie Physik, Chemie oder Mathematik gelten weder Mehrheitsmeinungen noch Gerichtsurteile, sondern ausschließlich Logik, Experiment und Beweisführung.

Bild 1. Das Henry-Gesetz in Aktion: Unter Druck in Sprudelwasser gelöstes CO2 gast beim Einschenken unter Blasenbildung aus (Foto: Autor)

Umso mehr überrascht es, wenn sich in der heutigen Zeit ein weltliches Gericht daranmacht, die Auffassungen von lediglich zwei akademischen Gremien zu quasi verbindlichen Verfassungsgeboten zu erheben. Hierbei handelt es sich zum einen um das IPCC (UN Intergovernmental Panel on Climate Change), das seit Jahren als Weltautorität in Klimafragen dargestellt wird. Zweiter Ideengeber des Karlsruher Urteils ist sodann der Sachverständigenrat für Umweltfragen (SRU). Dieses Gremium wurde von der Regierung mit handverlesenen Spezialisten besetzt, die allesamt Professortitel führen. Sie verfügen über Kompetenzen auf zahlreichen Gebieten wie Medizin, Biologie, Abfall und Recycling, Umweltrecht und Umweltforschung sowie Politikwissenschaft. Allerdings weist nur ein einziges Mitglied – ein Physiker und Geograf – die zur Beurteilung von Fragen der Klimawissenschaften erforderliche Ausbildung auf. Stellvertretende Vorsitzende des SRU ist Fr. Prof. Kemfert. Diese telegene und wortgewandte blonde Wirtschaftswissenschaftlerin wird in Presse und Medien gern interviewt beziehungsweise zu Talkshows eingeladen. Zwar wird sie dort als kompetent in Energiefragen dargestellt, doch ist sie de facto eine vehemente Lobbyistin der Solar- und Windenergiebranche. Auch fällt sie gelegentlich durch den Gebrauch von Begriffen aus dem Vokabular einer obskuren neomarxistischen Sekte auf.

Henrys Gesetz höchstrichterlich für unzutreffend erklärt

Naturwissenschaftliches Opfer des Karlsruher Urteils ist das Henry-Gesetz, das kaum jemand kennen dürfte, wenn er auf der Straße danach gefragt würde. Dabei sind seine Auswirkungen allgemein bekannt, denn es wirkt sicht- und hörbar jedesmal, wenn man eine Flasche Sprudelwasser oder eine Dose mit Erfrischungsgetränken öffnet: Unter intensivem Zischen bilden sich im Getränk über einen längeren Zeitraum Gasblasen. Bei diesem Gas handelt es sich um CO2, welches der Abfüller vorher dem Getränk unter hohem Druck zugefügt hatte, wobei es in der Flüssigkeit in Lösung ging. Beim Öffnen sinkt dieser Druck, und das CO2 drängt aus der Flüssigkeit wieder in Form von Gasblasen heraus.

Bild 2. Diese Aussage des Bundesverfassungsgerichts steht nicht im Einklang mit dem Henry-Gesetz

 

Das gleiche Gesetz erklärt auch, warum Fische im Hochsommer ersticken, weil im warmen Wasser zuwenig Sauerstoff enthalten ist, oder warum Taucher schwere Gesundheitsschäden durch Stickstoffblasen im Blut erleiden, wenn sie zu schnell auftauchen.

Bild 3. Henry erkannte, dass an der Grenzfläche zur Luft ein ständiger Gasaustausch stattfindet, so dass sich ein Gleichgewicht zwischen dem „inneren Druck“ des Gases in der Flüssigkeit und seinem Teildruck in der Atmosphäre einstellt (Grafik: Autor)

Das Henry-Gesetz ist nicht schwer zu verstehen: Die Grenzfläche zwischen Wasser und Luft ist für Gasmoleküle gut durchlässig, so dass ständig Moleküle aus der Atmosphäre ins Wasser wandern bzw. umgekehrt aus dem Wasser in die Atmosphäre. Dabei bildet sich nach einiger Zeit ein Gleichgewicht, sobald die Zahl der pro Zeiteinheit in die jeweilige Richtung wandernden Moleküle gleich ist. Man kann sich das Ganze so vorstellen, dass das Gas in der Flüssigkeit unter einem „inneren Druck“ steht, der den Ausgleich mit seinem Druckanteil (Partialdruck) in der Atmosphäre herbeiführt. Würde man den Stickstoffanteil der Atmosphäre plötzlich erhöhen, so würde sich solange zusätzlicher Stickstoff im Wasser lösen, bis das Gleichgewicht wieder hergestellt ist. Dieses Gesetz gilt auch für alle anderen Gase in der Atmosphäre. Berechnen kann man das Ganze recht einfach mithilfe der sogenannten Henry-Konstanten. Darüber hinaus hat auch die Temperatur einen großen Einfluss.

Erkannt und naturwissenschaftlich untersucht wurden diese Zusammenhänge bereits 1802/03 von dem englischen Arzt und Chemiker William Henry (1774 bis 1836). Das nach ihm benannte Henry-Gesetz beschreibt den Einfluss von Drücken und Temperaturen auf die Menge von in Wasser gelösten Gasen. Er hätte es sich wahrscheinlich nie träumen lassen, dass seine Erkenntnisse mehr als 200 Jahre später im fernen Deutschland höchstrichterlich angezweifelt werden könnten. Doch genau das ist in Karlsruhe geschehen.

Bild 4. Auch diese Aussage widerspricht den Erkenntnissen von William Henry

Kernaussagen des Karlsruher Urteils

Entscheidende Aussagen im Karlsruher Urteil sind:

  • Nur kleine Teile der anthropogenen Emissionen werden von den Meeren und der terrestrischen Biosphäre aufgenommen…
  • Der große Rest anthropogener CO2-Emissionen verbleibt aber langfristig in der Atmosphäre, summiert sich, trägt dort zur Erhöhung der CO2-Konzentration bei und entfaltet so Wirkung auf die Temperatur der Erde.
  • Im Gegensatz zu anderen Treibhausgasen verlässt CO2 die Erdatmosphäre in einem für die Menschheit relevanten Zeitraum nicht mehr auf natürliche Weise. Jede weitere in die Erdatmosphäre gelangende und dieser nicht künstlich wieder entnommene (unten Rn. 33) CO2-Menge erhöht also bleibend die CO2-Konzentration und führt entsprechend zu einem weiteren Temperaturanstieg.

Je mehr Wasser, desto mehr Gas kann es aufnehmen

Das Verhältnis der Gesamtmengen des Gases in der Atmosphäre und im Ozean hängt dabei von den Gesamtmengen des Gases im Wasser und in der Atmosphäre ab. Das ist einfach zu verstehen: Erhöht man die Wassermenge, so erhöht sich auch die Menge an Gas, die es bei gleichen Druck- und Temperaturverhältnissen aufnehmen muss, um das Druckgleichgewicht wieder herzustellen. Da unsere Ozeane im Verhältnis zur Atmosphäre riesig sind, enthalten sie um ein Vielfaches mehr an Gasen als die Atmosphäre selbst.

Bild 5. Je mehr Wasser, desto größer die Gasmenge, die in die Ozeane strömen muss, bis das Gleichgewicht wiederhergestellt ist (Grafik: Autor)

Bild 6. Mit seiner Aussage befindet sich das Karlsruher Gericht im Widerspruch nicht nur zum Henry-Gesetz, sondern auch zu Erkenntnissen der NOAA (National Oceanographic and Atmospheric Organisation) der USA

Da bekannt ist, welche Mengen an CO2 in der Atmosphäre bzw. im Meer enthalten sind, kann man bei Annahme konstanter Temperatur- und Luftdruckverhältnisse recht einfach berechnen, welche Anteile einer vom Menschen zusätzlich in die Atmosphäre freigesetzten Menge CO2 in der Atmosphäre verbleiben und wieviel davon im Ozean in Lösung gehen werden. Im Jahr 2008 enthielt die Erdatmosphäre angenähert 3.000 Gigatonnen CO2 (1 Gigatonne = 1 Milliarde Tonnen). Die Menge des in den Meeren gelösten CO2 liegt mit rund 140.000 Gigatonnen um etwa den Faktor 50 darüber. Daraus ergibt sich ein Verhältnis von 98 zu 2. Nach Henry werden somit von jeder zusätzlich in die Atmosphäre eingebrachten Tonne CO2 rund 98 % bzw. 980 kg in den Ozeanen dauerhaft in Lösung gehen. Behauptungen über Klimakatastrophen aufgrund einer „Vermüllung der Atmosphäre durch CO2“ mit der Folge einer „Selbstverbrennung“ sowie darauf fußende Berechnungen von „CO2-Restbudgets“ widersprechen elementaren naturwissenschaftlichen Erkenntnissen. Dies gilt auch für die Urteilsbegründungen deutscher oder niederländischer Gerichte. Die dadurch ermutigten Klima-NGO’s haben schon angekündigt, die „böse“ Industrie in ganz Europa mit einer Klagewelle zu überziehen. Die Klimakids von „Fridays for Future“ werden in voraussichtlich wenigen Jahren in einem Alptraum aufwachen und sich fragen, wie sie da nur hineinrutschen konnten. Wie sagte man dazu früher in China: „Mögest du interessante Zeiten erleben“.

Bild 7. Der Austausch von CO2 zwischen Ozean und Atmosphäre wird von Wissenschaftlern wie z.B. Prof. Andrew Watson ganz anders bewertet als vom Bundesverfassungsgericht, das seiner Interpretation allerdings quasi Verfassungsrang verliehen hat

Quellen

https://www.bundesverfassungsgericht.de/SharedDocs/Entscheidungen/DE/2021/03/rs20210324_1bvr265618.html

www.gesetze-im-internet.de/gg/BJNR000010949.html

https://ec.europa.eu/clima/policies/international/negotiations/paris_de https://www.un.org/en/global-issues/climate-change

https://www.ipcc.ch/

https://www.umweltrat.de/DE/SRU/Ratsmitglieder/ratsmitglieder_node.html

https://de.wikipedia.org/wiki/Galileo_Galilei

https://de.wikipedia.org/wiki/Henry-Gesetz

https://www.pmel.noaa.gov/co2/story/Ocean+Carbon+Uptake#:~:text=It%20takes%20about%20one%20year%20to%20equilibrate%20CO,the%20oceans%20due%20to%20biology%20and%20ocean%20circulation

https://de.wikipedia.org/wiki/Kohlenstoffdioxid_in_der_Erdatmosph%C3%A4re

https://worldoceanreview.com/en/wor-1/ocean-chemistry/co2-reservoir/

https://phys.org/news/2020-09-ocean-carbon-uptake-widely-underestimated.html

https://uitspraken.rechtspraak.nl/inziendocument?id=ECLI:NL:RBDHA:2021:5339




Kältereport Nr. 15

Kühle Sommer im Vormarsch! Foto: © Chris Frey

Einführung des Übersetzers: Hier werden wieder einige Meldungen über Kalt-Ereignisse präsentiert, aber auch von einer Hitzewelle ist weiter unten die Rede. Dazu unten mehr.

Ende Einführung

Rekord-Junikälte: Frost in Teilen von UK

22. Juni: Westeuropa hat in letzter Zeit noch mehr unter ungewöhnlichen Kältegraden gelitten, die das bisher historisch kühle Jahr noch vervollständigen. Bei mir in Portugal zum Beispiel lagen die Tageshöchsttemperaturen in der letzten Woche etwa 10 bis 12 Grad unter der saisonalen Norm.

In England wurde in Ravenseat, North Yorkshire ein Tiefstwert von –1,4°C gemessen.

In den schottischen Highlands wurden Messwerte von bis zu -3,3°C registriert, was den kältesten 22. Juni in der Geschichte Großbritanniens bedeutete und die bisherige Rekordmarke von –0,7°C in Braemar, Aberdeenshire im Jahr 1999 brach.

Außerdem war der Messwert von heute Morgen der zweitniedrigste, der jemals in Großbritannien so spät in der Saison gemessen wurde.

Seit dem 24. Juni 1957 mit -3,3 °C (26 °F) war es in Großbritannien nicht mehr so spät so kalt.

Link: https://electroverse.net/rare-summer-frosts-sweep-the-uk-as-record-june-cold-sets-in/

———————————-

Antarktische Luft sucht West-Australien heim

22. Juni: Während der Osten Australiens in letzter Zeit für Kalt-Schlagzeilen sorgte, wird nun auch der Westen von antarktischer Luft heimgesucht. Perth, die Hauptstadt von Westaustralien, bekam am Dienstagmorgen, 22. Juni, einen brutalen Schuss antarktischer Kälte ab.

Perth erlebte gerade die kälteste Nacht seit zwei Jahren, verursacht durch Winde aus der Antarktis, berichtet abc.net.au.

Das Bureau of Meteorology (BOM) registrierte einen nächtlichen Tiefstwert von 1.9°C – die niedrigste Temperatur in der Stadt seit Mai 2019. Während ein Tiefstwert von 0.5C Am Flughafen Perth wurde ein Tiefstwert von 0,5°C aufgezeichnet – der niedrigste Wert seit 2015.

Link: https://electroverse.net/antarctic-air-engulfs-western-australia/

———————————-

Rekord-Kälte zum Sommeranfang in Saskatchewan, Kanada

23. Juni: Es war ein historisch kalter Start in den Sommer für Zentral- und Ostkanada, mit den Städten Lucky Lake, Rosetown und Leader in Saskatchewan unter den Orten, die diese Woche Rekord-Tiefsttemperaturen verzeichneten.

In Lucky Lake sank das Quecksilber am Montag, dem 21. Juni, auf 1 Grad Celsius, was den bisherigen Rekord von 3,5 Grad Celsius aus dem Jahr 2020 unterbot.

Im Leader-Gebiet wurde am Montag ein Tiefstwert von 2°C beobachtet, was kalt genug war, um den alten Richtwert von 3.3°C aus dem Jahr 1951 zu brechen.


Darüber hinaus haben historische Sommerfröste auch die Provinzen Manitoba, Ontario und das südliche Quebec heimgesucht.

[Link siehe nach der nächsten Meldung]

———————————-

Sommer in West-Virginia bringt stellenweisen Frost mit

24.Juni: Auf dem Kalender steht zwar Sommer, aber das Thermometer und die niedrige Luftfeuchtigkeit deuteten auf Winter im Canaan Valley hin, mit einem Wert von -0,6 °C am Mittwoch – einer der tiefsten Werte in den USA für diesen Tag.

Es war ein kühler, knackiger Morgen am dritten vollen Sommertag in Washington und am gesamten Mittelatlantik.

Und 125 Meilen westlich der Hauptstadt der Nation fühlte es sich tatsächlich wie Winter an.
Eine Wetterstation auf dem Boden des Canaan Valley in West Virginia registrierte mit einem morgendlichen Tiefstwert von –0,6°C eine der niedrigsten Juni-Messungen überhaupt.

Außerdem wurde am Washingtoner Reagan National Airport ein Tiefstwert von 13,9°C aufgezeichnet, während am Dulles International Airport 9,4°C) registriert wurden – das sind die niedrigsten Temperaturwerte an diesen Standorten für dieses Datum seit fast 3 Jahrzehnten (seit 1992).

Sieht das nach einer „katastrophalen globalen Erwärmung“ aus?

Link: https://electroverse.net/freezing-summer-lows-invade-west-virginia-as-polar-change-looms-for-nz/

———————————-

Rekord-Schnee- und Eis-ZUWACHS in Grönland

25. Juni: Nach den historischen SMB-Zuwächsen von Ende Mai hat Grönland nun ein enormes WACHSTUM verzeichnet, und das zu einer Zeit, in der es normalerweise Schnee und Eis verlieren würde.

Ein Blick auf die offiziellen Zahlen des Dänischen Meteorologischen Instituts (DMI) zeigt, dass gestern, am 24. Juni, ein Tageszuwachs von 4 Gigatonnen verzeichnet wurde – erstaunlich für die Jahreszeit: Nie zuvor in der aufgezeichneten Geschichte hat Grönland so spät in der Saison so viel Schnee und Eis ZUGEWONNEN.

[DMI]

Eine so große Ansammlung wurde zu dieser Jahreszeit noch nie dokumentiert – zumindest nicht seit Beginn der DMI-Aufzeichnungen im Jahr 1981. Ein Wachstum dieser Größenordnung würde im November bis Februar als normal gelten, aber nicht Ende Juni.

Laut den Klimaalarmisten sollte das Grönlandeis mittlerweile geschmolzen sein und in Vergessenheit geraten.

Und doch sind wir hier und verzeichnen rekordverdächtige Zuwächse:

[DMI]

Link: https://electroverse.net/yesterday-greenland-gained-a-record-breaking-amount-of-snow-and-ice/

———————————-

Und hier mal ein Musterbeispiel für Alarmismus bei www.wetteronline.de:

Spitzenwerte bis nahe 50 Grad: Rekordhitze im Nordwesten der USA

Auf noch nie dagewesene Temperaturen bis nahe 50 Grad müssen sich der Nordwesten der USA und die kanadische Provinz British Columbia einstellen. Zum Start in die neue Woche steigen die Temperaturen in den US-Bundesstaaten Washington und Oregon verbreitet über 40 Grad, vielfach wird sogar die 45-Grad-Marke geknackt. Selbst die nächtlichen Tiefsttemperaturen sinken dann kaum noch unter 25 Grad.

Link: https://www.wetteronline.de/wetterticker/1ee5930a-32fb-4953-af02-63758f3d52c5

Kommentar von Christian Freuer dazu: Soweit wetteronline.de dazu. Die Abweichung der Temperatur im 850 hPa-Niveau zeigt tatsächlich eine erhebliche positive Abweichung im Nordwesten der USA und dem angrenzenden Pazifik. Dem steht jedoch ein gewaltiges Defizit in weiten Teilen der USA gegenüber, wie diese Graphik zeigt:

Die simulierte Temperatur am Dienstag Nachmittag (Ortszeit) in den USA sieht so aus:

Schon im letzten Kältereport war von einer gewaltigen negativen Temperaturabweichung die Rede gewesen, damals aber in weiter östlich gelegenen Gebieten. Natürlich gibt es dabei nicht mehr Schnee und/oder Frost, aber eine Temperatur um rund 10 K unter dem Üblichen wird man sicher bemerken.

Zwar war ich nie im Nordwesten der USA, aber es ist doch sehr zu bezweifeln, ob das wirklich Rekordwerte sind. Die negative Temperaturabweichung im größten Teil der USA ist viel bedeutsamer. – Ende Kommentar

———————————-

wird fortgesetzt …

Zusammengestellt und übersetzt von Christian Freuer für das EIKE




Klimamodelle: Schlimmer als gar nichts?

Klimamodelle: Als ob man mit einem Taschenrechner das Wetter in 100 Jahren simulieren kann. Bild: Thorben Wengert / pixelio.de

Robert L. Bradley Jr., übernommen von AIER

Wenn in ferner Zukunft die Geschichte der Klimamodellierung geschrieben wird, könnte die wichtigste Geschichte sein, wie sich die einfache, berechenbare Antwort als die falsche herausstellte, was zu einer überschätzten Erwärmung und falschen Ängsten vor dem verstärkten (vom Menschen verursachten) Treibhauseffekt führte.

In der Zwischenzeit häufen sich die empirischen und theoretischen Beweise, die auf dieses spielverändernde Urteil hinweisen, trotz der besten Bemühungen des Establishments, wegzuschauen.

Betrachten Sie eine Pressemitteilung in diesem Monat von der University of Colorado Boulder, „Warmer Clouds, Cooler Planet“, mit dem Untertitel „precipitation-related ‚feedback‘ cycle means models may overestimate warming“ [etwa: Niederschlags-bezogener „Rückkopplungs“-Zyklus bedeutet, dass Modelle die Erwärmung überbewerten können].

„Die heutigen Klimamodelle zeigen mehr Wärme als ihre Vorgänger“, beginnt die Ankündigung:

Aber eine in dieser Woche veröffentlichte Arbeit zeigt, wie die Modelle sich auf der Seite der zu starken Erwärmung irren können: Die sich erwärmenden Wolken der Erde kühlen die Oberfläche stärker ab als erwartet, berichtet das Team unter deutscher Leitung in „Nature Climate Change“.

„Unsere Arbeit zeigt, dass der Anstieg der Klimasensitivität aus der letzten Generation von Klimamodellen mit einem großen Körnchen Salz genommen werden sollte“, sagte CIRES-Mitglied Jennifer Kay, eine außerordentliche Professorin für atmosphärische und ozeanische Wissenschaften an der CU Boulder und Co-Autorin des Papiers.

In der Pressemitteilung heißt es weiter, dass die Einbeziehung dieser negativen Rückkopplung die Klimamodelle der nächsten Generation verbessern wird, was angesichts der bevorstehenden Sechsten Bewertung des Intergovernmental Panel on Climate Change (IPCC) von größter Bedeutung ist. Aber werden konfliktbehaftete Modellierer und das politisierte IPCC mit dem Elefanten im Raum offen umgehen?

Hintergrund

Starke positive Rückkopplungen durch die Freisetzung von Kohlendioxid (CO2) und anderen vom Menschen verursachten Treibhausgasen (THG) sind es, die eine bescheidene und sogar positive Erwärmung in das Gegenteil verwandeln. Man geht davon aus, dass eine erhöhte Verdunstung in einer wärmeren Welt (vor allem aus den Ozeanen) eine stark positive Rückkopplung verursacht, die die primäre Erwärmung verdoppelt oder sogar verdreifacht.

Technisch ausgedrückt: Wassermoleküle fangen Wärme ein, und Wolken oder Dampf in der oberen tropischen Troposphäre – wo die Luft extrem trocken ist – fangen wesentlich mehr Wärme ein und verdicken das Treibhaus. Wie das Wasser in dieser oberen Schicht (≈30.000-50.000 Fuß) die Wärme entweder blockiert (vergrößert) oder freisetzt (vermindert), ist umstritten, so dass das Vorzeichen der Externalität für die Klimaökonomie unbekannt ist. Und es ist die obere Troposphäre, in der die Klimamodelle mit den Daten nicht zurechtkommen.

Die Annahme einer festen relativen Luftfeuchtigkeit erlaubt es den Modellierern, sich ceteris paribus auf veränderte physikalische Prozesse zu berufen, die die sekundäre Erwärmung durchaus negieren könnten. Diese umstrittene Annahme öffnet die Tür für Hyper-Modellierung, die im Widerspruch zur Realität steht. (Für Ökonomen wäre die Analogie die Annahme von „perfektem Wettbewerb“, um Hypermodellierung zu entfesseln.)

Seit Jahrzehnten haben Modellkritiker die vereinfachte Behandlung von Komplexität in Frage gestellt. In der Zwischenzeit haben die Klimamodelle viel mehr Erwärmung vorhergesagt, als eingetreten ist.

Theoretiker sind seit langem mit Modelltechnikern zerstritten. Richard Lindzen vom MIT, Autor von Dynamics in Atmospheric Physics, hat verschiedene Hypothesen darüber aufgestellt, warum die Wasserdampf-Rückkopplung viel geringer ist als modelliert. Judith Curry, deren Blog Climate Etc. eine führende Quelle ist, um physikalisch-wissenschaftliche und verwandte Entwicklungen zu verfolgen, ist eine weitere Kritikerin der hoch sensitiven Modelle.

Es gibt eine Reihe von glaubwürdigen Perspektiven, die ich versuche zu berücksichtigen“, sagt sie. „Es ist ein sehr komplexes Problem, und wir haben die Antworten noch nicht.“ Und weiter:

Und jetzt haben wir viel zu viel Vertrauen in einige sehr zweifelhafte Klimamodelle und unzureichende Datensätze. Und wir fassen das Problem nicht weit genug, um … glaubwürdige Vorhersagen über die Bandbreite der Dinge zu machen, die wir möglicherweise im 21. Jahrhundert noch erleben werden“.

Wie geht der ‚Mainstream‘ damit um?

Klimawissenschaftler wissen, dass Klimamodelle extrem kompliziert und anfällig sind. In What We Know About Climate Change (2018, S. 30), erklärt Kerry Emanuel vom MIT:

Die Computermodellierung des globalen Klimas ist vielleicht das komplexeste Unterfangen, das je von der Menschheit unternommen wurde. Ein typisches Klimamodell besteht aus Millionen von Zeilen mit Computeranweisungen, die eine enorme Bandbreite an physikalischen Phänomenen simulieren sollen….

Obwohl die Gleichungen, die die physikalischen und chemischen Prozesse im Klimasystem darstellen, gut bekannt sind, können sie nicht exakt gelöst werden. …. Das Problem dabei ist, dass viele wichtige Prozesse auf viel kleineren Skalen ablaufen.

Das Problem der Parametrisierung ähnelt den Irrtümern der Makroökonomie, wo die entscheidende Kausalität des individuellen Handelns ignoriert wird. Die Mikrophysik ist die treibende Kraft des Klimawandels, doch die Gleichungen sind ungeklärt und unter dem Gitterniveau. Wie die Makroökonomie hätte auch die Makroklimatologie schon längst hochqualifiziert und degradiert werden müssen.

Mein Mentor Gerald North, ehemaliger Leiter der Abteilung für Klimatologie an der Texas A&M, hatte bereits 1998-99 eine Reihe von Anmerkungen über die krude, überbewertete Natur von Klimamodellen, die auch heute noch relevant sind:

Wir wissen nicht viel über die Modellierung von Klima. Es ist so, als ob wir einen Menschen modellieren würden. Die Modelle sind endlich in der Lage, uns zu sagen, dass die Kreatur zwei Arme und zwei Beine hat, aber wir werden gebeten, Krebs zu heilen.

Es gibt einen guten Grund für den fehlenden Konsens in der Wissenschaft. Es ist einfach noch zu früh. Das Problem ist schwierig, und es gibt erbärmlich wenige Möglichkeiten, Klimamodelle zu testen.

Man muss herausfinden, was zwischen 5 km und der Oberfläche vor sich geht. Der Standardweg ist über atmosphärische Modelle. Eine bessere Ausrede kann ich nicht finden.

Die verschiedenen Modelle koppeln unterschiedlich an die Ozeane. Hier gibt es eine ganze Menge Spielraum (unbestimmte Fudge-Faktoren). Wenn ein Modell zu empfindlich ist, kann man einfach ein wenig mehr Ozean einkoppeln, damit es mit den Aufzeichnungen übereinstimmt. Das ist der Grund, warum Modelle mit unterschiedlichen Empfindlichkeiten die Aufzeichnungen alle etwa gleich gut nachahmen. (Modellierer wären von meiner Erklärung beleidigt, aber ich denke, sie ist richtig.)

Modellergebnisse könnten auch soziologisch sein: die sozial akzeptable Antwort zu bekommen.

Der 5. Sachstandsbericht des IPCC (2013), der „offizielle“ oder Mainstream-Bericht, erkennt die grundlegende Unsicherheit an, während er die Modellmethodik und -ergebnisse für bare Münze nimmt. „Die Komplexität der Modelle“, so heißt es (S. 824), „hat seit dem Ersten Sachstandsbericht des IPCC von 1990 erheblich zugenommen….“. Und weiter:

Jedoch führt jedes bisschen zusätzliche Komplexität, während es dazu gedacht ist, irgendeinen Aspekt des simulierten Klimas zu verbessern, auch neue Quellen möglicher Fehler (z.B. durch unsichere Parameter) und neue Wechselwirkungen zwischen Modellkomponenten ein, welche, wenn auch nur vorübergehend, die Simulation eines Modells von anderen Aspekten des Klimasystems verschlechtern können. Darüber hinaus besteht trotz der erzielten Fortschritte nach wie vor eine wissenschaftliche Unsicherheit bezüglich der Details vieler Prozesse.

Die demütigende Natur der Klimamodellierung wurde von The Economist im Jahr 2019 veröffentlicht. „Predicting the Climate Future is Riddled with Uncertainty erklärt:

Klimamodellierung ist ein komplizierter Prozess. Der Code eines Modells muss alles darstellen, von den Gesetzen der Thermodynamik bis hin zu den Feinheiten, wie Luftmoleküle miteinander interagieren. Die Ausführung bedeutet, dass Quadrillionen von mathematischen Operationen pro Sekunde ausgeführt werden – daher der Bedarf an Supercomputern.

Solche Modelle sind sehr grob. Millionen von Gitterzellen mögen viel klingen, aber das bedeutet, dass die Fläche einer einzelnen Zelle, von oben gesehen, etwa 10.000 Quadratkilometer beträgt, während eine Luft- oder Meereszelle ein Volumen von bis zu 100.000 km3 haben kann. Wenn man diese enormen Flächen und Volumina als Punkte behandelt, entgehen einem viele Details.

Wolken zum Beispiel stellen eine besondere Herausforderung für Modellierer dar. Je nachdem, wie und wo sie sich bilden, können sie das Klima entweder erwärmen oder abkühlen. Aber eine Wolke ist viel kleiner als die kleinsten Gitterzellen, so dass ihre individuelle Wirkung nicht erfasst werden kann. Das Gleiche gilt für regionale Effekte, die durch Dinge wie topografische Merkmale oder Inseln verursacht werden.

Die Erstellung von Modellen wird auch durch mangelndes Wissen über die Art und Weise erschwert, wie sich Kohlenstoff durch die Umwelt bewegt.

„Aber die Forscher tun das Beste, was sie können“, folgerte The Economist.

Tatsächlich überschätzen die Klimamodelle die Erwärmung deutlich, sogar um die Hälfte. Und die Lücke vergrößert sich, da ein kühles 2021 in vollem Gange ist. Und was die Zukunft betrifft, so wird die anthropogene Erwärmung durch den logarithmischen und nicht linearen Effekt des Treibhauseffekts begrenzt. Der Sättigungseffekt bedeutet, dass der Anstieg der Erwärmung immer geringer wird, je mehr CO2 in der Atmosphäre enthalten ist. Die Erwärmung aus einer Verdopplung des CO2 tritt also nicht bei einer Verdreifachung, sondern bei einer Vervierfachung wieder ein.

Das Mitigationsfenster schließt sich also rapide, was die schrille Sprache prominenter Politiker erklärt. Aber es sind die zugrunde liegenden Klimamodelle, nicht das Klima selbst, dem die Zeit davonläuft.

Unsettled“ gelangt in den Mainstream

Die krude Methodik und die falschen Schlussfolgerungen der Klimamodellierung treten aus dem Schatten. Der Physiker und Computerexperte Steven Koonin erklärt in seinem einflussreichen Werk Unsettled: What Climate Science Tells Us, What it Doesn’t, and Why It Matters (Kapitel 4):

Klimamodellierung ist zentral für die Klimawissenschaft….. Doch viele wichtige Phänomene treten auf Skalen auf, die kleiner sind als die 100 km (60 Meilen) Gittergröße (z.B. Berge, Wolken und Gewitter), und so müssen Forscher „Untergitter“-Annahmen machen, um ein vollständiges Modell zu bauen….

Da die Ergebnisse im Allgemeinen nicht viel mit dem von uns beobachteten Klimasystem übereinstimmen, passen die Modellierer diese Parameter an („frisieren“), um eine bessere Übereinstimmung mit einigen Merkmalen des realen Klimasystems zu erzielen.

Untertuning macht das Modell unrealistisch, aber Übertuning „riskiert, die Antwort vorher zu bestimmen“, fügt Koonin hinzu. Er zitiert dann aus einem Papier, das von 15 Weltklasse-Modellierern mitverfasst wurde:

… Tuning wird oft als ein unvermeidlicher, aber schmutziger Teil der Klimamodellierung gesehen, mehr Technik als Wissenschaft, ein Akt der Bastelei, der es nicht verdient, in der wissenschaftlichen Literatur festgehalten zu werden…. Tuning kann in der Tat als ein unsäglicher Weg gesehen werden, um Modellfehler zu kompensieren.

Conclusion

Die Klimamodellierung war also wohl schlimmer als nichts, weil falsche Informationen als wahr und als „Konsens“ präsentiert wurden. Alarmismus und störender politischer Aktivismus (erzwungene Substitution von minderwertigen Energien; Infragestellung von Lebensstil-Normen) haben sich verselbständigt. Achtung, fertig, los hat die Besonnenheit ersetzt, von der Wissenschaft bis zur öffentlichen Politik.

Die Daten widersprechen weiterhin naiven Klimamodellen. Eine sehr schwierige Theorie erklärt langsam aber sicher, warum. Die Klimadebatte ist zurück in der physikalischen Wissenschaft, aus der sie sich nie hätte entfernen dürfen.

Link: https://wattsupwiththat.com/2021/06/24/climate-models-worse-than-nothing/

Übersetzt von Christian Freuer für das EIKE

 




Sehr warmer Juni 2021 in Deutschland – doch CO2 ist nicht der Verursacher

Ein warmer, dank kräftiger Gewitterschauer stellenweise fruchtbarer Juni 2021 entschädigte für die Frühjahreskälte. Foto: Stefan Kämpfe

Stefan Kämpfe

Der Juni zeigt schon seit über drei Jahrzehnten eine starke Erwärmungstendenz Dank stärkerer Besonnung und häufigerer Südlagen – wird auch der Juli recht warm verlaufen?

Nach der harschen Kälte im April/Mai konnten sich Sommerfans über einen sehr warmen Juni freuen, den auch der Autor dieses Beitrages, freilich nur sehr vorsichtig, angekündigt hatte. Die enorme Hitze der Junimonate 2003 und vor allem 2019 wurde jedoch nicht erreicht, und eitel Sonnenschein über längere Zeit blieb wegen häufiger Gewitterschauer aus. Regional sprießte die Vegetation so üppig, wie seit Jahren nicht mehr. Leider beglückte der Regen nicht alle Regionen – die „Streusandbüchse“ Deutschlands (Land Brandenburg) bekam nur wenig ab, und dort war es auch am wärmsten und sonnigsten. Bei aller Skepsis gegenüber Langfristprognosen – im Juli könnte es noch eine ganze Weile so weitergehen.

Viele unbestimmbare (XX) und südliche Wetterlagen bringen oft Juni-Wärme und gefährden Deutschlands Stromversorgung

Seit dem Beginn der Erfassung der Objektiven Wetterlagen beim DWD (zweite Jahreshälfte 1979) gab es nur selten mehr Juni-Tage ohne eindeutig bestimmbare Anströmrichtung über Deutschland, als 2021 (der bisherige Rekord datiert aus dem Vorjahr mit 13 Tagen).

Abbildung 1: Die Häufigkeit der im Juni unbestimmten Lagen (keine eindeutige Anströmrichtung im 700-hPa-Niveau, entspricht etwa 3.000 Metern Höhe) nahm merklich zu. Bis zum 26. Juni 2021 hatte es schon 11 Tage mit XX-Lagen gegeben; der Beitrag wurde aus Aktualitätsgründen vor dem Monatsende vollendet.

Diese XX-Lagen gehen fast stets mit mehr oder weniger deutlichen Flauten auch in den bodennahen Luftschichten einher; Niederschlagsgebiete ziehen oft nur sehr langsam und fallen daher lokal besonders ergiebig aus; die stagnierende Luft kann sich außerdem unter den Bedingungen der sehr langen Frühsommertage stark erwärmen. Und das häufige Vorhandensein potentiell instabiler Luftmassen (mPs, xSp, xS) begünstigte die Entstehung von Gewitterschauern. Ähnlich wie schon im Vorjahr, hatte das auch an den übrigen Juni-Tagen meist schwachwindige Juni-Wetter sehr negative Auswirkungen auf die Windstromproduktion.

Abbildung 2: Stromproduktion Deutschlands von 1. bis zum 26. Juni 2021. Der Windstromanteil lag über weite Strecken bei lächerlichen 1 bis 15 %, und das bei gut 30.000 Windkraftanlagen! Strom kann nach wie vor NICHT in größeren Mengen gespeichert werden – man achte auf den nur tagsüber mitunter reichlich vorhandenen Solarstrom, welcher die Last (Stromverbrauch, schwarze Linie) tagsüber nicht selten überschritt und verschleudert werden musste. Bildquelle energy-charts.info, ergänzt.

Der Juni galt stets als ein Monat mit vielen Nordlagen; vielen Lesern ist sicher noch die berüchtigte „Schafskälte“ in Erinnerung. Doch mittlerweile nahm die Häufigkeit der Großwettertypen Süd und Südwest stark zu und holte die Häufigkeit der Großwettertypen Nord und Nordwest ein, was die enorme Juni-Erwärmung der letzten Jahrzehnte ebenfalls erklärt:

Abbildung 3: Starke Häufigkeitsabnahme der nördlichen und nordwestlichen (blau) zugunsten der südlichen und südwestlichen (rot) Großwettertypen 1881 bis 2020; Daten für 2021 liegen noch nicht vor. Dieses Häufigkeitsverhalten der Großwetterlagen trug wesentlich zur Juni-Erwärmung bei.

Das langfristige Verhalten der Juni-Temperaturen in Deutschland

Im Gegensatz zu den meisten anderen Monaten, erwärmte sich der Juni bis zur Mitte des 20. Jahrhunderts kaum. Ab da bis zum Beginn der 1990er Jahre zeigte er aber die fast allen Monaten eigene Abkühlungsphase trotz steigender CO2-Werte, um sich ab etwa 1990 so kräftig zu erwärmen, wie es nur noch der April und der November schafften. Seit Aufzeichnungsbeginn (1881) betrug die Erwärmung mäßige 1,2 Kelvin (°C). Dabei sind die DWD-Daten auch noch wärmeinselbelastet, und die DWD-Reihe startet in der letzten Phase der „Kleinen Eiszeit“ – um 1881 war es besonders kühl.

Abbildung 4: Verlauf der Junitemperaturen im Deutschland-Mittel seit 1881 mit drei Entwicklungsphasen. Einer langen, bis etwa 1947 dauernden Stagnationsphase folgte eine Abkühlungsphase bis 1991, in welcher sehr warme Juni-Monate fehlten. Beginnend mit 1992 und gipfelnd im Rekord-Juni 2019, kam es zu einer sehr starken Erwärmung. In den gesamten 141 Jahren der Reihe betrug der Temperaturanstieg nur mäßige 1,2 Kelvin (°C) – bei enorm steigenden CO2-Konzentrationen. Mit WI-Bereinigung hätte es eine geringere Juni-Erwärmung unter 1 Kelvin gegeben. Zur Beachtung: Die Grafik zeigt KEINE Klimasensitivität der CO2-Konzentration; sie verdeutlicht lediglich, dass die von etwa 290 auf 418 ppm steigende CO2-Konzentration über lange Zeiträume nicht zur Temperaturentwicklung passt.

Noch erstaunlicher ist die Entwicklung der Juni-Temperaturen in Zentralengland, für das eine über 360ig-jährige Messreihe vorliegt; sie erfasst damit auch den Höhepunkt der „Kleinen Eiszeit“, das so genannte Maunder-Minimum als vermutlich kälteste Epoche in den mindestens letzten 2.000 Jahren. Seitdem sollte es doch eine kräftige Erwärmung um viel mehr als ein Grad gegeben haben – aber die Realität sieht ganz anders aus:

Abbildung 5: Mit kaum 0,2 Kelvin praktisch kein Juni-Temperaturanstieg seit über 360 Jahren in Zentralengland. Die wärmsten Juni-Monate liegen weit zurück und sind gekennzeichnet; in der Neuzeit war dort nur der Juni 1976 sehr warm; 2021 wird mit knapp unter 16°C dort ein nur mäßig warmer Juni.

Eine Betrachtung seit 1930 belegt ebenfalls die fast völlig fehlende Juni-Erwärmung in Zentralengland, während es in Deutschland wärmer wurde – sollte etwa das CO2 nur in Deutschland gewirkt haben? Das ist wohl nicht plausibel.

Abbildung 6: Während sich der Juni seit 1930 in Deutschland angenehm erwärmte, blieb er in Zentralengland so kühl, wie immer.

Die Sonnenscheindauer als wesentliche Treiber der Juni-Temperaturen

Wie wir schon anhand der Abbildungen 4 bis 6 gesehen hatten, können die stark steigenden CO2-Konzentrationen nicht ursächlich für die Entwicklung der Juni-Temperaturen gewesen sein. Wie in allen anderen Sommerhalbjahres-Monaten, übt außer den Großwetterlagen die Sonnenscheindauer einen signifikanten Temperatureinfluss aus. In Deutschland ist das Flächenmittel dafür leider erst seit 1951 verfügbar:

Abbildung 7: Jun-Erwärmung in Deutschland seit auch dank höherer Besonnung (etwa 55% der Temperaturvariabilität werden von der Sonnenscheindauer bestimmt). Die Zunahme der Sonnenscheindauer hatte verschiedenste Ursachen, unter anderem die stark abnehmende Konzentration der Luftschadstoffe (SO2, Staub) und die Austrocknung Deutschlands durch Bebauung, Versiegelung und Meliorationen. Möglicherweise fördert auch die übertriebene Nutzung der Wind- und Solarenergie eine Bewölkungs- und Nebelabnahme, was mehr Besonnung nach sich zieht. Umrechnung beider Größen in Indexwerte, um sie anschaulicher mit den Lufttemperaturen in einer Grafik zu zeigen.

Der Juni 2021 zählte nicht zu den sonnenscheinreichsten, aber er war überdurchschnittlich besonnt. Man achte auch in der Grafik 7 auf den bis gegen Ende der 1980er Jahre anhaltenden Temperaturrückgang, welcher mit abnehmender Besonnung einherging.

Nachlassende Sonnenaktivität, die Noch-AMO-Warmphase und warme Juni-Monate in Deutschland

Die aktuell nachlassende Sonnenaktivität wird stets mit Abkühlung in Verbindung gebracht; doch das könnte unter bestimmten Umständen voreilig sein. Denn erstens wirkt diese mit einer Verzögerung von mehreren Jahrzehnten – aktuell ist sie noch nicht voll bei uns angekommen. Zweitens fördert eine geringe Sonnenaktivität so genannte Meridionallagen, bei denen der Luftmassentransport überwiegend entlang der Längengrade erfolgt (Nord- oder Südlagen; in Europa auch der Sonderfall der Ostwetterlagen). Süd- und Ostlagen fallen aber, anders als im Winter, im Juni fast stets mehr oder weniger zu warm aus. Und drittens gibt es das Phänomen der so genannten Koronalen Löcher, welche trotz geringer Sonnenaktivität längere, sehr warme Schönwetterperioden auslösten, wie wir das seit 2018 häufig erlebten. Näheres dazu hier. Dieses Phänomen könnte auch die einzelnen, dem Charakter der „Kleinen Eiszeit“ widersprechenden Hitzewellen erklären, so den Sommer 1666 .(historischer großer Stadtbrand in London), oder den in England enorm heißen Juni 1676. Und viertens wirkt (momentan) noch die AMO-Warmphase der solar bedingten Abkühlung entgegen:

Abbildung 8: Merkliche zeitliche Übereinstimmung der AMO und der Juni-Temperaturen in Deutschland. In AMO-Warmphasen, wie zur Mitte des 20. Jh. und aktuell, sind die Junitemperaturen tendenziell höher. Ähnliches gilt für den gesamten Sommer und den Herbst. Die AMO-Juniwerte für 2021 liegen noch nicht vor.

Sollte, was in naher Zukunft durchaus zu erwarten ist, eine AMO-Kaltphase mit der geringen Sonnenaktivität zusammenfallen, so wird es mit den schönen, warmen Junimonaten vorbei sein.

Vegetationsverlauf im Juni: Der Rückstand des kalten Frühlings wurde nicht ganz kompensiert

Der Autor beobachtet zur Festlegung des phänologischen Hochsommerbeginns den Start der Winterlindenblüte in Weimar; leider erst seit 1998.

Abbildung 9: Fast keine Verfrühung der Winterlindenblüte in Weimar seit 1998. Die Juni-Erwärmung konnte, zumindest phänologisch, die leichte Mai-Abkühlung nicht überkompensieren.

Warmer Juli 2021?

Die Siebenschläferregel stellt auf den Witterungstrend Ende Juni/Anfang Juli ab, weil sich die kurz nach dem Sonnenhöchststand einstellende Großwetterlage (Jet-Stream, langwellige Höhen-Rücken oder Höhentröge) meist für einige, keinesfalls aber genau 7 Wochen, stabilisiert. Sie ist für Süddeutschland verlässlicher, als für das Norddeutsche Tiefland und sollte vorrangig nur zur groben Abschätzung der Juli-Witterung dienen. In den Ensemble-Prognosen für den 7. Juli erkennt man einen langwelligen Höhenrücken über Europa, der sich bis nach Nordskandinavien ausdehnt:

Abbildung 10: Vorhersage der Höhenlage der 500-hPa-Fläche der Nordhalbkugel für den 7. Juli. Über Europa (violetter Pfeil) erkennt man eine erhöhte Lage, was (meist) mit Hochdruckwetterlagen und Warmluft in diesem Gebiet einhergeht. Bildquelle: NOAA

Die Witterung im „Entscheidungszeitraum“ (20. Juni bis 10. Juli) war und wird also zwar relativ warm, aber auch teils wechselhaft-gewittrig und mit Regenfällen verlaufen, so dass ein warmer, aber teils wechselhafter Juli recht wahrscheinlich erscheint. Für den August lassen sich noch keine Aussagen treffen; Näheres zur Problematik der Jahres-Prognose 2021 hier.

 




Wie man das Heute mit der Vergangenheit vergleichen sollte

Wie leicht man in diesem Zusammenhang doch Äpfel mit Birnen vergleichen kann… Bild: Tim Reckmann / pixelio.de

Andy May

In meinem vorigen Beitrag [in deutscher Übersetzung beim EIKE hier] habe ich die Probleme angesprochen, die sich bei einem Vergleich instrumenteller Messungen global oder hemisphärisch einerseits sowie Temperaturen der Vergangenheit andererseits ergeben. Die Erfassung der Meerestemperatur war vor 2005 spärlich und von schlechter Qualität. Vor 1950 waren die Messungen an Land (29 % der Oberfläche) ebenfalls spärlich und von schlechter Qualität. Vor der Erfindung von Thermometern sind nur Proxy-Temperaturen verfügbar, aber auch diese sind spärlich und vor 1600 schlecht kalibriert. Wie können wir also moderne Temperaturen mit der fernen Vergangenheit vergleichen? Wir können es nicht global oder hemisphärisch tun, die Daten der Vergangenheit sind zu schlecht oder zu spärlich oder beides. Warum wählt man nicht die besten Proxies aus und berechnet vergleichbare moderne Temperaturen, um sie mit den Proxies an den spezifischen Proxy-Standorten zu vergleichen? Es ist einfacher, die Auflösung zu verringern als sie zu erhöhen.

Die in Abbildung 1 dargestellte Temperaturrekonstruktion von Rosenthal et al. zeigt ~500-Meter-Temperaturen aus dem „Indonesian Throughflow“ (Rosenthal, Linsley, & Oppo, 2013). Ihre Daten stammen von Sedimentkernen, die in der Makassar-Straße östlich der Insel Borneo entnommen wurden. Diese Meerenge ist ein Teil der Hauptverbindung zwischen dem Indischen, Südlichen und Pazifischen Ozean. Die Temperatur dort spiegelt die Temperatur bedeutender Teile dieser drei großen Wassermassen in 500 Metern Tiefe wider.

Rosenthal et al. verwendeten ein Mg/Ca (Magnesium/Calcium-Verhältnis) aus benthischen Foraminiferen, um die 500-Meter-Temperaturen abzuschätzen, und sie nehmen eine Temperaturgenauigkeit von ±0,7°C in Anspruch. Die Datierung wurde mit Radiokohlenstoff (14C) durchgeführt und ist wahrscheinlich nicht besser als ±50 Jahre. Die Radiokohlenstoff-Datierung wurde anhand von markanten vulkanischen Ascheschichten und Blei-Isotopen-Datierungen (210Pb) überprüft.

Die von Rosenthal und seinen Kollegen untersuchten Fossilien und Muscheln stammen von einer bodenbewohnenden Foraminifere, die in etwa 500 Metern Tiefe in der Meerenge lebt. Der Meeresspiegel schwankte über den Zeitraum seiner Studie, aber er hat dies korrigiert. Fünfhundert Meter sind tief genug, um von kurzfristigen Wetterschwankungen an der chaotischen Oberfläche isoliert zu sein, aber flach genug, um längerfristige Klimaschwankungen an der Oberfläche zu reflektieren. Zusätzlich haben wir von der Universität Hamburg eine genaue moderne Temperatur für den Zeitraum von etwa 2006-2016 in 500 Metern Höhe von etwa 7,7°C, diese moderne Temperatur ist auf dem Plot mit einem roten Kasten gekennzeichnet. Rosenthals Rekonstruktion geht nur bis 7100 v. Chr. zurück und hat eine Auflösung von 20 Jahren bis 30 v. Chr., und 50 Jahren davor.

Abbildung 1. Rosenthal, et al.’s indonesische Durchgangstemperatur-Rekonstruktion bei 500 Metern. Klicken Sie auf das Bild oder hier für ein Bild in voller Größe. Datenquelle: (Rosenthal, Linsley, & Oppo, 2013).

Abbildung 1 stellt die Temperaturen der durchmischten Schicht des Ozeans und der oberen Tiefsee in drei großen Ozeanen dar. Diese Ozeane enthalten mehr Wärmekapazität als die gesamte Atmosphäre. Die Rekonstruktion in Abbildung 1 veranschaulicht den stetigen Rückgang der Oberflächentemperaturen seit dem holozänen Klimaoptimum, das vor etwa 6.000 Jahren endete. Die Periode der Abkühlung nach dem holozänen Klimaoptimum wird als Neoglazial bezeichnet. Abbildung 1 deutet darauf hin, dass die Durchschnittstemperatur von 2006-2016 im Vergleich zu den letzten 2.000 oder 1.000 Jahren und davor ziemlich normal, sogar kühl ist. Diese Temperatur gilt nur für die Makassarstraße, die jedoch mit drei großen Ozeanen verbunden ist.

Mehrere historische Ereignisse sind auf dem Diagramm vermerkt, um zu zeigen, wie die Zivilisation zumindest teilweise von den immer niedrigeren Temperaturen beeinflusst wurde. Historische Ereignisse sind wichtige Klimaindikatoren, da sie genau datiert sind und oft Klimaveränderungen über große Gebiete anzeigen. Die „Kleine Eiszeit“ oder LIA, war eine sehr kalte und elende Zeit für die Menschheit. Sie trug zur Pest des Schwarzen Todes, dem Ende der Wikingersiedlungen in Grönland und zur Verbrennung und Verfolgung von Hexen und Juden in Europa bei, da diese oft für das kalte Wetter verantwortlich gemacht wurden (Behringer, 2010, S. 98, 128). Das ist das „vorindustrielle“ Wetter, zu dem die Alarmisten uns zurückbringen wollen, und zwar ohne die Vorteile der fossilen Brennstoffe. Willkommen in der Hölle!

[Hervorhebung vom Übersetzer]

Die mittelalterliche Warmzeit (MWP), die römische Warmzeit (RWP) und das holozäne Klimaoptimum sind in der Makassarstraße alle wärmer als heute. Die neoglaziale Abkühlungsperiode, nach dem Klimatischen Optimum, ist an diesem Ort gut definiert.

[Hervorhebung vom Übersetzer]

Die Rekonstruktion von Bo Christiansen und Fredrick Ljungqvist für die letzten 2.000 Jahre (Christiansen & Ljungqvist, 2012) ist ebenfalls wichtig. Wie im vorherigen Beitrag besprochen, vermeiden sie in ihrer Rekonstruktion eine räumliche Regression, um so viel klimatische Variabilität wie möglich zu erhalten. Ihre Rekonstruktion ist in Abbildung 2 dargestellt. Sie gilt nur für die außertropische Nordhemisphäre. Die rote Box, eingezeichnet im Jahr 2000, ist die durchschnittliche außertropische HadCRUT5-Durchschnittstemperatur der Nordhemisphäre von 1970-2020. In diesem Fall soll sie mit der geglätteten 50-jährigen Rekonstruktion von Christiansen und Ljungqvist verglichen werden. Die HadCRUT5-Anomalie wurde vom HadCRUT5-Nullpunkt (1961-1990) zum von Christiansen und Ljungqvist verwendeten Nullpunkt 1880-1960 verschoben. „Extra-tropisch“ beinhaltet alle HadCRUT5 5°x5° Zellen von 27,5°N bis 87,5°N, wobei Nullzellen ignoriert werden. Die durchschnittliche HadCRUT5-Zelltemperatur ist flächengewichtet nach Breitengrad.

Abbildung 2. Rekonstruktion der außertropischen Temperatur der nördlichen Hemisphäre nach Christiansen und Ljungqvist. Klicken Sie auf das Bild oder hier für ein jpeg in voller Größe.

Genau wie in Abbildung 1 haben wir nicht versucht, den Proxy-Datensatz auf mehr auszudehnen, als er eigentlich abdecken sollte, sondern wir haben HadCRUT5 auf den Bereich reduziert, den der Proxy-Datensatz abdeckt. In diesem Fall passt der HadCRUT5 50-Jahres-Durchschnitt gut zur Proxy-Rekonstruktion und entspricht auch ungefähr der Temperatur der MWP. Die schwachen Linien in Abbildung 2 sind jährliche Proxy-Temperaturen, sie zeigen viel mehr Variabilität als die geglättete 50-Jahres-Kurve, sind aber nicht so aussagekräftig wie der 50-Jahres-Durchschnitt in Bezug auf den Klimawandel.

In Abbildung 2 zeigen wir einige der Erwärmungs- und Abkühlungsereignisse, die in den Veröffentlichungen von Soon et al. aus dem Jahr 2003 für die letzten zwei Jahrtausende dokumentiert sind (Soon & Baliunas, 2003) und (Soon, Baliunas, & Legates, 2003c). Soon und Kollegen heben den wichtigen Punkt hervor, dass das Klima eine lokale Sache ist und nicht gleichmäßig über den Globus variiert. Großräumige Klimaindikatoren, wie z. B. globale Gletschervorstöße und -rückzüge, deuten darauf hin, dass die Mittelalterliche Warmzeit (MWP) global gesehen wärmer war und eine Zeit des globalen Gletscherrückzugs. Die Kleine Eiszeit (Little Ice Age, LIA) war eine Zeit des Vorstoßes der Gletscher und kälteren Wetters. Ein Blick auf detaillierte Aufzeichnungen legt jedoch nahe, dass es während beider Perioden sowohl eine Erwärmung als auch eine Abkühlung gab, je nach Standort. Der größte Teil der Welt erwärmte sich während der MWP, aber um den Taylor Dome in der Antarktis kühlte es deutlich ab. Während der LIA kühlte sich die Welt im Allgemeinen ab, aber die Schweiz und die Antarktis erwärmten sich in den Jahrzehnten um 1540 n. Chr. bzw. 1800 n. Chr. deutlich. Die Spitzenwerte dieser globalen Klimaanomalien wurden zu unterschiedlichen Zeiten an unterschiedlichen Orten erreicht.

Vergleicht man diese Rekonstruktionen mit Vinthers Grönland-Rekonstruktion von 2009 (siehe den ersten Beitrag, Abbildung 2, wo sie mit den antarktischen Temperaturen verglichen wird), wie wir es in Abbildung 3 tun, wird deutlich, wie das Klima je nach Region und Hemisphäre variiert. Diese lokalen Variationen durchkreuzen das Narrativ der „globalen Erwärmung“.

Vinthers Rekonstruktion wurde aus dem Durchschnitt der Agassiz- und Renland-Eiskerne in Grönland erstellt, nachdem diese um Höhenänderungen korrigiert wurden. Der Agassiz-Kern stammt eigentlich nicht aus Grönland, sondern von einer Nachbarinsel. Vinthers Studie enthältt eine Karte der beiden Standorte. Die mittlere Grafik in Abbildung 3 ist die Vinther-Rekonstruktion in tatsächlichen Grad Celsius. Der rote Kasten ist der grönländische Temperaturdurchschnitt aus den 5×5-Grad-Zellen von HadCRUT5, die den Agassiz- und Renland-Standorten am nächsten liegen, für 2000-2020. Wie man sieht, ist es nicht sehr anomal relativ zur Vinther Aufzeichnung. Er ist niedriger als die Spitzen in der MWP, RWP und ein bis zwei Grad niedriger als das holozäne Klimaoptimum.

Abbildung 3. Die vollständige Zeitleiste für das Klima und die Geschichte der Zivilisation. Klicken Sie auf das Bild oder hier, um ein jpeg in voller Größe herunterzuladen.

Es gibt eine große Anzahl historischer Bezüge in der in Abbildung 5 gezeigten Zeitleiste, und wir werden sie hier nicht alle erklären, sie sind in früheren Beiträgen hier und hier gut dokumentiert. Wir wollen nur darauf hinweisen, dass signifikante lokale Klimaänderungen – die einzigen, die für die Menschen von Bedeutung sind – historische Ereignisse sind, die oft von den Historikern der jeweiligen Zeit detailliert beschrieben und genau datiert werden. Diese historischen Beschreibungen können wertvoller sein als biologische oder Eiskern-Proxies. Es gibt drei signifikante Klimaänderungen der nördlichen Hemisphäre oder des globalen Klimas, die eine besondere Erwähnung verdienen.

Die Römische Warmzeit RWP

Die Römische Warmzeit (RWP) war ein Zeitraum von etwa 100 v. Chr. bis 200 n. Chr., je nachdem, wo man sich befindet. Dies war die Zeit, in der sich robuste Zivilisationen in Amerika, rund um das Mittelmeer, China und Indien entwickelten. Ch’in vereinigte China um 200 v. Chr. und Alexander fiel nur 136 Jahre zuvor in Indien ein. Die Maya-Zivilisation stieg vor 250 n. Chr. im heutigen Mexiko, Guatemala und Belize zur Berühmtheit auf. Die römische Warmzeit markiert tatsächlich den Beginn der modernen Zivilisation, schriftliche Aufzeichnungen dokumentieren alle wichtigen Ereignisse über den größten Teil der Welt seit dieser Zeit. Diese Schriften und neuere Rekonstruktionen legen nahe, dass die Temperaturen zumindest auf der Nordhalbkugel höher lagen als heute.

Die Mittelalterliche Warmzeit MWP

Die Mittelalterliche Warmzeit (MWP) wird normalerweise mit 800 n. Chr. bis 1250 n. Chr. angegeben, aber sie begann und endete an verschiedenen Orten zu unterschiedlichen Zeiten. Zu Beginn dieser Periode stiegen die Temperaturen in Zentralgrönland innerhalb von etwa 200 Jahren um etwa 1,5 °C, aber der Anstieg erfolgte unregelmäßig. Sie ist als weltweites Ereignis gut dokumentiert, aber nicht synchron. Es ist ungewiss, wie hoch die globale Durchschnittstemperatur während dieses Zeitraums war und ob die Welt damals wärmer war als heute. Aber mit Sicherheit war es in vielen Gebieten, in denen wir Aufzeichnungen haben, wie Grönland, Großbritannien und China, mit heute vergleichbar und in vielen Fällen sogar wärmer. Während dieser Zeit waren die Wikinger eine dominierende Kraft in Europa und im Nahen Osten.

Die Kleine Eiszeit LIA

Die Kleine Eiszeit (LIA) war keine echte Eiszeit, sondern eine kühlere Periode, die auf die mittelalterliche Warmzeit folgte. Es wird allgemein angenommen, dass sie um 1350 n. Chr. begann und zwischen 1850 und 1900 n. Chr. endete. Die LIA war die kälteste Periode des Holozäns. Die Temperaturen der nördlichen Hemisphäre fielen im Durchschnitt um 1°C bis 1,5°C, aber wie die MWP verlief sie nicht synchron auf der ganzen Welt. Viele Gebiete auf der Südhalbkugel waren wärmer als normal, vor allem in der Antarktis. Es war nicht über den gesamten Zeitraum hinweg kalt, aber die Kleine Eiszeit sah viele Perioden, die sehr kalt waren, vom berühmten Jahr ohne Sommer (1816) bis zur großen Hungersnot von 1315. Der Hafen von New York fror 1780 komplett zu, die nordischen Kolonien in Grönland verhungerten und mussten aufgegeben werden. Eine aktuelle Studie stellt mehrere Dürren in Europa während der Kleinen Eiszeit fest. Diese traten in den Jahren 1540, 1590, 1626 und 1719 n. Chr. auf, sowie eine besonders intensive Dürre von 1437-1473 n. Chr.

Die Moderne Warmzeit

Die moderne Warmzeit beginnt zwischen 1850 und 1905 und war auch die Zeit des Beginns systematisch und objektiv kalibrierter instrumenteller Temperaturdaten aus der ganzen Welt aufzuzeichnen und zu sammeln. Diese Temperaturen waren anfangs nur sporadisch vorhanden, aber Mitte des 20. Jahrhunderts entwickelte sich eine gute, landgestützte weltweite Temperaturdatenbank. Im Jahr 1979 wurden Satelliten gestartet, die uns eine einigermaßen genaue und vollständige Aufzeichnung der Temperatur in der unteren Troposphäre über fast den gesamten Globus liefern konnten. Eine Diskussion über die Genauigkeit der Satelliten-Temperaturmessungen findet sich in einem interessanten Artikel von John Christy, Roy Spencer und William Braswell (Christy, Spencer, & Braswell, 2000) hier. Die Satellitendaten legen nahe, dass sich die untere Troposphäre mit einer unscheinbaren Rate von 0,14°C/Dekade erwärmt.

Conclusions

Moderne globale instrumentelle Temperaturen sind erst seit kurzer Zeit verfügbar. Selbst wenn die gesamte 170-jährige Aufzeichnung verwendet wird, ist sie zu kurz, um repräsentativ für die dokumentierten Temperaturextreme der letzten 2.000 Jahre zu sein. Der New Yorker Hafen ist in letzter Zeit nicht zugefroren, und viele Gebiete, die jetzt mit Gletschereis bedeckt sind, waren in der MWP eisfrei.

Wenn man noch weiter zurückgeht, bis zum Beginn des Holozäns, sind die Temperaturproxies sehr spärlich und die Konstruktion einer hemisphärischen oder globalen Temperaturrekonstruktion ist sinnlos. Die Proxies sind so weit zurück nicht genau, und es gibt keine Möglichkeit festzustellen, ob man die verwendeten Proxy-Temperatur-Funktionen mit einer Kalibrierungsperiode von nur 170 Jahren so weit zurück in der Zeit anwenden kann.

Wie wir in diesem Bericht zeigen und wie von Soon, et al. empfohlen (Soon, Baliunas, Idso, Idso, & Legates, 2003b), ist es viel besser, die Proxies einzeln zu behandeln. Sie statistisch zu kombinieren ist irreführend. Wenn der genaue Ort des Proxy-Datensatzes bekannt ist, sind die modernen Temperaturdaten genau und dicht genug, um einen vernünftigen modernen instrumentellen Temperaturdatensatz für den Ort mit einer passenden zeitlichen Auflösung zu extrahieren. In den in diesem Beitrag gezeigten Beispielen scheinen die modernen Temperaturen für die letzten 2.000 Jahre und die letzten 15.000 Jahre gut innerhalb des Bereichs der natürlichen Variabilität zu liegen.

Es ist bekannt, dass die Sonneneinstrahlung je nach Breitengrad variiert, und die in diesem Beitrag besprochenen Aufzeichnungen unterstützen dies. Kohlendioxid ist ein gut durchmischtes Gas, und man würde erwarten, dass es die Veränderung der globalen Durchschnittstemperatur über einen ausreichenden Zeitraum ungefähr gleichmäßig beeinflusst. Wir sehen keine Beweise dafür, dass dies jetzt der Fall ist, aber die Aufzeichnungen sind kurz.

Professor Steven Mithen drückt es so aus (Mithen, 2003, S. 507):

Das nächste Jahrhundert der vom Menschen verursachten globalen Erwärmung wird als weit weniger extrem vorhergesagt als das, welches um [9600 v. Chr.] stattfand. Am Ende des Jüngeren Dryas war die globale Durchschnittstemperatur innerhalb von fünfzig Jahren um 7°C gestiegen, während der vorhergesagte Anstieg für die nächsten hundert Jahre weniger als 3°C beträgt. Das Ende der letzten Eiszeit führte zu einem Anstieg des Meeresspiegels um 120 Meter, während der für die nächsten fünfzig Jahre vorhergesagte Anstieg bei höchstens 32 Zentimetern liegt…

Perspektive ist wichtig, wir müssen erkennen, dass die Klima- und Temperaturveränderungen, die wir im letzten Jahrhundert beobachtet haben, im Vergleich zu den natürlichen Veränderungen der Vergangenheit sehr gering sind. Um diese Perspektive zu gewinnen, müssen wir valide Vergleiche von historischen Klimaveränderungen zu heute anstellen. Das bedeutet lokale Vergleiche, nicht globale. Das bedeutet, die schlechte zeitliche Auflösung von Proxies und ihre fragwürdige Genauigkeit zu erkennen, die mit der Zeit abnimmt. Es ist auch wichtig zu erkennen, dass das Netzwerk von landgestützten Wetterstationen auf der nördlichen Hemisphäre schon seit einiger Zeit gut ist, während ein gutes Netzwerk auf der südlichen Hemisphäre sehr neu ist. Schließlich sind gute Temperaturaufzeichnungen der Ozeane eine sehr junge Ergänzung. Da die Ozeane 70 % der Erdoberfläche bedecken, sind sie ein zuverlässiger globaler Temperaturaufzeichnung, eine Aufzeichnung, die bis heute nicht ausreichend genutzt wurde. Um die modernen Temperaturen in eine historische Perspektive zu setzen, sollten wir lokal, nicht global vorgehen.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2021/06/23/how-to-compare-today-to-the-past/

Übersetzt von Christian Freuer für das EIKE