Die Entwicklung der Windgeschwindigkeit in Teilen Deutschlands im aktuellen Klimaoptimum seit 1988 – Teil 4

Teil 4: Die Entwicklung der Windgeschwindigkeit an den Küsten und im nordwestdeutschen Binnen-Tiefland: Überwiegend Abnahmen

Stefan Kämpfe

Überwiegend Windabschwächung in weiteren Teilen Deutschlands

Im dritten Teil dieser Serie über die Entwicklung der Windgeschwindigkeit wurde die Windabnahme im Binnen-Tiefland Nordostdeutschlands erörtert. Nun soll es um die Küstenregion und um das Nordwestdeutsche Binnen-Tiefland gehen.

Einführung

Ostseeküste: Leichte Windabnahme sehr wahrscheinlich

Zuerst ein Blick auf die problematische Station Barth.

Abbildung 1: Die Station Barth wurde dreimal verändert, aber nur der Ortswechsel vom Mai 2007 hatte offenbar gravierende Folgen und bewirkte – über den Gesamtzeitraum betrachtet, eine nicht reale Windzunahme.

Abbildung 2: Auch an der Ostseeküste weht der Wind schwächer – die fehlerhafte Station Barth ist mit enthalten.

Ohne Barth wird die Abnahme deutlicher.

Abbildung 3: Ohne Barth kommt die Abnahme der des Nordostdeutschen Binnen-Tieflands nahe; der Windsprung zur Jahrtausendwende ist aber an der Ostsee weniger deutlich.

Die Nordseeküste: Wahrscheinliche Windabnahme

Abbildung 4: Die ermittelte Geschwindigkeitsabnahme an der Nordsee ist unsicher. Man achte auf den markanten Windsprung zur Jahrtausendwende und auf das erstaunlich windschwache letzte Jahr 2023.

Abbildung 5: Fast kontinuierlicher, starker Rückgang der Windgeschwindigkeit in De Kooy. Der Windsprung zur Jahrtausendwende war hier nur schwach, ebenso der Wind im Jahr 2023.

Die Küste insgesamt – wahrscheinlich Rückgang der Windstärke

Die Zusammenschau von Nord- und Ostsee zeigt eine doch eher wahrscheinliche Windabnahme.

Abbildung 6: Mäßige Windabnahme, ein Windsprung zur Jahrtausendwende und ein recht windschwaches Jahr 2023 kennzeichnen das Windverhalten der deutschen Küstenregion.

Abbildung 7: Ab 1997 (mit Emden) wurde der Wind an den Küsten schwächer.

Vermutlich kein Trend im Nordwestdeutschen Binnen-Tiefland?

Abbildung 8: Kein Trend im nordwestdeutschen Binnentiefland. Gut erkennbar sind der Windsprung um die Jahrtausendwende sowie ein relativ windreiches Jahr 2023.

Abbildung 9: Entwicklung des Luftdruck-Gefälles (Hektopascal) zwischen 50 und 55° Nord entlang des Längengrades 7,5° Ost und das Jahresmittel der Windgeschwindigkeit der neun nordwestdeutschen Binnentiefland-Stationen 1988 bis 2023. Gute 46% der Windgeschwindigkeits-Variabilität wurden von der Größe des Luftdruck-Gefälles bestimmt, das ist signifikant.

Eine andere Erklärungsmöglichkeit für die fehlende Windabnahme ist die Häufigkeitszunahme der Großwetterlagen mit südlichem Strömungsanteil, welche erfahrungsgemäß im Westen Mitteleuropas etwas mehr Wind bringen als im Osten. Sie könnten andere Einflüsse auf die Windgeschwindigkeit kompensiert haben, sicher ist das aber nicht.

Abbildung 10: Häufigkeitszunahme von Großwetterlagen mit südlichem Strömungsanteil seit 1988; diese sind in Nordwestdeutschland meist etwas windiger.

Ein Kurzausflug nach Holland

Abbildung 11: Ein sehr windreiches Jahr 1998, der schon bekannte Windsprung um 2000 sowie ein recht windreiches Jahr 2023 kennzeichnen die Windentwicklung seit 1988 an der Station Eindhoven in Holland.

In Holland stehen die Zeichen ebenfalls auf Windabnahme – später wird darüber näher berichtet.

(wird später fortgesetzt)

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher

 




Eine Erwiderung auf Kritik an meiner Serie zu Klimamodellverzerrungen

Andy May in Climate Change

David Calver hat eine Kritik an meiner siebenteiligen Serie über Klimamodellverzerrungen veröffentlicht. Seine Kritik finden Sie hier.

Das erste, von Calver immer neu wiederholte Problem in der Kritik ist seine Vermutung, dass ich meine Quellen nicht richtig angegeben habe. Ich weiß nicht, wie ihm das entgehen konnte, wenn er die Beiträge durchgelesen hat, aber am Ende aller sieben Beiträge steht diese Zeile:

Download the bibliography here.

Dies ist ein Link zum Herunterladen einer PDF-Datei mit dem vollständigen Literaturverzeichnis für alle sieben Beiträge, die Zeile befindet sich am Ende eines jeden Beitrags der Reihe. Es könnte sein, dass Calver keinen der Beiträge bis zum Ende gelesen und ihn deshalb übersehen hat. In jedem Fall können Sie die Bibliographie der Serie jetzt herunterladen, indem Sie auf das obige „here“ klicken. Die Bibliographie für diesen Beitrag ist die gleiche.

Part 1 (in deutscher Übersetung hier)

Abgesehen von diesem Versehen richtet sich die erste Kritik von Calver gegen meine Beschwerde, dass die kürzlich entdeckten Ozeanschwingungen von den Klimamodellen nicht richtig wiedergegeben werden. Dies ist wichtig, weil diese Oszillationen eng mit Klimaveränderungen zusammenhängen (Vinós, 2022, S. 189). Er springt dann von allen Ozeanschwingungen (es gibt viele) zu meinem einen Beispiel, dass die Nordatlantische Oszillation (die „NAO“) in den CMIP-Klimamodellen in Teil 1 nicht von weißem Rauschen zu unterscheiden ist (Eade, et al., 2022).

Dann beginnt er mit einer langen Diskussion über die NAO, die sinnlos ist, da sie nur ein Beispiel von Dutzenden möglicher Beispiele war. Die beste Diskussion über die kürzlich entdeckten Ozeanschwingungen und ihre Bedeutung für das langfristige Klima (>30 Jahre) ist Wyatt und Curry, 2014. Eine weitere gute Quelle ist das Buch von Javier Vinós (Vinós, 2022, Seiten 181-190). Eine Diskussion der verschiedenen Ozeanschwingungen würde den Rahmen dieses Beitrags oder meiner Serie sprengen und wird an anderer Stelle sehr gut behandelt. Es genügt zu sagen, dass Ozeanschwingungen das Klima auf der dekadischen Zeitskala sehr gut vorhersagbar machen.

Die „Stadionwelle“ von Wyatt und Curry beschreibt recht gut, was während des ~65-jährigen Klimazyklus‘ der Erde geschieht. Die Reihe der Klimaereignisse beginnt mit dem arktischen Meereis (ihre Gruppe 1) und geht dann über in das, was sie als Gruppe 2 bezeichnen, die von der Arktischen Oszillation und der Nordatlantischen Oszillation (NAO) dominiert wird, so dass die NAO zwar nicht am Anfang des gesamten Klimazyklus‘ steht, aber ein früher Teil desselben ist. Wie alles im Erdklima ist auch die Gesamtklimaschwingung kompliziert, die sich aus den einzelnen Ozeanschwingungen zusammensetzt, aber es ist eine faszinierende Geschichte. Ich empfehle die Lektüre von Wyatt und Curry sowie von Vinós‘ Buch.

Einer der besten Indikatoren für die Schwäche der CMIP-Klimamodelle ist die Tatsache, dass sie diese wichtigen Klimaindikatoren nicht reproduzieren oder als Input verwenden. Siehe zum Beispiel die Diskussion über die „AMV“ (AMV ist das, was AR6 die AMO nennt) in AR6 WGI Seite 504. Das „AMV-ähnliche“ Signal in den Klimamodellen ist zu schwach, hier ein Zitat aus AR6:

„Im Durchschnitt ist die Dauer der modellierten AMV-Episoden zu kurz, das Ausmaß der AMV ist zu schwach und ihre Ozean-weite SST-Raumstruktur ist durch die schlechte Darstellung der Verbindung zwischen dem tropischen Nordatlantik und dem subpolaren Nordatlantik/Nordmeer begrenzt. Solche Diskrepanzen zwischen der beobachteten und der simulierten AMV werden mit intrinsischen Modellverzerrungen sowohl im mittleren Zustand als auch in der Variabilität des Ozeans und der darüber liegenden Atmosphäre in Verbindung gebracht. Zum Beispiel unterschätzen die CMIP5-Modelle im Vergleich zu den verfügbaren Beobachtungsdaten das Verhältnis von dekadischer zu interannualer Variabilität der Haupttreiber der AMV, nämlich der AMOC, der NAO und der damit verbundenen nordatlantischen Jet-Variationen … was starke Auswirkungen auf die simulierte zeitliche Statistik der AMV, die AMV-induzierten Telekonnektionen und die Vorhersagbarkeit der AMV hat.“ AR6, Seite 504

Ein Punkt, auf den ich und andere bereits hingewiesen haben ist, dass ihre Modelle falsch sind, wenn sie diese wichtigen Schwingungen nicht korrekt modellieren können.

Calver kommt zu dem Schluss, dass mein Teil 1 „ein herausgepicktes Ablenkungsmanöver war, das mit sehr schlechter Wissenschaftlichkeit präsentiert wurde“. Offensichtlich hat er sich ein Beispiel herausgepickt, es in einen Strohmann verwandelt, um es anzugreifen, und hat den offensichtlichen Link zur Bibliographie am Ende des Beitrags völlig übersehen, wahrscheinlich weil er nicht alles gelesen hat.

Teil 1 schließt zum Teil ab:

Alle Modelle des AR6, sowohl die klimatischen als auch die sozioökonomischen, weisen erhebliche Diskrepanzen zwischen Modell und Beobachtungen auf. Im Laufe der Zeit haben die Modellierer und Autoren immer wieder neue Entwicklungen in der Klimawissenschaft und der Ökonomie des Klimawandels ignoriert, da ihre „Überausarbeitung und Überparametrisierung“ immer extremer wurde. Während sie ihre Modelle immer weiter ausarbeiten, ignorieren sie nach und nach immer mehr neue Daten und Entdeckungen, um ihre scheinbare „Unsicherheit“ zu verringern und ihre angebliche „Zuversicht“ zu steigern, dass der Mensch den Klimawandel verursacht. Es ist ein falsches Vertrauen, das auf den Bestätigungs- und Berichterstattungsfehler sowohl in den Modellen als auch in den Berichten zurückzuführen ist. – Teil 1

AR6 hat deutlich gemacht, dass das Ignorieren der Diskrepanz zwischen Modellen und Beobachtungen weitergeht und weitergehen wird (AR6, Seite 504).

Part 2 (in deutscher Übersetzung hier)

Calvers Kritik an Teil 2 dreht sich um seine Überzeugung, dass die entscheidenden, in der AR6-Berechnung der Gleichgewichts-Klimaempfindlichkeit gegenüber CO₂ entdeckten mathematischen Fehler unwichtig sind. Er glaubt auch, dass die fehlerhafte subjektive IPCC-Berechnung einer Spanne von 2-5°C sich nicht allzu sehr von Nic Lewis‘ korrigierter und objektiver Berechnung von 1,75-2,7°C unterscheidet. In diesem Punkt sind wir anderer Meinung.

Calver scheint ein Problem mit meiner Aussage zu haben, dass die Schlussfolgerung des AR6, wonach sich die CO₂-bedingte Erwärmung in den letzten 150 Jahren radikal verändert hat, eine sehr verzweifelte Schlussfolgerung ist (AR6, Seite 996). Dies wird in Crok und May (2023) in Kapitel 7 und im Anhang zu diesem Kapitel ausführlich erörtert.

Er widerspricht auch meiner Aussage, dass der Anteil der auf den Menschen zurückzuführenden Erwärmung unbekannt ist, aber irgendwo zwischen null und 100 % liegt. Dies ist die Schlussfolgerung von zwei sehr wichtigen, von Experten begutachteten Arbeiten, Connolly et al. (2021) und Connolly et al. (2023).

Part 3 (in deutscher Übersetzung hier)

Seine erste Beschwerde über Teil 3 bezieht sich auf meine Aussage, dass das IPCC immer noch von einer konstanten Sonne ausgeht, und er scheint zu glauben, dass dies auf der Arbeit von Bob Irvine beruht. Offensichtlich hat er sehr schlechte Lesefähigkeiten. Diese Aussage stützt sich auf das AR6-Zitat ganz oben in Beitrag 3, wo dies ausdrücklich gesagt wird, das Zitat ist von Seite 962. Ich habe in diesem Zusammenhang nie etwas über Bob Irvine gesagt.

Er fährt fort zu sagen, dass Irvines Arbeit abgewertet werden sollte, weil sie nicht in einer Fachzeitschrift veröffentlicht wurde, was nicht stimmt, da die Bibliographie eindeutig besagt, dass Irvines ursprüngliche Arbeit in diesem von Experten begutachteten Band veröffentlicht wurde: Heat Transfer XIII: Simulation and Experiments in Heat and Mass Transfer.

Als Nächstes sagt er, dass die IPCC-Berichte die solare Variabilität abdecken, wobei er geschickt den von mir erwähnten Zeitraum von 1750-2019 in „Jahrtausende“ ändert. Sein Zitat sagt dasselbe aus wie mein Zitat und meine Abbildung 2 (AR6 S. 961, Abbildung 7.7): Das IPCC ignoriert mögliche solare Einflüsse auf das Klima von 1750 bis 2019. Calver scheint nicht zu verstehen, was ich oder der IPCC geschrieben haben.

Als Nächstes führt er verschiedene Blogeinträge auf, in denen die von Experten begutachteten Arbeiten kritisiert werden, die ich in meiner Bibliographie anführe; alle Blogeinträge haben sich an anderer Stelle als falsch erwiesen und sind es nicht wert, hier diskutiert zu werden.
Seine Schlussfolgerung zu Teil 3: „Schall und Rauch, keine glaubwürdigen Beweise“. Wenn man bedenkt, dass die meisten meiner Beweise aus AR6 stammen, scheint er zu sagen, dass AR6 nicht glaubwürdig ist.

Part 4 (in deutscher Übersetzung hier)

Er versucht, die vielen von Experten begutachteten Veröffentlichungen von Chris Scotese mit einem Blogbeitrag von realclimate.org zu diskreditieren, einer ziemlich schäbigen Alarmistenseite, die stark kritisiert wurde (siehe hier, hier und hier). Chris Scotese ist ein führender Geologe mit vielen Veröffentlichungen und 23.859 Referenzen laut Google Scholar. Es genügt zu sagen, dass Sie eine Mücke auf einem Elefanten sind, wenn man sich auf die Kritik von realclimate.org an einem herausragenden Wissenschaftler wie Chris Scotese verlässt. Niemand glaubt Beiträgen auf jener Seite, ich jedenfalls ganz sicher nicht.

Part 5 (in deutscher Übersetzung hier)

Er beginnt damit, dass er behauptet, das von Marcel Crok und mir herausgegebene Buch The Frozen Climate Views of the IPCC, sei nicht von Fachleuten geprüft worden, was Unsinn ist, denn jeder Teil des Buches wurde von mindestens zwei und im Allgemeinen von vier Klimawissenschaftlern geprüft.

Calver hat meine Bibliographie immer noch nicht gefunden, obwohl sie am Ende jedes Beitrags verlinkt ist, und er behauptet, er könne eine Arbeit, auf die ich mich beziehe, nicht finden. Ich habe den Verweis in meiner Bibliografie ausgeschnitten und in Google Scholar eingefügt, und voila! Da war es! Hier ist der Link.

Er versucht weiterhin, von Experten begutachtete Forschungsergebnisse mit alarmistischen Blogbeiträgen zu widerlegen, aber diesen Teil ignorieren wir. Er bestreitet meine Bemerkungen, dass es eine große Menge an Beweisen dafür gibt, dass die Sonnenvariabilität das Klima beeinflusst, obwohl das sicherlich stimmt. Ich verweise den Leser und Calver auf das Buch von Hoyt und Schatten, den hervorragenden Bericht von Joanna Haigh sowie Connolly et al. (2021). Sie alle sind in der Bibliographie aufgeführt, die Calver aus irgendeinem Grund nicht finden konnte.

Was die AR6-Modelle betrifft, die viel zu heiß laufen. Das ist direkt aus AR6, Seite 444, wie in Teil 5 zitiert.

Calvers Lesefähigkeiten sind außerordentlich schlecht.

Part 6 (in deutscher Übersetzung hier)

Calver gefällt meine Kritik an der nicht belegten Schlussfolgerung des AR6 nicht:

„Es ist eindeutig, dass der menschliche Einfluss die Atmosphäre, die Ozeane und das Land erwärmt hat. Weitreichende und schnelle Veränderungen in der Atmosphäre, dem Ozean, der Kryosphäre und der Biosphäre sind eingetreten.“ – Calver’s Blogbeitrag und AR6, Seite 4

Die Quintessenz ist, dass es für diese Schlussfolgerung des IPCC keine anderen Beweise gibt als ihre Modelle, und meine ganze Serie handelt davon, wie verzerrt und unzuverlässig diese Modelle sind. Calver erklärt mit religiöser Inbrunst: „die grundlegenden Fakten des AGW sind über jeden vernünftigen Zweifel erhaben (trotz der versuchten Aussaat von FUD durch Anti-AGW-Desinformations-Propagandisten).“

Es gibt jede Menge Zweifel an der ganzen AGW-Ideologie (anthropogene globale Erwärmung), denn AGW wurde nie beobachtet oder gemessen, sondern nur modelliert. Wir können nicht einmal sicher sein, dass es überhaupt existiert, es ist nur eine vernünftige Hypothese, dass der Mensch einen gewissen Einfluss auf das Klima haben könnte, mehr nicht.

Anschließend wird Bjorn Lomborgs berühmte und begutachtete Studie aus dem Jahr 2020 in einem weiteren alarmistischen Blogbeitrag (dem notorisch schlechten granthaminstitute) in den Schmutz gezogen. Dann zitiert er Desmog und seine eigenen Blogbeiträge, allerdings nichts Glaubwürdiges. Ich werde das alles ignorieren.

Part 7

Zu Teil 7 hat er nicht viel zu sagen, aber Calver lästert über den Wirtschaftsnobelpreisträger William Nordhaus, genau wie bei AR6. Sorry, ich halte William Nordhaus für einen der besten Wirtschaftswissenschaftler unserer Zeit. Nordhaus ist eine Art Lukewarmer und meint, dass man sich mit dem Klimawandel befassen sollte, und da stimme ich nicht mit ihm überein, aber er ist ein kluger Mann und hat einen Nobelpreis gewonnen. Zeigen Sie etwas Respekt.

Zusammenfassung

Calver hat meine Beiträge offensichtlich nicht sehr sorgfältig gelesen. Ich bin überrascht, dass er alle sieben Beiträge lesen konnte und den Link zur Bibliographie nicht gefunden hat, obwohl er am Ende jedes Beitrags stand! Er sollte weniger schreiben und sorgfältiger lesen.

Er beschwert sich, dass viele meiner Behauptungen nicht belegt sind, aber alles, worüber er sich beschwert, wurde in den Fußnoten und in der Bibliographie mit begutachteten Referenzen belegt. Seine gegenteiligen Behauptungen stammten im Allgemeinen aus sehr voreingenommenen und unzuverlässigen Blogs wie realclimate und desmog.

Ich war nicht in der Lage, auch nur eine einzige Behauptung von ihm zu finden, die glaubwürdig war.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2024/03/13/a-rebuttal-to-a-critique-of-my-climate-model-bias-series/

Übersetzt von Christian Freuer für das EIKE

 




Aiwanger löste unser Klimaproblem in 27 Sekunden und liegt dabei nur mindestens um den Faktor 100.000 daneben

Helmut Kuntz

Beim Klimawandel gibt es wirklich keinen extremsten Unsinn, der nicht voller Stolz publiziert würde. Das wäre nicht ganz so schlimm, wenn es nur die zunehmend politisch agierende „Wissenschaft“ machen würde. Leider jedoch hat sich dieser Wahnsinn längst in den Köpfen unserer politischen Entscheider „eingenistet“, wie es beispielsweise Hubert Aiwanger exemplarisch belegte*.

Ein bisschen Wald fürs Klima pflanzen und Deutschland hätte seine Emission auf Null reduziert…

…sagte Hubert Aiwanger 2019 in der BR-Talkshow „Münchner Runde“ (Ausschnitt): (Aiwanger löst Klima-Problem in 27 Sekunden! (youtube.com)

Dabei erzählte er dem staunenden Publikum, dass 25 Quadratkilometer Wald jährlich ca. eine Milliarde Tonnen CO₂ speichern würden. Rechnet man diese Aussage überschlägig nach, dann würde 1 Hektar Wald jährlich 400.000 t CO₂ speichern.

Anhand der Daten in einer Publikation von statista, also einer Bundesbehörde (3 % der jährlichen CO₂-Emissionen werden netto vom Wald absorbiert – Statistisches Bundesamt (destatis.de) lässt sich grob herausrechnen, welche jährliche CO₂-Speicherung das statistische Bundesamt für den Wald annimmt. Es ergibt sich ein Wertebereich pro Hektar zwischen 2,73 … 4,1 t CO₂/Jahr.

Der dpa-Faktenchecker hat sich des Themas ebenfalls angenommen (Aiwanger rechnete falsch – Wald müsste größer sein als Deutschland, um CO₂-Ausstoß aufzunehmen (dpa-factchecking.com) und kommt für die von Aiwanger als „Jahreslösung“ genannte 25 Quadratkilometer Waldfläche auf 6000 Tonnen CO₂-Senkenwirkung, also pro Hektar auf 2,4 t CO₂/Jahr, womit sich der „amtliche“ Wertebereich pro Hektar Wald auf 2,4 … 4,1 t CO₂/Jahr erweitert.

Wenn man nun die Werte pro Hektar Wald (Hubert Aiwanger: 400.000 t CO₂/Jahr, „offizielle“ Angaben: 2,4 … 4,1 t CO₂/Jahr) miteinander vergleicht, muss man sich fragen, mit welcher (Ein)Bildung ein Minister eigentlich herumläuft und sich sogar traut, in eine Talkshow zu gehen. Auch, ob es in seinem Ministerium mit ca. 1000 gutbezahlten Beschäftigten niemanden gibt, der seinem Chef wenigsten etwas genauere Zahlen hätte mitgeben können.

Nun sagt Herr Aiwanger in der Talkshow mit sichtlichem Stolz, er selbst hätte es abgeschätzt und gehört zudem zu den Politikern, welche sogar ein abgeschlossenes Studium vorweisen können.
Zur „Berechnung“ ist an Mathematik nicht mehr als einfacher Dreisatz erforderlich. Aber das „Pisaproblem“ hat wohl viel, viel früher und weit stärker zugeschlagen, als man jemals ahnte. Sollte diese These nicht stimmen, bliebe eigentlich nur eine andere Erklärung übrig: Politik macht dumm.

Unabhängig davon, was nun die wirkliche Erklärung für eine solche Aussage ist. – Sie erklärt, warum unsere Politikkaste zunehmen rational nicht mehr nachvollziehbare Entscheidungen trifft.

Die GRÜNen haben im Bayerischen Landtag übrigens dazu nachgefragt: Bayerischer Landtag 26.05.2023 Drucksache 18 / 27886
Die Antwort von Aiwangers Staatsministerium für Wirtschaft, Landesentwicklung und Energie:
– Die Äußerungen wurden im Oktober 2019 getätigt. Zum jetzigen Zeitpunkt – mehr als drei Jahre später – sind Details zu den Hintergründen nicht mehr rekonstruierbar.
– Der Diskussionsbeitrag wies darauf hin, dass neben geringeren CO₂ -Emissionen auch die Bindung von CO₂ in Wäldern zum Klimaschutz beiträgt. Wie viel CO₂ weltweit durch Aufforstung gebunden werden kann, war seinerzeit Gegenstand wissenschaftlicher Debatten.
Die Staatsregierung strebt sowohl eine Verringerung von CO₂ -Emissionen als auch eine verstärkte Bindung von CO₂ in natürlichen Speichern an.

Mit dieser arroganten – nicht entfernt die Aussage (er)klärenden oder darauf eingehenden – Antwort muss man sich doch „verschaukelt“ und „bürgerdelegitimiert“ vorkommen.

Nun muss man Herrn Aiwanger „zugute“ halten, dass er im Politikervergleich damit noch nicht einmal ganz besonders hoch daneben lag.

Unsere Annalena als ausgewiesene Fachperson verkündete einst, jeder deutsche Bürger würde jährlich 9 Gigatonnen CO₂-emittieren. In Wirklichkeit sind es 8 Tonnen. Ihre Fehlerdifferenz beträgt also
9×10
9:8, ausgeschrieben 9000.000.000:8, also noch zusätzliche, vier Fehler-Nullen mehr vor dem Komma als bei Herrn Aiwangers Abschätzung.
Allerdings hatte Annalena nicht behauptet, dies selbst abgeschätzt zu haben. Man weiß, dass sie gerne etwas irgendwo aufschnappt (und leider nicht immer versteht) und dann einfach nachplappert, in der Meinung, das wäre „Kompetenz“. Ist sie halt von Partei(tags)reden gewöhnt, wo nicht Inhalte, sondern alleine die ideologische Ausrichtung bewertet wird.

Solche „Erkenntnispolitik“ kann gravierende Folgen haben. Man denke nur an unsere Autobauer.
(Ganz) böse Zungen flüstern, dass diese damals, als die deutsche Politik die Verschärfung der EU-Abgasvorschriften noch mindern wollte, denen sagte, dies bitte nicht zu tun.
Begründung: Sie hätten Lösungen dafür, die ausländischen Autobauer aber eher nicht. Es würde also eher die Konkurrenz treffen (was meiner Konkurrenz mehr schadet als mir, ist positiv).

Die tolle „Lösung“ wurde dann (von den Amis) „reklamiert“, verklagt, auf einmal von allen als unzulässig befunden und endete mit unglaublichen Folgekosten (je nach Quelle zwischen 75 … 170 Milliarden EUR). Gibt es in der Politik inzwischen auch.Dort nennt man so etwas im Ampel-Neusprech „Sondervermögen“.

Eine ähnliche Gefahr besteht, beziehungsweise wird (nicht nur) beim Kampf gegen das sich schon immer verändernde Klima und das Wenden der Energie längst umgesetzt, wenn unsere Politiker „ganz einfache Lösungen“ im Kopf haben und damit über in Wirklichkeit fast unlösbare Forderungen entscheiden.

*Anmerkung
Der Vorgang ist inzwischen schon etwas älter, aber beileibe keine „Jugendsünde“, denn Herr Aiwanger hatte zum damaligen Zeitpunkt bereits ein Ministeramt in Bayern. Er wurde aktuell über Medien erneut publiziert und gelangte so zum Autor. Weil er so extrem, aber gerade dadurch symptomatisch ist, „erklärt“ er, warum inzwischen so viele politische Entscheidungen getroffenen werden, die jeglichem technischen Sachverstand Hohn sprechen.




Das Klima-Optimum im Holozän und „vorindustriell“

Andy May

Das „vorindustrielle Zeitalter“, so der IPCC in einer Fußnote auf Seite 43 des AR6 WGI, liegt bei den Strahlungseffekten vor 1750 und bei der Temperatur vor 1850. Beide Daten liegen innerhalb des Zeitraums, der gemeinhin als Kleine Eiszeit bezeichnet wird.

Die Kleine Eiszeit war eine brutale und schlimme Zeit für die Menschheit, aber nichtsdestotrotz hat sich der IPCC dafür entschieden, den „Klimawandel“ anhand der Veränderung der globalen durchschnittlichen Temperatur aus dieser Zeit zu messen und zu definieren. Sie sprechen von Gefahren, wenn wir 1,5 bis 2 Grad über der „vorindustriellen“ Periode liegen. Diese numerischen Grenzwerte haben keine wissenschaftliche Grundlage, aber sie werden trotzdem festgelegt.

Dann haben sie das Problem des holozänen Klimaoptimums (Holocene Climate Optimum, HCO). Dieser Zeitraum von etwa 8.000 v. Chr. bis 4.200 v. Chr. (siehe Abbildung 1) war nach weit verbreiteter Ansicht wärmer als heute, basierend auf Daten über Gletschervorstoß und -rückgang sowie auf Sonneneinstrahlungsmodellen für Temperaturen auf der ganzen Welt (Abbildung 2). Bova, et al. (2021) haben versucht zu behaupten, dass es im holozänen Klimaoptimum tatsächlich kälter war als heute, aber die Arbeit hat zwei ernsthafte Kritiken auf sich gezogen (siehe Laepple, et al., 2022 und Zhang & Chen, 2021 in der Bibliographie) und wurde grundlegend überarbeitet. Bova et al. sind nicht sehr glaubwürdig, und es ist wahrscheinlich, dass die von ihnen verwendete Methode sehr fehlerhaft war. Ein früherer Beitrag zu dieser Studie erschien bei WUWT, er wurde geschrieben, bevor die kritischen Antworten von Nature veröffentlicht worden sind.

Abbildung 1. Hier werden zwei Rekonstruktionen von Temperaturproxys verglichen. Die orangefarbene Rekonstruktion ist die höhenkorrigierte Rekonstruktion der Grönlandtemperatur aus Eisbohrkernen von Vinther (2009). Die schwarze Rekonstruktion stammt von Rosenthal (2013) und ist seine Rekonstruktion der Temperatur in 500 Meter Tiefe in der Makassar-Straße, Indonesien. Es wird angenommen, dass sie die Meerestemperaturen im Nordpazifik repräsentiert.

Bova, et al. schreiben in ihrer Studie:

„Proxy-Rekonstruktionen aus maritimen Sedimentkernen deuten auf Temperaturspitzen in der ersten Hälfte der letzten und der aktuellen Zwischeneiszeit hin (die thermischen Maxima des Holozäns vor 10.000 bis 6.000 Jahren und der letzten Zwischeneiszeit vor 128.000 bis 123.000 Jahren), die wohl die heutige Wärme übersteigen. Im Gegensatz dazu simulieren die Klimamodelle eine monotone Erwärmung während beider Perioden. Diese erhebliche Diskrepanz zwischen Modell und Daten untergräbt das Vertrauen in Proxy-Rekonstruktionen und Klimamodelle und verhindert ein meteorologisches Verständnis des jüngsten Klimawandels.“Bova, et al., 2021

Bova, et al. versuchen zu argumentieren, dass frühere Modelle und Rekonstruktionen globaler Temperaturproxies saisonale mit jährlichen Temperaturen verwechselten und dass die Temperaturen während des holozänen Klimaoptimums tatsächlich niedriger waren als heute. Im Wesentlichen glauben Bova und Co., dass die Modelle richtig und die Daten falsch sind.

Bova et al. konstruierten ein Modell, um saisonale Temperaturaufzeichnungen in jährliche Temperaturaufzeichnungen umzuwandeln. Ihre Kritiker zeigen, dass die Transformation fehlerhaft ist, weil sie davon ausgeht, dass das Klima das ganze Jahr über gleich empfindlich auf die Sonneneinstrahlung reagiert und dass äußere Einflüsse, z. B. Treibhausgase, unabhängig von der Jahreszeit sind und sich gleichmäßig über ein Kalenderjahr verteilen. Diese Annahmen bestimmen das Ergebnis des Modells, wie Laepple et al. zeigen. Darüber hinaus gehen Bova et al. davon aus, dass die Reaktion des Klimas auf die Sonneneinstrahlung linear ist, obwohl bekannt ist, dass sie nichtlinear ist (Laepple et al.). Der IPCC macht oft den gleichen Fehler.

Schließlich ignorieren Bova et al. die Auswirkungen der internen Rückkopplungs-Prozesse der Erde, was dazu führt, dass ihr Modell die Saisonalität überkorrigiert (Zhang & Chen, 2021). Kurz gesagt, Bova et al. haben ein sehr kompliziertes Problem zu stark vereinfacht, sind über ihre Daten hinausgegangen und haben deshalb die falschen Schlussfolgerungen gezogen. Schauen wir uns nun einige andere Studien an, die eine andere Sichtweise vertreten.

Globale und hemisphärische Temperatur-Rekonstruktionen aus mehreren Proxies sind sehr problematisch. Besser ist es, einzelne Proxies mit den modernen Temperaturen am Standort des Proxies zu vergleichen (siehe hier). Es gibt mehrere hundert Proxy-Temperaturaufzeichnungen auf der ganzen Welt. Wir haben viele von ihnen und ihre Verteilung bereits in einer vierteiligen Serie hier beschrieben. Sie alle liefern Temperaturschätzungen mit unterschiedlicher zeitlicher Auflösung, manche eine Temperatur pro Jahr, manche alle zehn oder zwei Jahre, und manche nur eine Temperatur für alle 100 oder 200 Jahre. Viele sind nur für den Sommer relevant, andere nur für den Winter und so weiter. Einige schätzen die Lufttemperatur, andere die Meerestemperatur in unterschiedlichen Tiefen. Wenn man sie zu einem globalen oder hemisphärischen Datensatz zusammenfasst, glätten sie die Spitzen und Täler. Die daraus resultierende Aufzeichnung ist sehr grob und kann nicht mit den täglichen Messwerten der Lufttemperatur verglichen werden, die uns heute zur Verfügung stehen. Die Aussage, dass sich die Erde vor Tausenden von Jahren im Vergleich zu heute langsamer oder schneller erwärmt hat, ist daher bedeutungslos, da man das nicht wissen kann. Darüber hinaus ist der Vergleich einer heutigen globalen Durchschnittstemperatur mit einem „globalen“ oder „hemisphärischen“ Durchschnitt verschiedener Proxies vor Tausenden oder Millionen von Jahren ein sinnloser Vergleich.

In Abbildung 1 sehen wir, dass zwei hochwertige Temperaturproxies, eines aus Grönland und eines aus dem tropischen Indonesien erstaunlich gut übereinstimmen – rund 15.300 km voneinander entfernt. Beide zeigen eine Abkühlung von etwa 3,5 bis 4°C von ihren Höchstwerten im holozänen Klimaoptimum bis zu ihren kältesten Punkten in der kleinen Eiszeit („vorindustriell“). Trotz oder vielleicht gerade wegen dieser Wärme entwickelte sich die menschliche Zivilisation während des holozänen Klimaoptimums. Zu dieser Zeit erblühten die neolithische Landwirtschaft und die Siedlungen, die sich im Nahen Osten weit verbreiteten und fest etablierten. Wir sehen also, dass 3,5 bis 4 °C Erwärmung gegenüber der „vorindustriellen“ Zeit für die Menschen im Nahen Osten kein Problem darstellten.

Da die HCO durch Veränderungen der Erdbahncharakteristik verursacht wurde (siehe hier, Abbildung 2), waren die Auswirkungen in den verschiedenen Teilen der Erde und in den verschiedenen Jahreszeiten unterschiedlich. Dies ist ein Punkt, der sowohl in der möglicherweise fehlerhaften Arbeit von Bova als auch in einer anderen Arbeit von Renssen et al. über das Holozäne Thermische Maximum (ein anderer Name für das Holozäne Klimaoptimum) angesprochen wird.

Renssen et al. verwendeten ein Modell, um den Zeitpunkt des Temperaturmaximums im Vergleich zur Kleinen Eiszeit/vorindustriellen Periode an zahlreichen Orten zu berechnen. Er fasst diese Daten in unserer Abbildung 2 zusammen:

Abbildung 2. Simulierte Höchsttemperaturen während der Kleinen Eiszeit/vorindustriellen Periode nach Breitengrad (Y-Achse) und Zeitalter in Tausenden von Jahren vor 1950 (X-Achse). Die stärkste Erwärmung, etwa fünf Grad, ist in den höheren Breitengraden zu verzeichnen, die geringste Erwärmung in den Tropen. Der grüne Pfeil zeigt den Monat an, in dem die maximale Erwärmung in den einzelnen Breitengraden stattfand.

Wie Abbildung 2 zeigt, fielen die Daten der maximalen Erwärmung, zumindest nach Renssens Modell, alle in den späteren Teil des holozänen Klimaoptimums. Die Erwärmung ist in der Polarregion der nördlichen Hemisphäre stärker als anderswo. Sowohl das Modell von Renssen als auch das von Bova berücksichtigen die Auswirkungen der schmelzenden Gletscher, die von der letzten Eiszeit vor 9000 v. Chr. übrig geblieben sind.

Renssens Sonneneinstrahlungsmodell für das Holozän stimmt mit den von Olga Solomina und Kollegen dokumentierten globalen Gletschervorstößen überein. Sowohl Renssen als auch Solomina gehen davon aus, dass die maximale Erwärmung im holozänen Klimaoptimum auftrat und es sich danach allmählich bis zur Kleinen Eiszeit abkühlte, wobei eine gewisse Erwärmung aus den Tiefen der Kleinen Eiszeit kam.

Zusammenfassung

Abbildung 1 zeigt zwar nur zwei Temperaturproxy-Aufzeichnungen über das Holozän, und beide sind für die nördliche Hemisphäre, aber sie sind ca. 15.280 km voneinander entfernt und zeigen beide, dass das holozäne Klimaoptimum in der nördlichen Hemisphäre um etwa vier Grad wärmer war als die kleine Eiszeit/vorindustrielle Zeit. Der Höhepunkt der Erwärmung fiel mit der Entwicklung einer modernen Agrarzivilisation zusammen. Es stimmt auch mit Renssens Sonneneinstrahlungsmodell für diesen Zeitraum überein, welches ein holozänes Klimaoptimum modellierte, das in den höheren Breiten der nördlichen Hemisphäre fünf Grad wärmer war als die Kleine Eiszeit.

Die Ergebnisse von Renssen stimmen sehr gut mit den von Solomina gesammelten Daten zum globalen Gletschervorstoß überein. Beide stellten einen frühen holozänen Rückzug der Gletscher sowohl in der südlichen als auch in der nördlichen Hemisphäre fest, obwohl die modellierte Erwärmung in der nördlichen Hemisphäre größer war. Die zeitliche Übereinstimmung zwischen dem Sonneneinstrahlungsmodell von Renssen und dem Gletschervorstoß von Solomina ist bemerkenswert.

Kurz gesagt, es scheint sehr wahrscheinlich, dass es im holozänen Klimaoptimum wärmer war als während der Kleinen Eiszeit und wärmer als heute, wobei die Beweise dafür in der nördlichen Hemisphäre am überzeugendsten sind.

Download the bibliography here.

Link: https://andymaypetrophysicist.com/2024/03/15/the-holocene-climatic-optimum-and-the-pre-industrial/

Übersetzt von Christian Freuer für das EIKE

 




Die Entwicklung der Windgeschwindigkeit in Teilen Deutschlands im aktuellen Klimaoptimum seit 1988 – Teil 3

Teil 3: Die Entwicklung der Windgeschwindigkeit in nordostdeutschen Binnen-Tiefland. Die Windenergienutzung – ein Windkiller?

Und: Folgte dem Klimasprung von 1988 ein Windsprung „nach unten“ zur Jahrtausendwende?

Stefan Kämpfe

„Man erkennt das Wetter am Winde, so wie den Herren am Gesinde“ – doch seit man die Windgeschwindigkeit auch messen kann, lassen sich daraus interessante Rückschlüsse ziehen. In diesem Teil werden wir sehen, wie sich die Windgeschwindigkeit im Nordostdeutschen Tiefland (mit dem Kernland Brandenburg) entwickelt hat.

Einführung: Warum zuerst das nordostdeutsche Binnen-Tiefland?

Die Ergebnisse: Ein Windsprung zur Jahrtausendwende und Brandenburg-Berlin als Deutschlands Zentrum der Windabnahme

Abbildung 1: Im Mittel von 22 Stationen (mit zwei nachweislich mangelhaften) zeigt sich ein deutlicher Windsprung abwärts nach 1998 um gute 0,3 m/s, danach eine weitere, leichte Abnahme. Auch das an Tagen mit Westwetterlagen (nach HESS/BREZOWSKY) etwas überdurchschnittliche Jahr 2023 blieb erstaunlich windschwach. Selbst das an Westlagen reichste Jahr seit 1988, nämlich 1998 mit 203 Tagen, reichte nicht ganz an das Jahr 1999 heran (191 Tage). Der Zeitraum 1988 bis 1990 wies auffallend viele Westwettertage auf; damals hätte es eine enorme Windstrom-Ausbeute gegeben.

Seit 1988 nahm die Zahl der Tage mit westlichem Strömungsanteil deutlich ab, um knapp 28 Tage im Jahresmittel, was die überdurchschnittliche Windabnahme in Nordostdeutschland aber nur teilweise erklären kann, denn auch 2023 hätte hier ein gutes Windjahr sein müssen – besonders im Januar, März, Juli und von Oktober bis Dezember gab es überdurchschnittlich viele Westlagen. Aber es blieb unterdurchschnittlich. Am Ende dieses Teils kommen wir noch einmal auf diese Problematik zurück. Fünf Stationen waren (fast) ortsfest, aber auch sie deuten unisono auf Windabnahme hin.

Abbildung 2: Auch an den fünf fast ortsfesten Stationen zeigt sich die Windabnahme, wenngleich mit etwas schwächerem Windsprung. 1990 und 1998 waren hier gleich windstark, 2016 und 2021 besonders flau, auch 2023 blieb erstaunlicherweise unterdurchschnittlich.

Weil sich ab 1994 ein paar mehr Stationen einfanden, soll auch der Zeitraum 1994-2023 gezeigt werden.

Abbildung 3: Mehr Stationen – kürzerer Betrachtungszeitraum, aber die Windabnahme bleibt so, wie sie ist.

Und schließlich noch etwas Einmaliges für Deutschland: Weil nirgendwo sonst so viele Stationen verfügbar waren, hier das Mittel der Windgeschwindigkeit für Brandenburg mit Berlin, wegen zwei Stationen (Manschnow und Kyritz) erst ab 1989.

Abbildung 4: Berlin-Brandenburg (ohne fehlerhafte Stationsdaten) als mutmaßliches Zentrum der Windabnahme. Hier war das Jahr 1990 am windigsten. Man achte auf den deutlichen Windsprung sowie die Flaute-Jahre 2016 und 2021; auch 2023 blieb unterdurchschnittlich.

Abbildung 5: Fast gleichförmige Windabnahme in allen meteorologischen Jahreszeiten im Mittel der fünf nahezu ortsfesten Stationen. Erwartungsgemäß verläuft der Winter am windigsten und der Sommer am windärmsten. Einzige Überraschung: Der Herbst, früher gerühmt für seine Stürme, ist flauer als der Lenz – ein möglicher Hinweis, dass stabil geschichtete Warmluftmassen, welche in dieser Jahreszeit in Bodennähe (meist) windschwächer sind, im Herbst die Oberhand gewonnen haben.

Windabnahme im Nordostdeutschen Tiefland – warum?

In seinen Beiträgen zur Zirkulation unter anderem hier und hier hatte der Autor in den vergangenen Jahren schon mehrfach auf die merkliche Häufigkeits- und Intensitätsabnahme der Westwetterlagen und deren mögliche Ursachen hingewiesen. Die Häufigkeit der meist windreichen Westlagen nahm also stark ab – eine wichtige Ursache der Windgeschwindigkeitsabnahme.

Abbildung 6: Häufigkeitsentwicklung der Westwetterlagen (Tage pro Jahr, nach HESS/BREZOWSKY) und das Jahresmittel der Windgeschwindigkeit der 22 nordostdeutschen Binnentiefland-Stationen 1988 bis 2023. Gute 53% der Windgeschwindigkeits-Variabilität wurden von der Häufigkeit der Westlagen bestimmt, das ist signifikant. Aber die an Westlagen reichen Jahre 2015, 2016 und 2023 wiesen schon unternormale Windgeschwindigkeiten auf. Umrechnung der Wetterlagen-Häufigkeit in Indexwerte (Anzahl geteilt durch 25), um sie anschaulicher darstellen zu können.

Selbiges zeigt sich, wenngleich etwas schwächer, wenn man die Westwetterlagen (alle SW- und NW-Lagen) nach der Objektiven Wetterlagen-Klassifikation des DWD verwendet. Bei dieser zeigte sich der engste Zusammenhang zu den (meist) sehr windschwachen XX-Lagen, das sind solche ohne eindeutige Anströmrichtung über Deutschland in höheren Luftschichten.

Abbildung 7: Häufigkeitsentwicklung der XX-Wetterlagen (Tage pro Jahr, nach DWD) und das Jahresmittel der Windgeschwindigkeit der 22 nordostdeutschen Binnentiefland-Stationen 1988 bis 2023. Gute 33% der Windgeschwindigkeits-Variabilität wurden von der Häufigkeit der XX-Lagen bestimmt, das ist signifikant. Aber die an XX-Lagen relativ armen Jahre 2017 und 2023 wiesen schon unternormale Windgeschwindigkeiten auf. Umrechnung der Wetterlagen-Häufigkeit in Indexwerte (Anzahl geteilt durch 25), um sie anschaulicher darstellen zu können.

Eine andere Möglichkeit ist, die Wind- und die Luftdruckgefälle-Entwicklung (Süd-Nord) in Relation zu setzen. Das Luftdruckgefälle nach Norden ist ein Ausdruck für die Intensität der Westströmung. Hierfür wurde aus den NOAA-Daten (US-Wetterdienst) das Luftdruckgefälle zwischen 50 und 55°N entlang des Längengrades 12,5° Östlicher Länge berechnet.

Abbildung 8: Entwicklung des Luftdruck-Gefälles (Hektopascal) zwischen 50 und 55° Nord entlang des Längengrades 12,5° Ost und das Jahresmittel der Windgeschwindigkeit der 22 nordostdeutschen Binnentiefland-Stationen 1988 bis 2023. Gute 30% der Windgeschwindigkeits-Variabilität wurden von der Größe des Luftdruck-Gefälles bestimmt, das ist signifikant. Aber die Gefälle-reichen Jahre 2017 und 2023 wiesen schon unternormale Windgeschwindigkeiten auf. Man achte auf die gegenüber dem Druckgefälle etwas höhere Abnahme der Windgeschwindigkeit.

Abbildung 9: Mit dem Brandenburg-Berlin-Mittel der Jahreswindgeschwindigkeit wurde die Anzahl der in Brandenburg stehenden WKA in Relation gesetzt (leider erst seit dem Jahr 2000 verfügbar). Tendenziell nahm die Windgeschwindigkeit mit der steigenden Anlagen-Anzahl ab.

Auch der markante Windsprung nach unten könnte also, zumindest teilweise, dem um die Jahrtausendwende forcierten Ausbau der Windenergienutzung geschuldet sein. Wir werden allerdings in kommenden Teilen noch sehen, dass es nicht überall in Deutschland eine so markante Windabnahme gab. Während die Windgeschwindigkeit an der Küste überwiegend sank, änderte sie sich im nordwestdeutschen Binnentiefland (nördl. NRW und Niedersachsen) nicht – vermutlich, weil die dortigen Anlagen vor allem eine negative Fernwirkung entfalten und ein Plus an südlichen uns südwestlichen Wetterlagen seit 1988 nur im Nordwesten mehr Wind brachte. In Bayern, wo sehr wenige Windräder stehen und das nur bei den selten gewordenen Nordwest- und Nordlagen im Lee der Windparks liegt, nahm die Windgeschwindigkeit seit 1988 sogar ein wenig zu.

(wird später fortgesetzt)

Stefan Kämpfe, Diplom- Agraringenieur, unabhängiger Natur- und Klimaforscher