Energiepolitik: Deutschland und die EU katapultieren sich ins geopolitische „Aus“

Von Edgar L. Gärtner

Mein Brüsseler Freund Samuel Furfari, ehemaliger Top-Beamter der EU-Generaldirektion Energie und heute Professor für Geopolitik, macht angesichts aktueller Entwicklungen noch einmal darauf aufmerksam, dass die europäische Einigung nach dem Zweiten Weltkrieg mit der Gründung der Europäischen Gemeinschaft für Kohle und Stahl (Montanunion) im Jahre 1952 begann. Deren Ziel war die Bereitstellung preiswerter Energie im Überfluss, um das Wirtschaftswachstum und den materiellen Wohlstand der breiten Bevölkerung zu fördern. Das gilt noch mehr für den Euratom-Vertrag, der im März 1957 in Rom unterzeichnet wurde. Die Gründerväter der EU hatten begriffen, dass „Wohlstand für alle“ (so der Titel eines Bestsellers des Vaters des deutschen Wirtschaftswunders) ohne allzeit verfügbare preiswerte Energie illusorisch bleiben muss. Nach Ansicht Furfaris ist der Euratom-Vertrag so gut konzipiert, dass er bis heute nicht revidiert werden musste.

Er bewährte sich insbesondere in den 1970er Jahren, als die Organisation Erdöl exportierender Länder (OPEC) versuchte, Westeuropa durch einen Förder- und Lieferstopp zur Aufgabe der Unterstützung Israels zu zwingen. Die „Ölkrise“ von 1973 gab den Anstoß für ehrgeizige Atomprogramme bei mehreren Gründungsmitgliedern der Europäischen Gemeinschaft. Ihr primäres Ziel bestand darin, die Geopolitik der OPEC zu durchkreuzen. Nach dem Plan des linken deutschen Sozialdemokraten Hans Matthöfer, von 1974 bis 1978 Bundesminister für Forschung und Technologie, sollten in Westdeutschland ähnlich wie im Nachbarland Frankreich nicht weniger als 50 neue Kernkraftwerke gebaut werden. Während sich in Westdeutschland sofort Widerstand gegen dieses Vorhaben regte, konnte das Atomprogramm im technokratisch regierten Frankreich über längere Zeit ungestört umgesetzt werden. Dort wurden bis zu fünf Kernreaktoren in einem einzigen Jahr fertiggestellt. Heute beruht die französische Primärenergie-Versorgung zu über 40 Prozent auf der Kernenergie. Frankreich gehört damit zu den wenigen Ländern der Erde, dessen Primärenergie-Mix nicht vom Rohöl dominiert wird. Das geostrategische Ziel, Israel vor seinen feindlichen Nachbarn zu schützen, wurde dennoch erreicht, aber nur zu einem geringen Teil durch den Ausbau der Kernenergie.

Die aktuelle EU-Kommission pfeift auf Verträge

Die EU ist keine Nation, sondern ein durch Verträge zusammenhaltener Staatenbund, ein Gebilde unklaren Charakters. Die nicht gewählte EU-Kommission hat im Prinzip die Aufgabe, die Einhaltung der Verträge zu überwachen. Seit ihrer Eroberung durch grüne Ideologen kommt die Kommission dieser Aufgabe aber nur noch lückenhaft nach. Die aktuelle Kommissionspräsidentin Ursula von der Leyen und ihr Stellvertreter Frans Timmermans tun heute alles, um der weiteren Entwicklung der Kernenergie Steine in den Weg zu legen. Den Euratom-Vertrag, einen der Grundlagen-Verträge der EU, möchten sie am liebsten vergessen machen. So war es keine Überraschung, dass sich am 16. Mai 2023 die Vertreter von 15 EU-Ländern und Großbritanniens auf Einladung der französischen Energiewende-Ministerin Agnès Pannier-Runacher in Paris zu einer Allianz zur Förderung der Kernenergie zusammenschlossen. Nach der Vorstellung dieser Allianz soll die Kapazität der Kernkraftwerke in der EU durch den Bau von 30 bis 45 großen Reaktoren und die Entwicklung modularer Kleinreaktoren (SMR) bis zum Jahre 2050 von derzeit 110 auf 150 Gigawatt gesteigert werden, wobei Hunderttausende von neuen Arbeitsplätzen entstünden. Schon haben die zuständigen französischen Minister für die kommenden 10 Jahre die Schaffung von 100.000 neuen Arbeitsplätzen in der Nuklearindustrie angekündigt. Die französische Bildungs- und Forschungsministerin Sylvie Retailleau verkündete kürzlich im nordfranzösischen Caen zusammen mit zwei weiteren Ministerkollegen einen „Mashallplan“ für die Ausbildung und Rekrutierung von Fachkräften der Nuklearwirtschaft. Nach „30 Jahren Deindustrialisierung“ sei es an der Zeit, einen Neubeginn einzuleiten. Nach Ansicht Samuel Furfaris könnte die Pariser Allianz für die Entwicklung der Kernenergie den von Brüssel nicht mehr respektierten Euratom-Vertrag ersetzen.

Während sich die Pro-Atom-Allianz, nur mäßig beachtet, in Paris konstituierte, fand in den Brüsseler Räumen des Europa-Parlaments die mit großem Tam-Tam angekündigte Konferenz „Beyond Growth“ statt, zu der 20 Mitglieder des Parlaments unterschiedlicher Herkunft eingeladen hatten. Durch die Mitwirkung der Parlamentspräsidentin erhielt diese Konferenz ein offiziöses Gepräge. Ursula von der Leyen erklärte dort in einer Grußadresse, das auf dem Einsatz fossiler Energien beruhende Wachstums-Modell sei obsolet. Damit bekannte sich die Kommissionspräsidentin zum Leitbild „Degrowth“ (Schrumpfung), das geopolitisch nicht begründbar ist. Die Energiepolitik ist damit neben den konterproduktiven Effekten der Sanktionen gegen Russland vom einigenden Prinzip zum Spaltpilz der EU geworden. Den von Deutschland und Österreich angeführten Selbstmord-Kandidaten steht in der EU nun eine Allianz mit positiven Zielen gegenüber.

Wiederentdeckung der Geopolitik als Gespenst

Anders als in Frankreich konnte man in Deutschland den Begriff „Geopolitik“ bis vor kurzem kaum in den Mund nehmen, ohne gleich als „rechtsradikal“ oder „archaisch“ ausgegrenzt zu werden. Dabei hat Deutschland mit Carl Schmitt einen der bekanntesten und international anerkannten Theoretiker der Geopolitik hervorgebracht. Dieser gilt allerdings im eigenen Land als höchst „umstritten“ – wegen seines zeitweiligen Zusammengehens mit den Nazis auch zu recht. (Bei Wikipedia wird die dunkle Seite Schmitts ausführlich abgehandelt. Dort wird aber auch klar, warum Rechte und Linke sich gleichermaßen auf Schmitt berufen können.) Ich selbst hatte zwar an der Uni einiges über Carl Schmitt gehört und gelesen, wurde aber erst durch ein langes Gespräch mit dem inzwischen verstorbenen französischen Öko-Vordenker Bruno Latour zu einer eingehenderen Beschäftigung mit den Schriften Carl Schmitts angeregt. Angesichts des ebenfalls „umstrittenen“, weil kaum demokratisch legitimierten Engagements Deutschlands und der EU an der Seite der Ukraine kommt die westeuropäische Politik nun allerdings nicht mehr um eine geopolitische Begründung herum. Dafür bietet sich die Großraum-Theorie Carl Schmitts geradezu an.

Darauf machte Ende Mai Jochen Buchsteiner, politischer Korrespondent der „Frankfurter Allgemeinen Sonntagszeitung“, aufmerksam, indem er sich auf den britischen Historiker und Geopolitik-Theoretiker Brendan Simms beruft. Dieser geht, so Buchsteiner, davon aus, dass Schmitts Großraumtheorie, die durchaus auch im Sinne der Blut-und-Boden-Ideologie und der darauf fußenden Expansionspläne der Nazis ausgelegt werden konnte, „im Grunde nicht imperialistisch angelegt war, sondern eine Art multipolaren Weltfrieden im Blick hatte: große, kulturell halbwegs homogene Räume, die sich gegenseitig tolerieren sollten.“ Schmitt entwickelte seine Großraumtheorie gegen Ende der 1930er Jahre, als er bei den Nazis schon in Ungnade gefallen war. Er sah in seinem Ansatz eine Alternative zum System des Westfälischen Friedens von 1648, bei dem alle Staaten als gleichwertig gelten. Dieses System sei aber mit der Umsetzung der Monroe-Doktrin der USA von 1823 obsolet geworden. Einen wichtigen Vorteil von Großräumen sah Schmitt darin, dass darin Konflikte zwischen gleichartigen, sich verstehenden Gegnern ausgetragen und gelöst werden können, während man kulturell andersartige Großräume einfach in Ruhe lässt. Wegen des universalistischen Anspruchs eines maßgeblichen Teils der US-Elite wurde dieser Grundsatz im 20. und 21. Jahrhundert allerdings nicht immer und in jüngerer Zeit nur noch selten befolgt. Der westliche Universalismus mit den US-Neocons als Speerspitze zeigte sich als unduldsam gegenüber anderen Ordnungsmodellen. Einmischungen in die inneren Angelegenheiten fremder Staaten unter Berufung auf gefühlige „Werte“ waren an der Tagesordnung, führten aber so gut wie nie zum Ziel.

Jochen Buchsteiner beginnt seinen Beitrag in der FAS vom 29. Mai 2023 mit dem Satz: „Ein Gespenst geht um in Europa – das Gespenst der Geopolitik.“ Eine Effekthaschende Anspielung auf den Beginn des „Kommunistischen Manifests“ von Karl Marx und Friedrich Engels? Als Gespenst gilt die Geopolitik wohl deshalb, weil es in der EU schon länger Überlegungen gibt, das kaum definierbare Gebilde als eigenständigen Großraum im Sinne Carl Schmitts zu definieren und, darauf aufbauend, ein tragfähiges Konzept einer europäischen Sicherheitsarchitektur zu entwickeln. Es ginge also darum, die EU zu einem Kraftpol in einer multipolaren Weltordnung auszubauen. Tatsächlich ist inzwischen auch bei den europäischen Eliten viel von Multipolarität die Rede. De facto ist die EU aber noch lange kein eigenständiger Großraum mit einer Strategie, um den größten wirtschaftlichen und politischen Nutzen aus den geografischen und kulturellen Gegebenheiten zu ziehen, sondern lediglich ein Element des politischen und militärischen Sicherheitssystems der von den USA dominierten NATO. Denkt wirklich jemand, Nordamerika und Westeuropa könnten in Bezug auf die Energieversorgung die gleichen geostrategischen Interessen haben?

Während in Brüssel und Straßburg, Paris und Berlin noch darüber diskutiert wird, ob und inwieweit die EU sich als geopolitischen Großraum definieren soll, schafft Recep Erdogan im östlichen Mittelmeer vollendete Tatsachen, indem er die geografische Lage der Türkei zum Aufbau eines Erdgas-Hubs für die Versorgung ganz Süd- und Nordeuropas ausbaut. Davon profitiert zurzeit in erster Linie das mit der Türkei verbündete Aserbaidschan. Seit September 2018 ist Energy Exchange Istanbul (EPIAS), ein elektronischer Großmarkt für Erdgas und Elektrizität, operationell. Dort wird täglich ein Referenzpreis für Erdgas ermittelt. Istanbul steht damit bis auf weiteres in der Region allein da.

Seit April 2023 produziert die Türkei selbst im Schwarzen Meer Offshore-Erdgas. Größere Erdgas-Vorkommen gibt es im östlichen Mittelmeer. Doch an die kommen die Türken vorläufig nicht ran wegen der griechischen Inseln mit ihren exklusiven Wirtschaftszonen entsprechend dem geltenden Seerechts-Abkommen der UN. Die Türkei hat dieses Abkommen nicht ratifiziert. Bis auf Weiteres bleiben die Türken dort auf Lauerstellung.

Bei Erdogans jüngster Wiederwahl gaben eindeutig Anti-EU-Motive den Ausschlag. Gerade säkular, d.h. kemalistisch orientierte Türken gaben dem muslimischen Fundamentalisten in Deutschland ihre Stimme, weil sie verhindern wollen, dass ihr Land auf den suizidären Kurs der EU-Kommission einschwenkt, der von Erdogans sozialdemokratischem Gegenkandidaten unterstützt wurde. Der von Brüssel seit langem zumindest theoretisch in Aussicht gestellte EU-Beitritt der Türkei ist damit in weite Ferne gerückt. So geht die Türkei in der Energiepolitik ihre eigenen Wege. Ein „Kohle-Ausstieg“ ist dort kein Thema. Gleichzeitig baut die Türkei in Zusammenarbeit mit dem russischen Staatskonzern Rosatom bei Akkuyu ein modernes Kernkraftwerk. Ob das Ursula von der Leyen und Frans Timmermans zum Nachdenken bringt?

 




Sie habe sich geeinigt, jubelt eine zerstrittene Ampel – worauf eigentlich?

Vom Unsinn »Wärmewende« ist niemand abgerückt, auch die FDP nicht. Sie spricht zwar von fundamentalen Änderungen im sogenannten Gebäude-Energie-Gesetz (GEG), aber ändert nichts Grundlegendes und macht mit.

Von Holger Douglas

Die Ampel habe sich geeinigt, jubelt eine zerstrittene Ampel. Auf was eigentlich? Geklärt ist nichts. Vom Unsinn »Wärmewende« ist niemand abgerückt, auch die FDP nicht. Sie spricht zwar von fundamentalen Änderungen im sogenannten Gebäude-Energie-Gesetz (GEG), aber ändert nichts Grundlegendes und macht mit.
Es bleibt bei jenem fundamentalen Nonsens »Wärmewende«. Man müsse künftig anders heizen, wie Scholz es gestern Abend ausdrückte. Also mal eben in rund 42 Millionen Wohnungen Heizungen und Kamine rauswerfen, in Fabriken neue produzieren, mit enormem Aufwand durch das Land transportieren und in sämtliche Wohnungen und Häuser einbauen. Jene Energieträger wie Öl, Gas und Kohle, die bisher aufgrund ihrer Energiedichte in der Lage waren, auch in kalten Zeiten für warme Wohnungen zu sorgen, sollen aufgrund des CO2-Erzählung rausgeworfen werden.

Vom Tisch ist der Plan des sogenannten »Klimaschutzministers« Habeck (Grüne), der den Einbau von Öl- und Gasheizungen bereits ab dem kommenden Jahr verbieten wollte. Nach dem aktuellen Entwurf könnte diese Regelung nur für neue Häuser infrage kommen. Eine Wärmepumpe soll nicht mehr verpflichtend sein.
Nach einer Mitteilung der Fraktionsvorsitzenden von SPD, Grünen und FDP soll es erst ab 2028 oder 2029 in Kraft treten. Es soll erst dann für bereits bestehende Gebäude gelten, wenn Städte und Kommunen »Wärmepläne« fertiggestellt haben.
Denn die Ampel verweist auf die sogenannte »kommunale Wärmeplanung«, nach der Städte und Gemeinden ihre »Wärmewende« schaffen sollen. Erst wenn die Kommune ihre »Wärmeplanung« vorgelegt hat, dann soll das GEG gelten. Wenn – was absehbar ist – ab Januar kein kommunaler Wärmeplan vorliegt, sollen weiterhin Gasheizungen eingebaut werden dürfen – allerdings nur, wenn sie auf die neue Wärmewendenwunderwaffe Wasserstoff umrüstbar ist.

Wenn Kommune X nicht über ein H2-ready-Gasnetz verfügt, dann darf man keine neue Gastherme einbauen – oder auch nicht. Mit solchen lästigen Details haben sich die Ampel-Koalitionäre wohl nicht befasst.
Fernwärme- und Gasnetze gibt es vor allem in Ballungsräumen, auf dem Land nicht. Dort transportiert man Energie am effektivsten in Form von Kohle oder Öl.

Gasheizungen sollen nicht sofort weg, sondern auch nach dem 1. Januar 2024 noch eingebaut werden dürfen, wenn sie auf den Betrieb mit Wasserstoff umgerüstet werden können. Bisher gibt es weder dafür geeignete Gasthermen, noch ein »H2 ready« – Gelegenheit, für Carrier global, jener US-Konzern, der Viessmann aufgekauft hat, weiter an Unsinn fett zu verdienen.

Für Neubaugebiete wiederum soll das Heizgesetz bereits ab dem kommenden Jahr gelten. Bei einem sogenannten Umstieg auf sogenannte »klimaneutrale« Heizsysteme soll nicht mehr nur eine Wärmepumpe eingebaut werden dürfen, Holz- und Pelletheizungen sollen weiter betrieben dürfen. Die gelten als »Biomasse«, also als gut; sie erfüllen jene Vorgabe, nach der sie zu 65 Prozent mit Biogas oder Wasserstoff betrieben werden. Kommunen müssen einen verbindlichen Fahrplan zum sogenannten Hochlauf einer Wasserstoffwirtschaft vorlegen, um das Gasnetz transformieren zu können. Was auch immer das ist.
Vor allem müssten sie dazu Personal, Geld und Baumaschinen bereit halten, um Straßenzüge aufzugraben und neue Rohre verlegen. Das dürfte ziemlich aussichtslos sein.

MANFRED GÜLLNER FORSA

Eindruck früherer SPD-Wähler, dass sich die SPD „zu sehr einer Art grüner Diktatur beugt“

Absehbar: Es entsteht ein neues Monster. In Baden-Württemberg beispielsweise will ein »Klimaschutz- und Klimawandelanpassungsgesetz« den Gemeinden vorschreiben, wie die »Wärmewende« laufen soll. Fast jede Kommune hat neues Personal eingestellt, das irgendwas mit »Klimaschutz« machen. Eine neue, prächtig genährte Fettschicht in den Verwaltungen entsteht. Unsinn und Verwirrung werden gestiftet, mit ziemlicher Sicherheit keine tragfähige »kommunale Wärmeplanung«.

Das neue Heiz-Gesetz soll in einer abgeschwächten Version noch vor der Sommerpause durch den Bundestag gedrückt werden. Es soll in dieser Woche zur ersten Lesung in den Bundestag kommen. Damit ist der vierte Versuch, die Republik komplett heizungstechnisch auf den Kopf zu stellen, nicht zuletzt aufgrund der vielen Proteste gescheitert. Vorerst.

Der Zeitpunkt, ab dem das Heizgesetz gelten soll, ist nach hinten auf 2028 oder 2029 verschoben worden. Bis dahin gibt es eine neue Bundestagswahl. Eine neue Regierung muss ziemlich viel in dem Wust neuer Gesetze und Verordnungen aufräumen und auf den Müllhaufen grüner Geschichte werfen.
Um eine angebliche Klimarettung geht es nicht. Wer Kernkraftwerke abschaltet, hat anderes vor.

Eine »Wärmewende« zum Kälteren. Die »Wärmewende« erfordere eine drastische Reduzierung des Wärmebedarfs der Gebäude, heißt es.
Überhaupt keine Rolle mehr spielt in all den »Wenden« wie »Energiewende« und »Wärmewende« der entscheidende Begriff Entropie aus der Thermodynamik. Diese Wenden sollen gegen Gesetze der Physik durchgepeitscht werden. Am Ende siegt die Physik. Allerdings nachdem Milliarden Euro aus den Taschen der Hausbesitzer in andere Taschen verschoben wurden.

Die Ampel will trösten: Hausbesitzer müssen ihr Geld nicht sofort für neue Heiztechnik an die Herstellerfirmen verteilen, sondern erst später. Motto der »Wärmewendenwende« der Ampel: Wenn man jeden Tag zwei Schellen bekommen hat, sollte man sich freuen, wenn man nur noch eine verpasst kriegt!

Der Beitrag erschien zuerst bei TE hier

Ergänzung durch die Redaktion

Die Reden der AfD Abgeordneten Marc Bernhard (Bauausschuss) und Karsten Hilse (Klima- und Energieaussschuss) zum Gesetzentwurf GEG finden Sie hier. Den unveränderten Gesetzentwurf vom 17.5.23 wie er heute am 15.6.23 im Bundestag eingebracht wurde finden Sie hier

 




Mathematisch ist beim IPCC alles falsch! Teil 3

Von Henri Masson, Professor (emeritus) an der University of Antwerp (Belgium) und Michael Limburg Dipl. Ing.

Dieser Artikel wiederholt weitgehend einen Teil des Vortrags, den der Autor Henri Masson auf der 12. jährlichen EIKE-Konferenz (München 2018) gehalten hat. Der Text, der die PowerPoint-Folien der Präsentation umgibt, ist jedoch unveröffentlicht, ebenso wie das, was den Kern dieser Studie ausmacht: die Analyse der Anpassungs-Residuen von Hadcrut 5.0.1.0-Daten durch eine Summe von Sinuskurven oder eine lineare Regressionslinie.

Der Beitrag wurde aus praktischen Gründen in 4 Teile aufgeteilt

Das Video dazu findet man hier.

Teil 3

Messungen der Temperatur über dem Meer

Sie wurden nach und nach durch Messungen der Wassertemperatur am Eingang der Kühlkreisläufe der Motoren und in jüngerer Zeit durch ein Netz von Tauchbojen ersetzt, welche die Temperatur an der Oberfläche sowie in verschiedenen Tiefen der Ozeane messen. Die meisten Messungen vor der Inbetriebnahme der Bojen wurden daher entlang der am stärksten befahrenen Handelsrouten durchgeführt, was ein Problem der Repräsentativität darstellt, und mit zwei verschiedenen Verfahren, was ein Problem der Kalibrierung und des Anschlusses beim Wechsel von einem Messverfahren zum anderen darstellt (Abbildungen 16 und 17):

Abbildung 16: Die kleinen Punkte auf der Karte links stellen die Standorte der Messungen der Meerestemperatur dar, die in der ersten Januarwoche 2000, auf dem Höhepunkt der Entwicklung des Schiffsverkehrs, durchgeführt wurden. Die meisten Messungen wurden entlang der am stärksten befahrenen Schifffahrtsrouten durchgeführt, was die räumliche Repräsentativität der Messungen in Frage stellt. Das obere Bild rechts zeigt ein Containerschiff, dessen Gangway sich 25 m über der Meeresoberfläche befindet und dessen Rumpf 10 bis 15 m tief getaucht ist. Die Kühlwasser-Entnahmestelle liegt etwa 5 m unter der Meeresoberfläche. Das Bild in der unteren rechten Ecke (um 1900 aufgenommen) zeigt das deutsche Schiff Atalanta, dessen Deck 1,5 m über der Meeresoberfläche liegt.

Abbildung 17: Typische Temperaturprofile im oberen Ozean. Die Temperaturen an der Oberfläche sowie die in zehn Metern Tiefe gemessenen Temperaturen können um mehrere Grad Celsius voneinander abweichen, allerdings auf unsystematische und daher nicht korrigierbare Weise.

Bei diesen Messungen handelt es sich um Messungen der Meerestemperatur (SST), die nicht genau mit den Lufttemperaturen übereinstimmen, solange sich das System Ozean-Atmosphäre nicht im Gleichgewicht befindet, was nie der Fall ist.

Bojen hingegen treiben frei entlang der Oberflächenströmungen und füllen die Ozeane allmählich auf relativ einheitliche Weise, was eine bessere räumliche Repräsentativität der Messungen ergibt, aber die Länge der gesammelten Zeitreihen überschreitet im besten Fall nicht einige Jahrzehnte, was zu kurz ist, um in der Klimadebatte von Nutzen zu sein.

Der Abgleich der mit verschiedenen Verfahren gewonnenen OSH-Messungen ist schwierig, weil der Anteil der verwendeten Techniken im Laufe der Zeit stark variiert hat und vor allem, weil für viele von ihnen die Messmethode nicht einmal identifiziert wurde (Abbildung 18):

Abbildung 18: Verfahren zur Messung der Wassertemperatur in Abhängigkeit von der Zeit. Die vertikale Achse stellt die Anzahl der Messungen in der oberen Abbildung dar, und die Prozentsätze in der unteren Abbildung, wobei die rote Linie den Prozentsatz der Messungen durch Bojen darstellt, die grüne Linie die Anzahl der Messungen am Einlass des Motorkühlsystems (ERI), und die schwarze Linie die Messungen durch Tanks.

Satellitenmessungen

Satellitenmessungen haben den Vorteil einer einheitlichen und repräsentativen räumlichen Abdeckung. Sie haben jedoch das Problem, dass die Umlaufbahn im Laufe der Zeit abweicht oder sogar ein Satellit durch einen anderen ersetzt wird, was Probleme bei der Kalibrierung und Verbindung mit sich bringt. Schätzungen der Temperatur an Land und in den Ozeanen beruhen auf komplexen Algorithmen, die ebenfalls durch Kalibrierungsfehler beeinträchtigt werden. Im Gegensatz zu Oberflächenmessungen, bei denen die Temperatur der Luft- oder Meeresoberfläche direkt gemessen wird, beruhen Satellitenmessungen auf der Interpretation der vom Boden oder der Meeresoberfläche ausgesandten Strahlung und leiten die entsprechenden Temperaturen ab; dabei kommen komplexe Kalibrierungsverfahren zum Einsatz, die ebenfalls mit erheblichen Fehlern behaftet sind (Abbildung 19):

Abbildung 19: Kalibrierung von Satellitenmessungen (Berkeley-Datensatz). Von einer auf der Ordinate (vertikale Achse) angegebenen Messung muss ein auf der x-Achse (horizontale Achse) abgelesener Wert abgeleitet werden. Bei einem TOA-Wert von 238, der in der Mitte des Messbereichs liegt, reicht der Unsicherheitsbereich auf der horizontalen Achse von 13,8°C bis 15,0°C, wobei der wahrscheinlichste Wert bei 14,5°C liegt.

Satelliten, Bojen und Thermometer messen nicht das Gleiche. Die Unterschiede sind gering, aber vergleichbar mit den Trends des Klimawandels, die der IPCC über ein Jahrzehnt hinweg zu erkennen behauptet.

Folgen wir immer noch dem IPCC?

Lassen wir diese Unzulänglichkeiten zu, um nicht zu sagen grundlegende experimentelle, mathematische oder algorithmische Fehler, und konzentrieren wir uns daher wie das IPCC auf globale Temperaturanomalien und deren Interpretation.

Das IPCC stützt sich bei seiner Arbeit hauptsächlich auf die Temperaturanomalien von 1980-2022 und behauptet, dies sei das einzige Zeitfenster, in dem zuverlässige, repräsentative und räumlich zufriedenstellend verteilte Messungen verfügbar sind. Das IPCC präsentiert seine Schlussfolgerungen auch in Form einer Regressionslinie, die die berechneten Temperaturanomalien am besten linear anpasst, und leitet aus der Steigung dieser Regressionslinie einen jährlichen, dekadischen oder hundertjährigen Temperaturanstieg ab, der für Schlagzeilen sorgt und die politischen Entscheidungsträger dazu veranlasst, dringend eine Anti-Kohlenstoff-Politik zu verabschieden, die enorme Kosten verursacht, um (angeblich) den Planeten zu retten.

Am Rande sei bemerkt, dass eine Änderung des Beginns und der Länge dieses Messfensters zu radikal anderen Ergebnissen führt, wie das folgende Beispiel zeigt:

Abbildung 20: Daten zur Veranschaulichung der Auswirkungen der Länge des Messfensters und seiner Anfangszeit.

Abbildung 21: Regressionslinien, die mit Messfenstern erhalten wurden, die zu unterschiedlichen Zeiten beginnen und unterschiedlich lang sind. Das Ergebnis ist unsinnig…

Ein unbedarfter Mensch könnte meinen, dass das Datum 1980, mit dem das vom IPCC verwendete Messfenster beginnt, nicht zufällig gewählt wurde. Es entspricht einem Temperaturminimum in längeren Temperaturmessungen.

Wie dem auch sei, aber zurück zu einigen grundlegenderen Überlegungen. Es sei darauf hingewiesen, dass der Vergleich der Dauer des Messfensters mit den Perioden der zyklischen Komponenten zu den Vorarbeiten jeder ernsthaften Analyse von Zeitreihen gehört. Um seine Bedeutung zu veranschaulichen, können wir eine einfache Sinuskurve mit einer Periode betrachten, die mit dem Messfenster vergleichbar ist, und die Regressionslinien zeichnen, die verschiedenen Phasenverschiebungen der Sinuskurve in Bezug auf das Messfenster entsprechen, um zu erkennen, dass wir als Ergebnis alles und jedes erhalten, während die Steigung Null sein sollte, eine um eine Horizontale oszillierende Sinuskurve. In der Praxis hat es sich bewährt, dass das Messfenster mehr als das 6-fache der Sinusoid-Periode beträgt, um diese „Randeffekte“ zu eliminieren.

Abbildung 22: Sinuskurven und Regressionsgeraden. 22a: Auswirkung der Anfangsposition des Messfensters (mit einer Länge, die der Periode der Sinuskurve entspricht); die Steigung variiert von +1 bis -1 je nach der Position des Anfangszeitpunkts des Messfensters im Verhältnis zur Sinuskurve. 22b: Regressionslinie über mehrere Sinuswellenperioden. Die Steigung wird sehr gering.

Abbildung 23: Maximale Steigung (anfängliche Phasenverschiebung um 180°) einer über mehrere Perioden berechneten Regressionslinie. Über 6 Perioden hinaus ist die Steigung vernachlässigbar.

Zum Leidwesen des IPCC gibt es, wie in Tabelle 2 erwähnt, eine Vielzahl von zyklischen Komponenten in den Temperaturaufzeichnungen, deren Perioden von einem Tag bis zu mehreren hunderttausend Jahren reichen, wie eine Analyse des Leistungsspektrums (Fourier-Transformation der Autokorrelationsfunktion) oder die Untersuchung von Skalogrammen deutlich zeigen. Und da das IPCC ein Messfenster ab 1980 verwendet, also ein Fenster, das sich über vierzig Jahre erstreckt, ist die Einhaltung der oben erwähnten „6-Perioden-Regel“ völlig unmöglich. Alle „Projektionen“, die der Weltklimarat verkündet, ausgedrückt als Temperaturanstieg pro Jahrzehnt oder pro Jahrhundert (d.h. in Form der geraden Steigung der Regression der Temperaturanomalie), sind daher mit einem „Randeffekt“ behaftet, der es ermöglicht, sie je nach Beginn und Länge des berücksichtigten Messfensters so zu gestalten, wie wir es wollen, also völlig willkürlich.

Darüber hinaus ist zu beachten, dass diese natürlichen Zyklen nicht exakt periodisch sind, was einen leicht chaotischen Charakter des Klimasystems widerspiegelt, der ihre vollständige Eliminierung durch Filterung verhindert. Es ist daher physikalisch unmöglich, mit einem Messfenster zu arbeiten, das die „6-Perioden-Regel“ einhält. Es ist daher mathematisch nicht korrekt, unter diesen Bedingungen eine Regressionslinie zu zeichnen, deren Steigung je nach Wahl des Anfangszeitpunkts und der Länge des Messfensters variiert. Und dennoch leitet der IPCC aus der Steigung einer solchen Regressionsgeraden die „Projektionen“ des „höchstwahrscheinlichen“ (sic) Temperaturanstiegs über das kommende Jahrzehnt oder gar Jahrhundert ab.

Es ist völlig unverantwortlich, eine Klimapolitik, die ebenso entbehrlich wie schädlich für die Wirtschaft und das Wohlergehen der Bevölkerung ist, die ihr unterworfen ist, weil sie furchtbar teuer ist, auf der Grundlage der Steigung einer solchen Regressionslinie zu entwickeln, die letztlich völlig willkürlich ist. Und doch …

Lineare Regression der globalen Temperaturanomalien?

Trotz allem, was soeben in Erinnerung gerufen wurde, wird die Aufzeichnung der globalen Temperaturanomalien, die von der amerikanischen NOAA herausgegeben und vom IPCC übernommen wurde, durch eine Regressionslinie angenähert, die nichts aussagt (oder die dazu gebracht wird, das zu sagen, was wir wollen, mit einigen vernünftigen Anpassungen der Länge oder des Anfangszeitpunkts des Messfensters, wie wir gezeigt haben).

Zunächst ist festzustellen, dass der aufsteigende Zweig einer Sinuskurve mit einer Periode von 84 Jahren, die mit dem Messfenster synchronisiert ist, die Temperaturanomalien genauso gut, wenn nicht sogar etwas besser anpasst als die Regressionslinie; eine Sinuskurve hat jedoch den Vorteil, dass sie realistischer in die Vergangenheit und damit wahrscheinlich auch in die Zukunft extrapoliert werden kann als eine Regressionslinie (siehe Abbildung unten).

Tatsächlich offensichtlich: ein Blick in die Vergangenheit zeigt, dass die Temperatur nicht gleichmäßig gesunken ist, sondern dass es eine Abfolge von kalten und warmen Episoden gegeben hat. Jeder kennt das römische und das mittelalterliche Optimum sowie die Maunder-Mini-Eiszeiten (während derer die zugefrorene Themse begangen wurde) und das Dalton-Minimum zu Beginn des 19. Jahrhunderts. Symmetrisch, mit Blick auf die Zukunft, können wir feststellen, dass die „Pause“ (oder „Lücke“), die beim Anstieg der globalen Temperaturanomalien seit fast 20 Jahren beobachtet wird, ganz einfach damit erklärt werden kann, dass die Sinuskurve ihr Maximum überschritten hat, was bedeutet, dass wir uns nicht auf eine Erwärmung, sondern auf einen Temperaturrückgang zubewegen, dessen Anfänge also bereits anhand der wichtigsten Daten zu beobachten sind. Zuletzt.

Abbildung 24: Anpassung der Temperaturanomalien durch eine Regressionslinie und durch den aufsteigenden Ast einer Sinuskurve. Die Sinuskurve hat einen R²-Wert = 0,549 und erklärt damit 55 % der Gesamtvarianz, während die Regressionsgerade ein R² = 0,48 aufweist. Die Sinuskurve passt sich also besser an als die Linie, insbesondere zu Beginn und am Ende des Messfensters. Es ist richtig, dass sie drei Parameter (Amplitude, Frequenz und Anfangsphase) verwendet, während die Regressionsgerade nur zwei verwendet.

Schließlich ist zu beachten, dass die Krümmung, die einem aufsteigenden Zweig der Sinuskurve eigen ist, in Verbindung mit einer nicht trivialen Wahl der Länge und des Anfangszeitpunkts des Messfensters zu der falschen Annahme führen kann, dass sich die globale Erwärmung beschleunigt (wenn darauf geachtet wird, die Analyse vor dem Beginn der „Pause“ zu unterbrechen), wie unten dargestellt (Abbildung 25 ). Das IPCC ist in diese Falle getappt oder nutzt sie vielleicht sogar wissentlich, indem es den Eindruck erweckt, dass sich der Klimawandel beschleunigt und daher dringend kontrolliert werden (muss), indem er ihn einerseits mit großen Schüben mehr oder weniger verdeckter und so genannter tugendhafter Steuern und andererseits mit großzügigen Subventionen für „Dienstleistungen“ und kolossalen Finanztransfers an Entwicklungsländer finanziert.

Abbildung 25: Anpassung der Temperaturanomalien über einen Zeitraum von zwei Jahrhunderten durch Regressionslinien. Das Erscheinungsbild in Form eines aufsteigenden Sinuszweiges (mit einer Periode von etwa 360 Jahren) ist in dieser Abbildung, die mit dem Dalton-Minimum beginnt, deutlicher zu erkennen. Die über immer kürzere Zeiträume berechneten Regressionslinien (mit Anfangszeitpunkten, die immer näher am heutigen Zeitpunkt liegen) weisen immer stärkere Steigungen auf, was auf eine Beschleunigung der globalen Erwärmung hindeutet, während wir diese Abbildung genauso gut als aufsteigenden Zweig einer Sinuskurve interpretieren können, die bald ihr Maximum durchlaufen wird (tatsächlich endet diese Grafik im Jahr 2000, und seither wurde das Maximum erreicht), bevor sie wieder abnimmt.

Wird fortgesetzt.

Wer den gesamten Bericht sofort lesen will kann das hier tun.IPCC has it all wrong Li-Edition Deutsch




Mathematisch ist beim IPCC alles falsch! Teil 2

Von Henri Masson, Professor (emeritus) an der University of Antwerp (Belgium) und Michael Limburg Dipl. Ing.

Dieser Artikel wiederholt weitgehend einen Teil des Vortrags, den der Autor Henri Masson auf der 12. jährlichen EIKE-Konferenz (München 2018) gehalten hat. Der Text, der die PowerPoint-Folien der Präsentation umgibt, ist jedoch unveröffentlicht, ebenso wie das, was den Kern dieser Studie ausmacht: die Analyse der Anpassungs-Residuen von Hadcrut 5.0.1.0-Daten durch eine Summe von Sinuskurven oder eine lineare Regressionslinie.

Der Beitrag wurde aus praktischen Gründen in 4 Teile aufgeteilt

Das Video dazu findet man hier

Teil 2

Zeitliche Mittelwerte

Der IPCC drückt seine Ergebnisse in Form von Monats- oder Jahres-Durchschnittswerten aus.

Es kommt vor, dass nicht nur die Sonne, sondern auch der Mond, der zwar kleiner ist, aber viel näher an der Erde steht, die lokale Sonneneinstrahlung verändert, wobei die Gravitationskräfte (das berühmte Problem der drei Körper in der Mechanik) die Ausrichtung der Rotationsachse der Erde und damit ihre Neigung gegenüber der Ebene der Ekliptik leicht verändern (Abbildung 7). Nun gibt es in einem Sonnenjahr mathematisch gesehen 13 Mondmonate (365/28 ~ 13,04), während der Kalender, mit dem wir die monatlichen Durchschnittswerte berechnen, 12 Monate von ungleicher Länge enthält. Daraus folgt, dass ein Datum des Sonnenkalenders von Jahr zu Jahr mit verschiedenen Mondphasen übereinstimmt. Diese Tatsache, die den Gärtnern, die „mit dem Mond pflanzen“, wohl bekannt ist, wird von den Klimatologen völlig vernachlässigt. Zum Leidwesen der Letzteren ergibt sich daraus auch von Sonnenjahr zu Sonnenjahr ein Rest an zeitlicher Anpassung der Amplitude, vergleichbar mit den Temperaturanomalien, die als Indikator für den Klimawandel gelten. Dies macht das Ganze sehr unübersichtlich.

Abbildung 7: System Erde-Sonne-Mond.

Diese Tatsache wird vernachlässigt, da die Temperaturschwankungen von einem Tag auf den anderen nur sehr selten berücksichtigt werden und die größte zeitliche Auflösung bei einem Monat liegt. Betrachtet man jedoch die täglichen Temperaturschwankungen an einem bestimmten Punkt, so ist eine Periodizität von ~14 Tagen (ungefähr die Harmonische der Größenordnung von 2 bis 29,3 Tagen, die den Mondmonat kennzeichnet) deutlich erkennbar, wie in Abbildung 8 unten dargestellt:

Abbildung 8: Tägliche Temperaturmessung. Eine Periodizität von 14 Tagen ist in der Aufzeichnung von Höchst-, Tiefst- und Durchschnittstemperaturen, zusätzlich zu einer langsamen Drift entsprechend den jährlichen Schwankungen offensichtlich. Die Amplitude dieser Periodizität von 14 Tagen ist in der Größenordnung von ±5°C um den Durchschnitt in dem gewählten Beispiel (Vanwvskvlei, Südafrika). Die Häufigkeitsanalyse der täglichen Daten, die an verschiedenen Orten für verschiedene Monate des Jahres gesammelt wurden, zeigt die gleichen Merkmale mit unterschiedlichen Amplituden und natürlich mit einem monatlichen Trend, der sich je nach Jahreszeit ändert. (Quelle: P. Frank, Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index, Energy & Environment – Vol. 22, No. 4, 2011)

Die durch diese kalendarische Diskrepanz verursachten Fehler lassen sich einfach dadurch veranschaulichen, dass man einem Dutzend Sinuskurven von 365,25 Tagen eine Sinuskurve mit geringerer Amplitude und einer Periode von 29,53 Tagen überlagert. Um das Signal zu verrauschen, wurden einige Sinuskurven mit sehr geringer Amplitude hinzugefügt. Ihre Perioden entsprechen den bekannten astrophysikalischen Zyklen, die die Umlaufbahnen der Erde um die Sonne und des Mondes um die Erde stören. Die verwendeten Parameter sind in der folgenden Tabelle 1 zusammengefasst:

Tabelle 1. Parameter, die zur Simulation der Wechselwirkungen zwischen Sonnen- und Mondkalender verwendet werden. Zusätzlich zum Sonnenjahr und zum Mondmonat wurden verschiedene gut dokumentierte Periodizitäten von Mond und Sonne mit einer kleinen Amplitude hinzugefügt, um das natürliche Rauschen zu simulieren.

Einige illustrative Ergebnisse der Simulation sind in den Abbildungen 9, 10 und 11 wiedergegeben:

Abbildung 9: Simulation der monatlichen Durchschnittswerte (Sonnenkalender), die sich aus der Überlagerung einer Sinuskurve mit einer Periode von 365 Tagen und einer anderen mit einer Periode von 28 Tagen ergeben.

Die Entwicklung der simulierten monatlichen Temperaturen ist in Abbildung 10 dargestellt. Für den gewählten Wert der Parameter ergibt sich ein mit den Temperaturanomalien vergleichbares Profil mit einer positiven Steigung der Regressionslinie. Der IPCC führt die Ausschläge der Kurve auf kurzlebige natürliche Phänomene zurück (El Nino, Vulkanismus usw.). Es sei darauf hingewiesen, dass die Simulation auch eine „Pause“ aufweist, wie die aus Wetterdaten berechneten Temperaturanomalien.

Abbildung 10: Simulation der Temperaturanomalien, die sich aus der Überlagerung einer Sinuskurve mit einer Periode von 365 Tagen und einer weiteren mit einer Periode von 28 Tagen ergeben. Das Ausmaß und die Amplitude sind mit den vom IPCC gemeldeten Temperaturanomalien vergleichbar. Die Regressionslinie hat eine positive Steigung, während das Signal vollkommen stationär ist. Die Ausschläge der Kurve wurden „künstlich“ mit fiktiven Ereignissen in Verbindung gebracht, um die Erklärungen des IPCC angesichts eines solchen Ergebnisses wiederzugeben.

Abbildung 11: Vergleich zwischen realen und simulierten Anomalien (erhalten durch Überlagerung einer Sinuskurve mit einer Periode von 365 Tagen und einer anderen mit einer Periode von 28 Tagen). Die experimentelle Kurve befindet sich in der oberen linken Ecke der Abbildung. Alle anderen Abbildungen sind Simulationen jährlicher oder monatlicher Zeitreihen; ihre Regressionslinien zeigen einen positiven Trend.

Abbildung 11 ermöglicht einen direkten Vergleich dieser Simulationen mit den Temperaturanomalien. Die Ähnlichkeit ist frappierend. Wir überlassen es dem Leser, seine eigenen Schlussfolgerungen zu ziehen.

Am Rande sei bemerkt, dass die Amplitude der Gezeiten des Ozeans im Wesentlichen auf die Wirkung des Mondes zurückzuführen ist, die durch die Wirkung der Position der Sonne moduliert wird, die hohe Gezeiten verursacht und die Verteilung der Meeresströmungen beeinflusst. Es ist nicht ausgeschlossen, dass die gleichen Gravitationskräfte die Struktur und die Dynamik der Atmosphäre beeinflussen, die eine 1000-mal geringere Trägheit als der Ozean aufweist, z. B. auf die Position der Jetstreams oder die Merkmale der Walker-Zirkulation, der Hadley-Zellen oder der Polarzellen, auch wenn es keine genauen Daten gibt.

Diese variable Phasenverschiebung von Jahr zu Jahr zwischen Sonnen- und Mondkalender ist auch der Grund dafür, dass der Ramadan, der auf einem Mondkalender basiert, von Jahr zu Jahr zu unterschiedlichen Zeiten stattfindet, die sich auf den Sonnenkalender beziehen.

Lokale Temperatur-Anomalien

Aber selbst wenn wir uns auf die Verwendung lokaler Indikatoren beschränken, bleiben Probleme bestehen. Das von der WMO (World Meteological Association) befürwortete Konzept der lokalen Temperaturanomalie besteht darin, die an einem Punkt beobachtete Temperatur mit dem über einen bestimmten Bezugszeitraum von 30 Jahren errechneten Durchschnitt zu vergleichen. Die Rechtfertigung für Temperaturanomalien liegt in der Tatsache, dass es sich um eine bequeme Methode für den Vergleich von Temperaturschwankungen an verschiedenen Punkten der Erde handelt, wobei die lokalen Temperaturen zwischen den Polen und dem Äquator um bis zu 100°C variieren. Ursprünglich war vereinbart worden, den Bezugszeitraum alle 30 Jahre neu zu bestimmen (1930-1960, 1960-1990, 1990-2020). Die letzte Anpassung ist immer noch Gegenstand heftiger Debatten, wobei die WMO es vorzieht, den Referenzzeitraum 1960-1990 beizubehalten. Einige, die von der „offiziellen Klimawissenschaft“ als Verschwörungstheoretiker bezeichnet werden, sehen darin den verzweifelten Versuch, die Tatsache zu verschleiern, dass diese Anomalien im Vergleich zum Zeitraum 1990-2020 eine bedauerliche Tendenz zur Stagnation aufweisen, was die politische Agenda im Zusammenhang mit dem (so genannten) Klimanotstand ernsthaft beeinträchtigt.

Leider führen die Temperaturanomalien zu falschen Trends und Verzerrungen, die durch natürliche zyklische Temperaturkomponenten verursacht werden, deren Zeitraum den für die Berechnung der Anomalien verwendeten Referenzzeitraum (30 Jahre) überschreitet, und solche natürlichen Klimakomponenten sind zahlreich (siehe Tabelle 2).

Tabelle 2: Einige natürliche Zyklen im Vergleich zu dem für die Berechnung der Temperaturanomalien verwendeten Bezugszeitraum.

Veranschaulichen wir den Mechanismus anhand einer einfachen Sinuskurve mit einer Periode von 180 Jahren (eine bekannte periodische Komponente der Klimazeitreihen) und sehen wir uns an, was die Berechnung der Anomalien entlang dieser Sinuskurve ergeben würde, wobei der Bezugszeitraum wie üblich 30 Jahre beträgt (Abbildung 12):

Abbildung 12: Simulation des Ausmaßes der Temperaturanomalien. Die Berechnung erfolgt für eine Sinusperiode von 360° und für Referenzperioden, die zur Berechnung der Anomalien verwendet werden, von 60° (dies entspricht einer Periode von 180 Jahren und einer Referenzperiode zur Berechnung der Anomalien von 30 Jahren). Diese Bezugszeiträume sind durch die roten Linien in der Abbildung dargestellt. Eine Sinuskurve zeigt natürlich keine Tendenz und entwickelt sich um eine Horizontale. Die drei dargestellten Fälle zeigen signifikante Anomalien, die sich deutlich voneinander unterscheiden und alle fiktiv sind.

Zusätzlich zu den falschen Tendenzen führt das Konzept der Anomalie im Falle eines polyzyklischen Signals auch zu variablen Verzerrungen in Abhängigkeit von der Anfangszeit und der Länge des Referenzzeitraums. Dieser Effekt wurde in Abbildung 13 für den Fall einer einfachen Sinuskurve simuliert. Dieser Effekt führt nicht nur zu Verzerrungen, sondern auch zu Diskontinuitäten beim Übergang von einer Referenzperiode zur anderen.

Abbildung 13: Verzerrung des zur Berechnung der Anomalien verwendeten Basiswerts nach Länge der Referenzperiode. Die Periode der Sinuskurve mit Einheitsamplitude wird in Grad (360°) ausgedrückt. Die Kurven stellen die Länge der Referenzperioden dar, die für die Berechnung der Anomalien verwendet wurden. Sie sind ebenfalls in Grad angegeben (die Bruchteile der Periode darstellen). Die Punkte der verschiedenen Kurven entsprechen dem anfänglichen Offset der Referenzperiode. Diese Verzerrungen sind sehr variabel und können bis zur Amplitude der Sinuskurve reichen. In dieser Abbildung wird auch das Problem der „gestuften Verbindung“ deutlich, wenn man von einer Referenzperiode zu einer anderen wechselt, wobei sich die Verzerrung je nach Position auf der Sinuskurve in die eine oder andere Richtung ändert. Die beiden Punkte, die den Kurven hinzugefügt wurden, veranschaulichen dieses Problem.

Um unsere Beschwerden zusammenzufassen, können wir einfach sagen, dass die Verwendung von Temperaturanomalien ein dreifaches „mathematisches“ Problem darstellt: Sie führt zu falschen Trends, Verzerrungen und verursacht Verbindungsprobleme, wenn man von einem Bezugsfenster zum anderen wechselt (1930-1960, 1960-1990 und möglicherweise 1990-2020, um die WMO- und IPCC-Konvention zu verwenden, die nicht die der NASA ist; letztere beginnt ihren ersten Bezugszeitraum zum Zeitpunkt des Starts der ersten Wettersatelliten, was zwar logisch ist, aber zur Verwirrung beiträgt).

Zuverlässigkeit lokaler Messungen

Nachdem die Gefahren aufgezeigt worden sind, die sich aus der Verwendung globaler oder lokaler Temperaturanomalien ergeben, muss auch die Qualität der „rohen“ Einzelmessungen hinterfragt werden, wie sie in den „primären“ Datenbanken erfasst und aufgezeichnet werden, aus denen die monatlichen und jährlichen Durchschnittswerte und ihre Anomalien extrahiert werden.

Die Temperatur im Tagesverlauf

Die Temperatur schwankt im Laufe des Tages mit einer Amplitude, die von der lokalen Bewölkung abhängt, die tagsüber als Abschirmung und nachts als Abdeckung wirkt. Je stärker die Bewölkung ist, desto geringer ist die Amplitude der Tag-Nacht-Temperaturschwankungen. Bei Abwesenheit von Wolken können die täglichen Temperaturschwankungen beispielsweise in den europäischen Gebirgen 20°C überschreiten. Es stellt sich daher die Frage, welche Temperatur für einen bestimmten Tag repräsentativ ist. In der Tat gibt es verschiedene Methoden (Maximum + Minimum / 2, Durchschnitt der zu bestimmten Zeiten aufgezeichneten Temperaturen, kontinuierliche Ablesung und Durchschnitt der Messungen usw.), und diese Methoden werden nicht immer erläutert. Dies stellt eine erste Fehlerart dar (Abbildung 14).

Abbildung 14: Algorithmen zur Bestimmung der Tagestemperatur und Fehler im Vergleich zur tatsächlichen Durchschnittstemperatur, die durch die Integration kontinuierlicher Temperaturmessungen über die gesamten 24 Stunden eines Tages abgeleitet wird. Der Fehler liegt in der Größenordnung von +- 0,6°C

Terrestrische Untersuchungen

Die längsten mit dem Thermometer aufgezeichneten Messreihen sind etwa 300 Jahre alt. Die Bedingungen normalisierten sich allmählich und erreichten ihren Höhepunkt in den Stevenson-Wetterhütten. Diese wurden später und nach und nach durch gekapselte Sensoren (Thermistor-Thermoelemente oder Platin-Filament-Thermometer) ersetzt, die jeweils eine Neukalibrierung erforderten. Auch die Umgebung dieser Sensoren hat sich im Laufe der Zeit durch Urbanisierung, Pflasterung usw. verändert („städtischer Blockeffekt“). Viele dieser Sensoren befinden sich heute in unmittelbarer Nähe von Gebäuden, die Sonnenstrahlung sammeln oder reflektieren, manchmal in der Nähe von Klimaanlagen. außer auf dem Rollfeld des Flughafens in Reichweite von Flugzeugabgasen und anderen auf den Start- und Landebahnen manövrierenden Fahrzeugen. Basierend auf einer großen Umfrage von Antony Watts (von der Website WattsUpWithThat) wurde geschätzt, dass nur 10 % der Installationen auf amerikanischem Boden einen Messfehler von weniger als 1 °C aufweisen (Abbildung 15).

Abbildung 15. Genauigkeit der Messungen an terrestrischen Wetterstationen in den USA. Weniger als 10% der 1221 untersuchten Stationen haben einen Fehler von weniger als 1°C.

Für andere Länder liegen keine Daten vor, aber man kann davon ausgehen, dass das Ergebnis vergleichbar, wenn nicht sogar schlechter sein wird. Darüber hinaus muss eine Höhenkorrektur des Messpunktes vorgenommen werden, um alle Temperaturen auf Meereshöhe zurückzubringen. Diese Korrektur ist rein theoretisch und basiert auf einer adiabatischen Ausdehnung in der Atmosphäre, was aber fast nie zutrifft, wie die Messungen der Wetterballone beweisen.

Wir haben es also mit mehreren voneinander unabhängigen Fehlern zu tun, die häufig willkürlich und undurchsichtig von Hand korrigiert werden und die sich häufen.

Wetterstationen sind sehr nützlich, um lokale Bedingungen zu beschreiben und kurzfristige Vorhersagen zu machen, aber wegen der Fehler, welche die dort möglichen Messungen verfälschen, überhaupt nicht geeignet, um lokale Temperaturschwankungen in der Größenordnung von einem Hundertstel Grad pro Jahr festzustellen, wie es der IPCC behauptet.

Wird fortgesetzt. Wer den gesamten Bericht sofort lesen will, findet ihn als pdf hier

IPCC has it all wrong Li-Edition Deutsch

 




Mathematisch ist beim IPCC alles falsch! Teil 1

Von Henri Masson, Professor (emeritus) an der University of Antwerp (Belgium) und Michael Limburg Dipl. Ing.

Dieser Artikel wiederholt weitgehend einen Teil des Vortrags, den der Autor Henri Masson auf der 12. jährlichen EIKE-Konferenz (München 2018) gehalten hat. Der Text, der die PowerPoint-Folien der Präsentation umgibt, ist jedoch unveröffentlicht, ebenso wie das, was den Kern dieser Studie ausmacht: die Analyse der Anpassungs-Residuen von Hadcrut 5.0.1.0-Daten durch eine Summe von Sinuskurven oder eine lineare Regressionslinie.

Der Beitrag wurde aus praktischen Gründen in 4 Teile aufgeteilt

Das Video dazu findet man hier

Teil 1

Präambel

Die globale Erwärmung, die im Laufe der Jahre erst als Wandel, dann als Störung und derzeit als Klimanotstand bezeichnet wird, wird vom IPCC als die Entwicklung der globalen Temperaturanomalie pro Jahr, Jahrzehnt oder Jahrhundert beschrieben.

Dieser Ansatz, über den in den Medien viel berichtet wurde, ist in mehr als einer Hinsicht irreführend.

Denn die in dieser Form dargestellten experimentellen Daten dienen der Kalibrierung der vom IPCC verwendeten mathematischen Modelle und damit der Rechtfertigung seiner „Projektionen“, die als Grundlage für die von ihm formulierten klimapolitischen Empfehlungen dienen. Diese sind die „Spitze des Eisbergs“ seiner Berichte in Form von „Zusammenfassungen für Entscheidungsträger“. Diese Zusammenfassungen, die von den Vertretern der verschiedenen beteiligten Regierungen umfassend überarbeitet und politisch redigiert wurden, sind das Einzige, was die große Mehrheit der Menschen konsultiert, insbesondere die politischen Entscheidungsträger, an die sie sich richten und die sie beeinflussen sollen, sowie die Medien, die ausführlich darüber berichten, ohne dass jemals jemand die Gültigkeit der „Wissenschaft“ oder die Qualität der experimentellen Daten, auf denen das ganze Gebäude beruht, in Frage stellt. Die Notwendigkeit, die (so genannte) globale Erwärmung zu bekämpfen, ist also nichts weiter als eine prinzipielle Frage.

Die Gültigkeit und damit die Glaubwürdigkeit eines mathematischen Modells hängt jedoch von der Qualität seiner Kalibrierungsdaten, der Qualität der verwendeten Algorithmen, der Genauigkeit der zugrunde liegenden Annahmen, die nicht immer eindeutig sind, und der Anpassung seiner Parameter ab. Diese Anpassung der Parameter muss natürlich realistischen Werten entsprechen und darf nicht der betrieblichen Bequemlichkeit dienen (z. B. um die Ergebnisse der durchgeführten Simulationen zu stabilisieren und reproduzierbar zu machen, die bei der Verwendung realistischer Werte für diese Parameter eine ungünstige Tendenz zu Abweichungen aufweisen würden). Dies ist leider der Fall bei den so genannten „Global Circulation“-Modellen, auf die sich der IPCC stützt.

Dieser Artikel befasst sich speziell mit dem Vertrauen, das man in globale Temperaturanomalien haben kann oder nicht. Er untersucht eine Reihe von Problemen im Zusammenhang mit ihrer Konstruktion und Verwendung, und zwar ausschließlich unter dem Gesichtspunkt der Datenanalyse, ohne auf andere Aspekte der „Wissenschaft“ einzugehen, die den IPCC-Berichten oder den von ihm verwendeten numerischen Simulationen zugrunde liegt. Es handelt sich hierbei um eine weitere Qualitätsprüfung, die sicherlich von unabhängigen Sachverständigen durchgeführt werden sollte, die sich an die Regeln der guten Praxis in diesem Bereich halten.

Die in dieser Studie verwendeten Verfahren sind allgemeiner Art und gelten umfassend für sozioökonomische, epidemiologische, biologische usw. Daten wie auch für Klimadaten. Sie entsprechen dem „State of the Art“ der Datenanalyse. Mit dieser Klarstellung wird ein möglicher Vorwurf der „Klima-Inkompetenz“ an den Autor von vornherein entkräftet.

Jeder Indikator muss eine physikalische Bedeutung haben

Zunächst ist festzustellen, dass die Temperatur eine thermodynamisch intensive Größe ist, also ihrem Wesen nach lokal.

Die Verwendung einer Temperaturskala, die in Grad Celsius oder Fahrenheit ausgedrückt wird, ist eine einfache praktische Konvention; nur die absolute Temperatur, ausgedrückt in Grad Kelvin (Grad Celsius + 273,15), hat eine thermodynamische Bedeutung. Schlimmer noch, die Berücksichtigung von Temperaturanomalien im Vergleich zu einer willkürlich gewählten Temperatur ist eine grobe Manipulation, die darauf abzielt, die Bevölkerung übermäßig zu beunruhigen, es sei denn, es handelt sich nicht mehr nur um eine Frage der wissenschaftlichen Unkenntnis (Abbildung 1).

Abbildung 1: Temperaturen (°C) und Anomalien. Die Veränderung der Skala entlang der vertikalen Achse, von einer Abbildung zur anderen, ermöglicht jede Art von Manipulation der öffentlichen Meinung und schafft auch ein Gefühl der Dringlichkeit „angesichts des Ausmaßes der Klimakrise“.

In Wirklichkeit spielt die Natur eine hervorragende Rolle als natürlicher Thermostat, insbesondere über die Verdunstungswärme – Kondensation entlang des Wasserkreislaufs (Abbildung 2).

Abbildung 2: Verdunstungs-Kondensationswärme entlang des Wasserkreislaufs

Aber das ist noch nicht alles: Die Berechnung von räumlichen und zeitlichen Durchschnittswerten der Temperatur ist problematisch.

Ein Indikator muss spezifisch sein (kritisch gegenüber räumlichen Durchschnittswerten)

Zunächst einmal ist es gut, sich daran zu erinnern, dass es kein globales Klima gibt, wie jeder Geograf bestätigen wird (Abbildung 3):

Abbildung 3: Von Geographen definierte Klimazonen (Köppen-Klassifikation)

Aperiodische und nichtsynchrone zyklische Komponenten

Darüber hinaus werden bei der räumlichen Mittelung lokaler Temperaturanomalien saisonale Komponenten weitgehend ausgelöscht. Wenn auf der nördlichen Hemisphäre Winter ist, ist auf der südlichen Hemisphäre Sommer. Auf den ersten Blick sollten sich diese natürlichen Zyklen kompensieren und sich daher durch Summierung gegenseitig aufheben.

Aber auch geophysikalische Phänomene wie der Polarwirbel, der sich zeitweise entlang des einen oder anderen Längengrades bildet, oder El Nino greifen ein und verursachen lokale, aber asynchrone zyklische Temperaturschwankungen von einem Punkt des Globus zum anderen.

Durch räumliche Mittelung werden diese natürlichen Schwankungen bis zu einem gewissen Grad eliminiert und ihre Auswirkungen auf einen Gesamtindikator minimiert; lokal betrachtet spielen sie jedoch eine wichtigere Rolle als globale Temperaturanomalien. Dies ist einer der Gründe, warum IPCC-Modelle, die auf globale Temperaturanomalien geeicht sind, lokale oder regionale Temperaturschwankungen nicht korrekt beschreiben können: Diese Modelle unterschätzen algorithmisch die lokalen natürlichen Schwankungen. Und genau diese sind von Bedeutung. Die Folgen des Klimawandels, wie Dürren, Überschwemmungen, Tornados oder sogar die Notwendigkeit, eine ganze Bevölkerung in Klimaflüchtlinge zu verwandeln, werden nämlich lokal beurteilt. Es gibt also objektive Gründe, mit lokalen Größen zu arbeiten und nicht mit globalen Indikatoren, die physikalisch keinen Sinn machen und zudem Verzerrungen und falsche Trends hervorrufen, wie weiter unten gezeigt wird (Abbildung 4):

Abbildung 4: Verlauf der lokalen Temperaturschwankungen. Örtlich schwankt die Temperatur zyklisch, aber auch asynchron von einem Punkt zum anderen. Die Mittelung nicht synchroner zyklischer Signale als Gesamtindikator hebt diese Schwankungen auf. Die Folgen für das Klima sind jedoch lokal spürbar. Daher unterschätzt die Verwendung eines globalen Indikators zur Bewertung eines lokalen Effekts die Auswirkungen von Klimaschwankungen an einem bestimmten Punkt. (Übersetzung der Farbcodes am oberen Rand des Bildes, von links nach rechts: Erwärmung, Abkühlung, Stabilisierung, Stadtblockeffekt). Die Zahlen in den Kästchen entsprechen den Temperaturanstiegen oder -abnahmen im betrachteten Zeitraum“ (Quelle: Ewert F.K. Fusion 32, 2011 Nr3 S. 31-61).

Ein weiteres Problem, das sich auf die Qualität der globalen Messungen auswirkt, ist die Tatsache, dass die Zahl der Stationen im Laufe der Zeit erheblich zurückgegangen ist, insbesondere infolge der Entkolonialisierung des afrikanischen Kontinents sowie des Zusammenbruchs der UdSSR und der daraus resultierenden Haushaltskürzungen am Ende des letzten Jahrhunderts (Abbildungen 5a und 5b):

Abbildung 5: Anzahl der Wetterstationen in Abhängigkeit von der Zeit. Abb. 5a: Lage der Wetterstationen in Abhängigkeit von der Zeit. Die Auswirkungen der Kolonialisierung und der Entwicklung des internationalen Verkehrs sowie der Entkolonialisierung in der Afrikanischen Union und der Sowjetunion hatten einen erheblichen Einfluss auf die geografische Verteilung und die Anzahl der Wetterstationen. Die große Mehrheit der terrestrischen Wetterstationen befindet sich in den USA. Abb. 5b: Überlagerung der Anzahl der Wetterstationen und der Berechnung der globalen Durchschnittstemperatur (°C) Im Jahr 1990, das dem Zusammenbruch der UdSSR entspricht, ändert sich die Anzahl der in Betrieb befindlichen Wetterstationen, und auch die berechnete globale Durchschnittstemperatur steigt deutlich an. Quelle:

(ftp://ftp.ncdc.noaa.gov/pub/data/qhcn/v2/v2.temperature.readme)

Zur Berechnung der globalen Durchschnittstemperatur oder ihrer Anomalie wird jedoch eine Form der Gewichtung von Punktmessungen verwendet, und zwar durch Algorithmen wie VoronoÏ. Letzterer ordnet die Temperatur einer Messstation allen Punkten zu, die näher an dieser Messstation liegen als andere, und definiert so eine „Kontrollzone“ (Abbildung 6):

Abbildung 6: Illustration des VoronoÏ-Algorithmus. Die Kontrollbereiche sind durch unterschiedliche Farben gekennzeichnet. Wenn die Anzahl der Stationen (dargestellt durch schwarze Punkte) abnimmt, vergrößern sich deren Kontrollbereiche.

Wenn die Anzahl der Stationen abnimmt, nimmt die Repräsentativität aller noch aktiven Stationen ab, aber auch der Kontrollbereich, der den benachbarten, aber noch aktiven Standorten entspricht, nimmt zu, was ihre Gewichtung bei der Berechnung der Gesamtdurchschnittswerte verändert. Dies führt zu Diskontinuitäten in den Gesamtmaßen.

Ende Teil 1

Wird fortgesetzt

Wer den gesamten Bericht sofort lesen will, findet ihn als pdf hierIPCC has it all wrong Li-Edition Deutsch