Die Energiewende voran treibende Eliten haben wirklich keine Ahnung, was sie da tun

Francis Menton, MANHATTAN CONTRARIAN

Wir sind auf dem Weg zum „Net Zero“ bis 2050. Es muss wahr sein, denn alle sagen das. Die gesamte [US-]Bundesregierung hat sich mit mehr als 6 Billionen Dollar pro Jahr dem Projekt verschrieben, was natürlich nicht der Fall wäre, wenn das Ganze unmöglich wäre. Ebenso engagiert sind im Wesentlichen alle Hochschulen und Universitäten, an denen sich die klügsten Köpfe tummeln. Und auch alle anderen Elite-Institutionen jeglicher Art und Couleur.

Nehmen wir das Weltwirtschaftsforum. Wenn es eine elitärste aller Elite-Institutionen gibt, dann ist es diese. Auf ihrem jährlichen Treffen in Davos in der Schweiz versammeln sie die größten Genies, um den führenden Regierungs- und Wirtschaftsvertretern beizubringen, wie sie die Welt regieren sollen. Würden Sie gerne hingehen? Die Mitgliedschaft in der Organisation kostet 52.000 Dollar, die Teilnahme an der Konferenz weitere 19.000 Dollar. Das Chartern eines Privatjets, um dorthin zu kommen, kostet ein paar Tausend mehr. Dort kann man die klügsten Köpfe hören, die ihre Gedanken zu den wichtigsten Themen des Tages äußern, wie „The Great Reset“, „Emerging Technologies“, „Diversity and Inclusions“ und natürlich „The Net Zero Transition“.

Ist es möglich, dass diese Leute völlig inkompetent sind und keine Ahnung haben, was sie da tun?

[Begriffe absichtlich nicht übersetzt. Hervorhebung vom Übersetzer]

Ein Leser hat mir den neuesten Bericht des WEF darüber geschickt, wie die Welt zu Net Zero kommen wird. Der Artikel ist auf den 5. September 2023 datiert und trägt den Titel „How battery energy storage can power us to Net Zero“ [etwa: Wie Batteriespeicher uns zur Erreichung von Net Zero mit Strom versorgen können]. Die Autoren sind drei Mitarbeiter der Weltbank, wobei der Hauptautor Amit Jain ist, der bei der Bank für das Energiespeicherprogramm zuständig ist. Er ist derjenige, der Dutzende von Milliarden Dollar an Regierungsgeldern erhält, um die Energiewende in den Entwicklungsländern voranzutreiben.

Zufälligerweise ist Energiespeicherung etwas, mit dem ich mich ein wenig auskenne, insbesondere mit dem Problem, genügend Energie zu speichern, um ein Stromnetz ohne eine voll einsatzfähige Reserve zu betreiben. Siehe meinen Bericht zur Energiespeicherung vom 1. Dezember 2022 unter diesem Link.

Werfen wir also einen Blick auf die Ausführungen von Jain und anderen, wie die Batteriespeicherung uns „zum Netto-Nullpunkt“ führen wird. Zunächst ein paar aufgeregte, fröhliche Worte:

Überall auf der Welt erleben die Energiesysteme eine Zeit beispielloser Veränderungen. Kostengünstiger Strom aus erneuerbaren Energien ist auf dem Vormarsch, und es wird immer dringlicher, die Widerstandsfähigkeit des Stromsystems zu erhöhen und die Digitalisierung zu verbessern. Dies erfordert eine massive Bevorratung mit erneuerbaren Energien, vor allem in Entwicklungsländern, was die Energiespeicherung zu einem wesentlichen Faktor macht. …

Wenn sich Energiespeichersysteme in den Entwicklungsländern durchsetzen, wird dies ein entscheidender Schritt sein. Der Einsatz von Batteriespeichersystemen wird einen umfassenderen Zugang zu Elektrizität ermöglichen und gleichzeitig eine viel stärkere Nutzung erneuerbarer Energien erlauben, was letztlich dazu beiträgt, dass die Welt ihre „Net Zero“-Dekarbonisierungsziele erreicht. Internationale Organisationen und Entwicklungsinstitutionen sind führend auf dem Weg, diese Dekarbonisierung zu ermöglichen. …

Also gut, Amit, über wie viel Speicherung reden wir hier?

Im Jahr 2022 wurden weltweit etwa 192 GW (Gigawatt) an Solar- und 75 GW an Windkraftanlagen installiert. Allerdings wurden nur 16GW/35GWh (Gigawatt pro Stunde) an neuen Speichersystemen eingesetzt. Eine aktuelle Analyse der Internationalen Energie-Agentur IEA kommt zu dem Schluss, dass Batteriespeichersysteme in den letzten Jahren zwar ein starkes Wachstum verzeichnen konnten, die Speicherkapazität im Netz aber noch erhöht werden muss, um bis 2050 eine Net Zero-Emission zu erreichen. … Um unser Ziel von Netto-Null-Emissionen bis 2050 zu erreichen, muss der jährliche Zuwachs an netzgebundenen Batteriespeichern weltweit bis 2030 auf durchschnittlich 80 GW pro Jahr steigen.

Heiliger Bimbam! Kann es sein, dass dieser Typ nicht einmal weiß, über welche Einheiten er spricht? In der Annahme, dass seine Leser die Abkürzung „GWh“ nicht verstehen könnten, definiert er sie hilfsweise als „Gigawatt pro Stunde“! Kann er wirklich so ahnungslos sein? Und er hatte zwei Co-Autoren, um ihn zu überprüfen!

Und dann ist da noch die Aussage, dass der jährliche Einsatz von netzgekoppelten Batterien auf durchschnittlich 80 GW pro Jahr steigen muss, um das Netto-Null-Ziel für 2050 zu erreichen“. Natürlich verwendet er die falschen Einheiten (und weiß das zweifellos nicht). Aber nehmen wir einmal an, dass er über die heute verfügbaren Standardbatterien spricht, die 4-Stunden-Batterien sind, was bedeutet, dass 80 GW eine Speicherkapazität von 320 GWh bieten würden. Wenn die Welt von heute bis 2050 jedes Jahr so viel Kapazität hinzufügt, würde das 8960 GWh an Speicherplatz ergeben. Wie kommen Jain et al. zu dem Schluss, dass diese 8960 GWh Speicher ausreichen, um „unsere Netto-Null-Ambitionen bis 2050 zu erreichen“? Der Artikel enthält keine quantitative Analyse oder Unterstützung jeglicher Art, um die Behauptung zu untermauern, dass diese Menge an Speicher ausreichend wäre.

Mein eigener Bericht über die Energiespeicherung enthält Sicherungen und Berechnungen, allerdings nur für bestimmte Länder und nicht für die ganze Welt. Die in meinem Bericht genannten Zahlen für die Vereinigten Staaten besagen beispielsweise, dass etwa 233.000 GWh Batteriespeicher erforderlich wären, um das Stromnetz vollständig zu sichern, wenn man von den derzeitigen Werten und Nutzungsmustern ausgeht. Da die USA etwa 4 % der Weltbevölkerung ausmachen, können wir diese Zahl mit 25 multiplizieren, um den Speicherbedarf für die ganze Welt zu ermitteln (unter der Annahme, dass die Welt bis 2050 auf das Niveau der USA elektrifiziert wird). Die Gesamtsumme würde 5.825.000 GWh betragen. Mit anderen Worten: Jain und Co. liegen um den Faktor 650 daneben, plus/minus ein paar Hundert.

Aber das ist in Ordnung, denn Jain und seine Kollegen haben in diesem Spiel nichts zu suchen. Sie plappern nur ein paar fröhliche Worte, um ein paar Hundert Milliarden Geld von reichen Regierungen in die Hände zu bekommen, und verteilen es, um beeindruckend aussehende Batterieprojekte zu bauen, die in Wirklichkeit so gut wie nutzlos sind, um zuverlässigen Netzstrom zu liefern. Sie können sich darauf verlassen, dass niemand in ihren Kreisen jemals nachrechnen wird, ob die Zahlen auch stimmen. Wenn das Jahr 2050 anbricht und die ganze Sache nicht funktioniert, werden sie längst im Ruhestand sein und eine großzügige Rente beziehen.

Link: https://wattsupwiththat.com/2023/09/08/the-elites-directing-the-energy-transition-really-have-no-idea-what-they-are-doing/

Übersetzt von Christian Freuer für das EIKE

 




Keine Sommererwärmung durch Kohlendioxdid

Der Sommer wird in Deutschland erst seit 1988 wärmer

Von Josef Kowatsch, Matthias Baritz, Stefan Kämpfe

  • Zunehmender Wärmeinseleffekt durch Bebauung und Flächenversieglungen, die Zunahme der Sonnenstunden, Trockenlegung der Landschaft und geänderte Großwetterlagen-Häufigkeiten bestimmen die Sommererwärmung seit 1988
  • Die Sommererwärmung seit 1988 fand hauptsächlich tagsüber statt.
  • Die Klimahysterie basierend auf CO ist völlig unbegründet, ein frei erfundenes Medienereignis.
  • Kohlendioxid ist ein lebensnotwendiges Gas, wir brauchen mehr und nicht weniger

Laut Deutschem Wetterdienst (DWD) lag das Temperaturmittel im Sommer 2023 bei 18,5 Grad Celsius (°C) und damit fast ein Grad wärmer als die aktuelle Vergleichsperiode 1991 bis 2020 (17,6 °C). Es wäre der 27. „zu warme“ Sommer in Folge, sagt der DWD

Nasser Juli und August verschafften dem Sommer ein Niederschlagsplus. Mit 270 Litern pro Quadratmeter (l/m²) ein gutes Zehntel mehr Niederschlag als im Mittel der Referenzperiode. Sonne: Mit 717 Stunden übertraf der Sonnenschein ihr Soll auch um 10%. Also mehr Sonnenstunden bei gleichzeitig mehr Niederschlag, sagt der DWD.

2023 war ein Schaukelsommer wie ihn Stefan Kämpfe bereits voraus schauend beschrieben hatte. Der DWD bestätigte dies nachträglich und ergänzte: „Nachdem am 3.6. in Sohland an der Spree mit -0,7 °C der bundesweite Sommer-Tiefstwert ermittelt wurde, herrschte im weiteren Juniverlauf im Südwesten des Landes außergewöhnlich warme Witterung. Im Juli gesellten sich extreme Hitzepeaks hinzu, die am 15.7. bei 38,8 °C in Möhrendorf-Kleinseebach (Bayern)“. Jedoch wurden nirgendwo neue Temperaturrekorde gemessen.

Uns interessiert mehr: Wie ist dieser Sommer 2023 in einem längeren Zeitraum einzuordnen? Lassen wir deshalb Grafiken von Zeitreihen sprechen

Zunächst die Sommer-Temperaturen seit 1892, also seit 131 Jahren

Man muss wissen, das Startjahr der DWD-Reihen um 1881 lag in einem Kälteloch, einer Kaltperiode, was die Stationen mit weiter zurückgehenden Reihen wie die vom Hohenpeißenberg oder Berlin/Tempelhof/Dahlem deutlich zeigen. Zu Zeiten Schillers und Goethes war der Sommer wärmer als um 1881. Beginnen wir mit 1892, kurz vor dem Ende der Kaltperiode.

Die deutsche Sommertemperaturkurve zeigt 2 auffallende Temperaturzeitintervalle:

Grafik 1: Die eigentliche Klimaerwärmung beim Sommer begann erst 1988

Wir erkennen 4 Zeitintervalle bei der Jahreszeit Sommer in den DWD-Reihen:

  1. Nach unmerklicher Abkühlung von 1890 bis 1910 leichte Erwärmung bis etwa 1950, leichte Abkühlung bis 1987
  2. Insgesamt jedoch 95 Jahre lang nahezu gleich bleibende Sommertemperaturen
  3. Deutlicher Temperatursprung von 1987 auf 1988/89
  4. Starke Weitererwärmung seit 1988

Wo bleibt die CO₂- Erwärmungswirkung?

Anhand dieser Sommergrafik ist bereits bewiesen, dass CO keinen oder kaum einen Einfluss auf die Temperaturentwicklung hat. Das jährlich steigende CO kann nicht fast 100 Jahre lang unwirksam sein, dann mit dem Jahr 1988, aufgeschreckt durch die Gründung des Weltklimarates plötzlich aufwachen und seine erwärmende Wirkung verstärkt entfalten, als müsste es die verschlafenen 100 Jahre davor nachholen.

Und wie trickst der DWD und die Medien und alle Treibhausanhänger?

Man zeichnet eine durchgehende Trendlinie seit 1881 und kommt zu 2 Grad Sommer-Erwärmung, das soll bereits der automatische Beweis sein, dass CO der alleinige Verursacher der Erwärmung wäre, wobei der DWD viele Werte der ersten fünf Jahrzehnte nachträglich kälter gemacht hat. Zwei Grafiken, CO und Temperaturen, die zufällig gleich verlaufen dienen als Ursache-Wirkungsbeweis. Eine wahrlich laienhafte, geradezu kindliche Begründung.

Anmerkung zu den DWD Temperaturdaten: Diese DWD-Temperaturdaten aus Grafik 1 sind nicht wärmeinselbereinigt. Die Temperaturen 2023 sind mit ganz anderen Wetterstationen an wärmeren Plätzen und mit ganz anderen Messgeräten und Messmethoden ermittelt als die Daten im Kaiserreich. Nicht nur die Städte und Dörfer wurden wärmer gemacht – das nennt man städtischen Wärmeinseleffekt – sondern die ganze Landfläche. Was alles zum WI-effekt gehört, hat Stefan Kämpfe hier beschrieben.

Als grober Anhaltspunkt: Wäre Deutschland so geblieben wie 1881 mit den damaligen Wetterstationen an den kälteren Standorten, dann würden die heurigen 18,5°C vor 140 Jahren mit etwa 17 Grad ermittelt worden sein. Wir nennen diese Spanne den Wärmeinseleffekt (WI) in den deutschen Sommer-Temperaturreihen.

Diese Wärmeinsel-Erwärmung ist eine reale Zusatzwärme, wir Menschen wohnen in den wachsenden Wärmeinseln, und da wurde es eben wärmer, aber ein Teil der 1,3 bis 1,5 Grad ist auch nur eine statistische Erhöhung des Schnittes, indem kältere Stationen stillgelegt und an wärmeren Standorten neu installiert werden. Diese statistischen Erwärmungstricks sind hier beschrieben und hier bewiesen.

Das wird auch in diesem Kurzvideo gezeigt. https://www.youtube.com/watch?v=jYUrgmQ_rUQ

Gibt es noch eine (fast) unberührte Wetterstation wie einst zum Vergleich?

Leider gibt es bei uns in Deutschland keine einzige Wetterstation mehr, die noch so steht wie vor 130 Jahren und in deren weiten Umgebung sich kaum was verändert hat. Aber in den USA ist das möglich. Die Dale Enterprise Wetterstation ist die drittälteste in Virginia, steht bei einer singulären Farm, nur ein inzwischen vierspuriger asphaltierter breiter Highway führt an der Farm vorbei und die nahegelegene Stadt Harrisonburg hat sich stark in Richtung Farm ausgeweitet. (Entfernung nur noch 1 km). Wir bezeichnen diese Wetterstation als WI-arm, ihre Temperaturgrafik für den Sommer sieht so aus:

Grafik 2: Diese WI-arme Wetterstation in den USA zeigt in 140 Jahren nur einen minimalen Sommertemperaturanstieg von etwa einem halben Fahrenheit, der jedoch auch erst vor 40 Jahren einsetze. (1 Fahrenheit= 0,56°C)

Der Klimawandel hat viele Ursachen, natürliche und anthropogene

Der Klimasprung von 1987 auf 1988 – siehe Grafik 1 – um fast 1 Grad hat auch natürliche Gründe: Die Änderung der Großwetterlagen, eine Umstellung von Nord/West auf mediterrane Einflüsse, NOA, AMO und andere natürliche wetterbestimmende Faktoren für Mitteleuropa. Die Wirkung der Luftreinhaltemaßnahmen. Der Temperatursprung wurde in Holland in dieser wissenschaftlichen Arbeit genauer verfolgt und beschrieben. Link T- Sprung. Zitat aus der Introduction: „This warming has not taken place uniformly: there is a jump around 1988 of about one degree in the average temperature.“

Die starke Weitererwärmung des DWD-Sommers nach dem Temperatursprung 1988

Die fast 0,5 Grad/Jahrzehnt an Sommer weiter Erwärmung haben menschengemachte und natürliche Gründe. Der menschengemachte Anteil ist zunehmend. Gründe des anthropogenen Anteiles sind die voranschreitende Zerstörung der Natur durch Überbauung und Flächenversiegelung, siehe Versiegelungszähler, Stand bei Redaktionsschluss: 50 761 km².

Und die Austrocknung der Landschaft durch Überbauung, sowie großflächige Trockenlegungen. Selbst die freie Fläche in Wald und Flur, Wiesen und Feldern wurden seit Jahrzehnten großflächig trockengelegt, damit nach einem Starkregen anderntags sofort die industrielle Land- und Forstwirtschaft wieder betrieben werden kann. Die Folgen: Plötzliches Hochwasser. Exemplarisch hier beschrieben.

Aber auch: Nach mehreren heißen Tagen geht die kühlende Wirkung des Bodens und der Vegetation in Wald und Flur verloren, da die Sonnenstunden tagsüber stark gestiegen sind und die Niederschläge etwa gleich blieben, siehe nächste Grafik.

Sonnenstunden und Niederschläge beim DWD-Sommer seit 1988

Sonnenstunden stark steigend, Niederschläge gleichbleibend. Das zeigen die nächsten beiden Grafiken.

Grafik 3: Die Sonnenstunden steigen seit 1988 stark an. Die Niederschläge blieben gleich. 2023 lagen beide Wetterfaktoren allerdings über dem Schnitt. Mit der Zunahme der Sonnenstunden hat selbstverständlich die Bewölkung abgenommen.

Merke: Der Mensch und die Sonne trocknen Deutschland im Sommer aus und nicht der CO₂-Klimawandel. Auch nicht der fehlende Niederschlag, denn es fehlt ja nichts.

Damit ist diese Literaturdefinition absolut falsch: Der Begriff Klimawandel bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe.

Wie allen bekannt ist, ist der Winter die Hauptzeit der Verbrennung.

Grafik 4: Fast 100 Jahre lang sind die Winter in Deutschland laut Deutschem Wetterdienst sogar kälter geworden. Dann der plötzliche hohe Temperatursprung und seitdem eine moderate Weitererwärmung der Winter.

Ergebnis: Die Wintergrafik Deutschlands zeigt erst recht, das CO₂ entweder gar keinen oder nur einen völlig untergeordneten Anteil an der Erwärmung Deutschlands seit 130 Jahren hat. Damit ist die in der Literatur verwendete Definition von Klimawandel sogar grottenfalsch.

Selbst aufgrund der physikalischen Grundlagen an den CO₂-Erwärmungseffekt glaubende Physiker schätzen den CO₂-Anteil als sehr niedrig ein. Sie wissen genau, dass die von langer Hand geplante und uns ängstigen sollende Klimahysterie völlig unbegründet ist.

Die unterschiedlichen Tag/Nachtemperaturen Deutschlands

Leider bietet der DWD keinen Gesamtschnitt seiner über 2000 Wetterstationen seit 1988 an, wir können nur Einzelstationen,- bisher über 50 ausgewertet – hier zeigen. Im Grunde ist eine Gesamtauswertung für den DWD auch nur schwer möglich, denn der DWD hat in den letzten 30 Jahren über die Hälfte seiner Stationen ausgetauscht wie wir oben im ersten link gezeigt haben.

Wir bieten hier nun einen kleinen Querschnitt (15) vom Verlauf der Tag/Nachtauswertungen. In den Grafiken ist die obere graue Linie der Tagesverlauf, gemessen in T-max (Sommerdurchschnitt aller täglichen 92 T-max-Messungen)

Grafik 5a. Es handelt sich um eine ländliche Station in Brandenburg, westlich von Potsdam. Beachte die Differenzen der Steigungslinien zwischen Tag/Nacht. Sie betragen bei Nauen 0,044 °C/Jahr.

Grafik 5b: Großstadt Berlin, geringere Tag/Nacht Steigungsdifferenz als bei Nauen

5c: Absolut ländlich in Thüringen, hohe Differenz zwischen Tag- und Nachtsteigungsformeln

5d: Stark wachsende Kleinstadt in BaWü, Stationsversetzung 2002, laut DWD damals an einen gleich warmen Standort.

5e: Hauptstadt von NRW, die sommerlichen Nachttemperaturen zeigen fast gar keine Erwärmung.

Grafik 5f: Gießen, deutliche Scherenöffnung zwischen Tag/Nacht Die Nachttemperaturen sind sogar fallend.

Grafik 5g: Großstadt Hamburg, nachts keine Erwärmung, tagsüber deutlich, typisch Flughafengelände mit asphaltierten Flächen

Grafik 5h: leichte Erwärmung nur am Tag, nachts kühler werdend

Grafik 5i: ländlich, Station steht umgeben von Wiesen, bei Memmingen kühlen die Sommernächte sogar deutlich ab, die Tagestemperaturen steigen weniger steil an.

Grafik 5j: Großstadt München, (Innenstadt) auch hier geht die Schere auseinander, nachts deutlich geringere Erwärmung als tagsüber.

Grafik 5k: Deutlichste Scherenöffnung aller DWD-Stationen. Diese Wetterstation befindet sich seit 2005 bei einem Aussiedlerhof außerhalb Nürnbergs in einer Waldlichtung. Sie wurde von einem wärmeren zu einem vermutlich kälteren Standort verlegt. Dagegen spricht der deutliche Anstieg Tagestemperaturen, dieselbe Anstiegsformel wie bei der nicht weit entfernten städtischen Station.

Grafik 5l: Bei der städtischen Station Nürnberg ist die Differenz der Trendliniensteigungen nur halb so groß. Die Tagsteigung ist gleich, die Trendlinie der Nachttemperaturen unterscheidet sich dafür deutlich von N.Netzstall

Grafik 5m: ländliche Station Wolfach im Schwarzwald, nachts leichte Abkühlung, am Tage starke Erwärmung

Grafik 5n: Martinroda, Thüringen, ländliche Station, weit auseinandergehende Schere, die starke Sommererwärmung fand am Tage statt.

Grafik 5o: Köln/Bonn, nur leichte nächtliche Temperaturzunahme, dafür aber am Tage umso mehr.

Anmerkung: Einige dieser Stationen wurden vom DWD im Betrachtungszeitraum versetzt. Das ändert natürlich die Steigungslinien, ist für unsere Zwecke jedoch nicht relevant. Wir betrachten die Steigungsunterschiede bei den wie eine Schere auseinandergehenden Trendlinien zwischen Tag/Nacht.

Einschub: Und was behauptet der gut bezahlte Treibhaus-Chef-Experte (so nennt er sich selbst) namens Häckl, der bei RTL moderiert? Das hier:

Die Nächte würden sich aufgrund des CO₂-Treibhauseffektes stärker erwärmen. Und das versucht Häckl anhand der CO₂-Rückstrahlung zu erklären. Ein klassischer Schuss in den Ofen. Herr Häckl hätte sich als RTL-Experte wenigstens unsere Grafik von Düsseldorf anschauen können.

Was würden Häckls Behauptung bedeuten? Das würde bedeuten, dass sich die Nachttemperaturen bei zunehmender CO₂-Konzentration immer mehr den Tagestemperaturen annähern würden bis es schließlich gar keinen Unterschied zwischen Tag/Nacht mehr geben würde!!!

Natürlich gibt es auch Ausnahmejahre wie diesen regenreichen Sommer 2023, der die Schere der Trendlinien bei den meisten DWD-Stationen etwas verringert hat. Ansonsten muss Sonnenstundenzunahme und zunehmende Landschaftstrockenlegung=Versteppung zu einem Öffnen der Trendlinienschere führen. Vergleiche Wüste, höchste Tag/Nachtunterschiede

Reale Ergebnisse der Tag/Nachtvergleiche

Die starke Sommererwärmung seit 1988 fand in Deutschland tagsüber statt. Das beweist den Einfluss der Wärmeinselwirkung. Andere Faktoren sind teilweise Bestandteil der Wärmeinselwirkung und bedingen sich gegenseitig wie Zunahme der Sonnenstunden, Niederschläge, Windrichtungen, Änderung der Großwetterlagen, Luftreinhaltemaßnahmen, kosmische Strahlung, Bebauung, Trockenlegungen, örtliche Klimabesonderheiten.

Die Sommererwärmung tagsüber sind der Hauptgrund, weshalb die DWD-Jahresschnitte wärmer werden seit 1988 und nicht ein Klimakiller Kohlendioxid.

Erkenntnis:

  1. Der völlig unterschiedliche Verlauf der Tag/Nachtemperaturen in Deutschland zeigt, dass CO₂ überhaupt keine oder fast keine Wirkung hat.
  2. Würde wie behauptet, Kohlendioxid der alleinige Temperaturtreiber sein, dann müssten bei allen DWD-Wetterstationen der Tages- und Nachttemperaturenverlauf dieselben Steigungsformeln aufweisen.
  3. Alle, das bedeutet streng genommen, dass alle 15 gezeigten DWD Stationen ein- und dieselbe Steigungsformeln für Tag/Nacht und für den Schnitt (brauner Graph) haben müssten, nämlich Y= 0,0494 C/Jahr, wie in Grafik 1

Das ist überhaupt nicht der Fall. Jede DWD-Wetterstation hat je nach Standortverhältnissen und Umgebung ihren eigenen Verlauf mit einer eigenen Steigungsformel. Dieser Grafikbeweis zeigt erneut, dass CO₂ allerhöchstens in homöopathischen Dosen wirken kann.

Gesamt: Das Klima wandelt sich immer, der stets verschiedene Sommer-steigungsverlauf der einzelnen DWD-Wetterstationen zeigt: CO₂ hat daran keinen erkennbaren Anteil

Zusammenfassung:

1.) Die Sommertemperaturen variieren an allen Betrachtungsorten Deutschlands von Jahr zu Jahr. Die Gründe sind die unzähligen natürlichen und sich ständig ändernden Einflüsse auf das Wetter und das Klima.

2.) Daneben übt der Mensch einen konstanten zusätzlichen Einfluss durch die Schaffung immer neuer zusätzlicher Wärmeinseleffekte aus. Bei manchen Stationen mehr, bei anderen weniger. Deshalb auch die unterschiedlichen Formeln der Regressionslinien.

3.) Weniger Nord-, dafür mehr Süd- und Hochdruckwetterlagen tragen ganz wesentlich zum Durchschnittstemperatur eines Monates bei. Es handelt sich um natürliche Einflussfaktoren auf das Wetter und Klima

4.) Wie die Grafiken zeigen, bewirken die jährlich weltweiten CO₂-Zunahmen entweder gar nichts oder nichts Erkennbares, denn sonst könnten die Nachttemperaturen nicht fallen. CO₂ kann am Tage auch im Sommer nicht erwärmend und nachts abkühlend wirken.

Damit ist die Definition des IPPC von Klimawandel falsch: Die behauptet nämlich, dass die CO₂-Zunahme der alleinige Temperaturtreiber wäre. Noch verwerflicher ist die derzeitige Klimapolitik der Bundesregierung, die ein klimaunwirksames Gas bekämpfen will und dabei unsere Demokratie, unsere Wirtschaft und unseren Wohlstand ruiniert. Das Geschäftsmodell CO₂-Treibhausgas will nur unser Geld, hier näher beschrieben.

Fazit: Es wird Zeit, dass endlich Umwelt- und Naturschutz in den Mittelpunkt des politischen Handelns gerückt werden, saubere Luft, genügend Trinkwasser zu verträgliche Preisen und gesunde Nahrungsmittel sind menschliche Grundrechte. Eine CO₂-Klimaabgabe taugt zu gar nichts, auf alle Fälle nicht dem Klima. Es handelt sich um ein Geschäftsmodell, das dem Sündenablasshandelsmodell der Kirche im Mittelalter nachempfunden ist. Neben den oben beschriebenen Gründen, abgeleitet aus den Grafiken, weshalb CO₂ nicht an der gemessenen Sommer-Erwärmung seit 1988 schuld sein kann, sollen noch fünf weitere Gründe genannt werden:

  1. Es gibt keinen Versuch, der die Klimasensitivität von CO₂ auch nur annähernd bestimmen kann. Behauptet werden 2° bis 4,5°C Erwärmung. Jeder Versuch liefert Null oder das Ergebnis verschwindet im Rauschen der Messfehler.
  2. Es gibt auch keinerlei technisches Anwendungsbeispiel, bei welchem wir Menschen uns den behaupteten CO₂-Treibhauseffekt positiv zunutze machen könnten.
  3. Bei der Sprengung der Nordstream-Pipeline entwichen 300 000 Tonnen des 25x stärkeren Treibhausgases Methan. Erhöhte Konzentrationen konnten gemessen werden, die dazugehörige Treibhauserwärmung gab es nicht.
  4. Schon bei der Elite der deutschen Physiker wie Einstein, Heisenberg, Hahn, Planck spielte der CO₂-Treibhauseffekt keine Rolle. Er existierte für sie schlichtweg nicht, obwohl die Hypothese dazu schon Jahrzehnte zuvor entwickelte wurde.
  5. Wir sind weit entfernt von einer bevorstehenden Klimakatastrophe oder gar Klimaverbrennung der Erde. Alles Angstgeschrei vom Untergang der Erde ist frei erfunden, unglaublich, dass unsere Medien nicht nur mitmachen, sondern meist noch zusätzlich übertreiben. Folgende Grafik sollte auf alle Leser beruhigend wirken:

Grafik 6: Einordnung der gegenwärtigen Temperaturen, Vergleich mit anderen Zeitepochen. Von einer Klimakatastrophe oder Erdverbrennung sind wir weit entfernt.

Der minimale Anstieg der globalen Temperaturen lässt sich leicht mit einer Albedoverringerung der Erdoberfläche in den letzten Jahrzehnten erklären, gemessen von Satelliten. Eben eine stete weltweite Beseitigung grüner Vegetationsflächen, eine stete Zunahme der weltweiten Flächenversiegelungen.

Medienmeldung: Klimamodelle sind sich einig – „wärmer und milder“. Wir sagen: Diese Aussage könnte stimmen, ergänzen jedoch stets: Aber nicht durch Kohlendioxid.

Grundforderung von uns Natur- und Umweltschützern: Die bewusst geplante und regierungsgewollte CO₂-Klimaangstmacherei in Deutschland muss eingestellt werden.

Was gegen heiße Sommertage hilft, haben wir hier beschrieben.

Leider werden diese Vorschläge, die wirklich helfen würden nicht umgesetzt, die Regierungsresonanz auf unsere Vorschläge war Null, obwohl wir viele Politiker angeschrieben haben. Daraus kann man nur den Schluss ziehen, die Regierung mitsamt ihren bezahlten Treibhausforschern und Angstmachern wollen gar keine Eindämmung der heißen Tage, dies würde die CO₂-Steuer und all die anderen dämlichen und teuren Klimarettungsmaßnahmen gefährden.

Wir brauchen mehr CO₂ in der Atmosphäre

Eine positive Eigenschaft hat die CO₂-Zunahme in der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Diesen lebensnotwendigen Wachstumsstoff holen sich die Pflanzen aus der Luft. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt bei 800 bis 1000ppm. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Wer CO₂ vermindern will, der handelt letztlich gegen die Schöpfung dieses Planeten.

Josef Kowatsch, Naturschützer und unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturschützer und neutraler Klimaforscher.

Stefan Kämpfe, Naturbeobachter und unabhängiger Klimaforscher.

 




Erwiderung auf falsche Behauptungen von RealClimate.org zu unserer Forschung über die Rolle der Sonne beim Klimawandel

CERES team

Im letzten Monat haben wir gemeinsam drei Artikel in wissenschaftlichen Fachzeitschriften verfasst, die sich mit dem Zwillingsproblem (1) der Verzerrung durch die Verstädterung und (2) den laufenden Debatten über die Daten zur Gesamt-Sonneneinstrahlung (TSI) befassen:

  1. Soon et al. (2023). Climate. https://doi.org/10.3390/cli11090179. (frei zugänglich)
  2. Connolly et al. (2023). Research in Astronomy and Astrophysics. https://doi.org/10.1088/1674-4527/acf18e. (Noch im Druck, Vorabdruck hier)
  3. Katata, Connolly and O’Neill (2023). Journal of Applied Meteorology and Climatology. https://doi.org/10.1175/JAMC-D-22-0122.1. (frei zugänglich)

Alle drei Studien haben Auswirkungen auf das wissenschaftlich schwierige Problem der Erkennung und Zuordnung (D&A) des Klimawandels. Viele unserer Erkenntnisse wurden vom IPCC in seinen letzten drei Bewertungsberichten (AR), d. h. IPCC AR4 (2007), IPCC AR5 (2013) und IPCC AR6 (2021), übersehen. Dies bedeutet, dass die sehr einflussreichen Behauptungen des IPCC in diesen Berichten, die langfristige globale Erwärmung seit dem 19. Jahrhundert sei „größtenteils vom Menschen verursacht“ und in erster Linie auf Treibhausgas-Emissionen zurückzuführen, wissenschaftlich verfrüht waren und von der wissenschaftlichen Gemeinschaft überdacht werden müssen.

Bisher war die Resonanz auf diese Studien sehr ermutigend. Insbesondere Soon et al. (2023) scheint auf großes Interesse zu stoßen, da der Artikel in den ersten zehn Tagen nach seiner Veröffentlichung mehr als 20 000 Mal auf der Website der Zeitschrift aufgerufen worden ist.

Allerdings scheinen einige Wissenschaftler, die die IPCC-Attributionserklärungen über Jahre hinweg aktiv gefördert haben, über das Interesse an unseren neuen wissenschaftlichen Studien ziemlich verärgert zu sein.

Diese Woche (6. September 2023) veröffentlichte die Website RealClimate.org einen Blogbeitrag von Dr. Gavin Schmidt, dem Direktor des NASA Goddard Institute for Space Studies (NASA GISS), der zu den Autoren gehört. In diesem Beitrag versucht Dr. Schmidt, unsere Analyse in Soon et al. (2023), eine unserer drei neuen Studien, mit Strohmann“-Argumenten und nachweislich falschen Behauptungen zu diskreditieren.

Wir fassen das in Connolly et al. (2023) zusammen:

„Ein ‚Strohmann‘-Argument ist ein logischer Trugschluss, bei dem jemand eine Position aufstellt und dann bestreitet, die von der kritisierten Gruppe nicht tatsächlich vertreten wurde. Stattdessen werden die Argumente oder Punkte der Gruppe von den Kritikern entweder übertrieben, falsch dargestellt oder komplett erfunden.“

Wir sind der Meinung, dass diese rhetorische Technik zwar gut für Marketing, politische Kampagnen, „Hit-Pieces“ usw. sein mag, aber weder für die Wissenschaft noch für die Entwicklung fundierter Meinungen hilfreich ist. Stattdessen bemühen wir uns in unserer Kommunikation um einen stahlharten Ansatz. Wir stellen in Connolly et al. (2023) klar:

„Im Wesentlichen geht es darum, die beste und konstruktivste Form des Arguments einer Person anzusprechen – auch wenn es nicht die Form ist, die sie ursprünglich präsentiert hat.“

In diesem Sinne werden wir zunächst die offensichtliche Kritik von Dr. Schmidt an Soon et al. (2023) entkräften.

Widerlegung von Dr. Schmidts Kritik an Soon et al. (2023)

In seinem letzten RealClimate-Beitrag behauptet Dr. Schmidt Folgendes:

1. Er behauptet, dass eine der beiden von Soon et al. (2023) betrachteten Zeitreihen der Gesamtsonneneinstrahlung (TSI) fehlerhaft, veraltet und unzuverlässig ist. (Nebenbei bemerkt, war dies auch eine der 27 TSI-Zeitreihen, die wir in Connolly et al. (2023) betrachtet haben, aber er diskutiert diese Studie hier nicht)

2. Er behauptet, dass eine Studie von Dr. Willie Soon aus dem Jahr 2005, die sich mit der Beziehung zwischen der TSI und den Temperaturen in der Arktis befasst, mit der Zeit widerlegt wurde.

3. Er argumentiert, dass die Aufzeichnung der Landtemperatur der nördlichen Hemisphäre, die eine der beiden von Soon et al. (2023) analysierten Temperaturaufzeichnungen war, nicht repräsentativ für die globalen Temperaturtrends in ländlichen Gebieten oder sogar für die Temperaturtrends in ländlichen Gebieten der nördlichen Hemisphäre ist.

Später in diesem Beitrag werden wir auf jede von Dr. Schmidts Behauptungen eingehen und zeigen, dass sie nicht stimmen. Doch zunächst ist es vielleicht nützlich, einige Hintergrundinformationen über RealClimate.org selbst zu vermitteln.

Wie zuverlässig ist RealClimate.org?

RealClimate.org wurde 2004 als Blog gegründet, um die wissenschaftlichen Meinungen der Eigentümer der Website zu verbreiten. Derzeit wird es von fünf Wissenschaftlern betrieben: Dr. Gavin Schmidt, Prof. Michael Mann, Dr. Rasmus Benestad, Prof. Stefan Rahmstorf und Prof. Eric Steig.

Jeder wissenschaftlich geschulte Leser (oder auch nur ein aufmerksamer Leser), der unsere Studie liest, wird feststellen können, dass jede der Behauptungen in Dr. Schmidts jüngstem Blogbeitrag entweder falsch oder irreführend ist oder bereits in unserer Studie eindeutig behandelt wurde. Aus wissenschaftlicher Sicht leistet sein Beitrag daher keinen produktiven oder sinnvollen Beitrag.

Stattdessen scheint es leider das Ziel seines Beitrags zu sein, Wissbegierige davon abzuhalten, unsere Studie zu lesen.

Wenn die Leute nur seinen Blog-Beitrag lesen würden, könnten sie davon abgehalten werden, sich unsere Studie überhaupt anzusehen – und würden daher nicht herausfinden, dass die angebliche „Kritik“ von Dr. Schmidt unbegründet ist.

Diese Art der pseudowissenschaftlichen „Demontage“ von Studien, die nicht mit den wissenschaftlichen Meinungen des RealClimate-Teams übereinstimmen, scheint ein gängiges Muster zu sein. Im November veröffentlichten sie beispielsweise eine ähnliche „Demontage“ unserer Studie aus dem Jahr 2021, die sie verächtlich mit „Serious mistakes found in recent paper by Connolly et al.“ betitelten. Dieser Beitrag fasste ihre versuchte „Widerlegung“ unserer Studie von Connolly et al. (2021) durch Richardson & Benestad (2022) zusammen.

Jeder, der sowohl Connolly et al. (2021) als auch Richardson & Benestad (2022) liest, wird schnell erkennen, dass auch ihre versuchte „Widerlegung“ leicht widerlegt wurde. In der Tat zeigen zwei unserer drei jüngsten Studien ausdrücklich, dass die Behauptungen von Richardson & Benestad (2022) fehlerhaft und falsch sind.

Wiederum scheint es, dass das Ziel von Richardson & Benestad (2022) und dem begleitenden Beitrag von RealClimate im November NICHT darin bestand, die Wissenschaft voranzubringen, sondern vielmehr darin, die Leute davon abzuhalten, Connolly et al. (2021) tatsächlich zu lesen!

Connolly et al. (2023) ist unsere offizielle Antwort auf den Versuch von Richardson & Benestad (2022), unsere frühere Studie Connolly et al. (2021) zu widerlegen.

Für alle, die sich fragen, was unsere Antwort auf Richardson & Benestads RealClimate-Beitrag vom November 2022 ist, empfehlen wir, die vollständigen Studien selbst zu lesen.

Alle drei Artikel wurden in der von Fachleuten begutachteten Zeitschrift Research in Astronomy and Astrophysics (kurz RAA) veröffentlicht.

  • Connolly et al. (2021): hier
  • Richardson & Benestad (2022): hier
  • Our reply, Connolly et al. (2023): Abstract; Vorabdruck hier (Die endgültige Fassung wird noch gedruckt.)

Zu Behauptung 1: Welche ist die zuverlässigste verfügbare TSI-Zeitreihe?

Eine zentrale Herausforderung und Gegenstand erheblicher wissenschaftlicher Debatten und Kontroversen ist die Frage, wie sich die Gesamt-Sonneneinstrahlung (TSI) seit dem 19. Jahrhundert und früher verändert hat.

Erst Ende 1978, in der Satellitenära, wurde es möglich, die TSI direkt von oberhalb der Erdatmosphäre mit TSI-Messinstrumenten an Bord von Satelliten zu messen.

Selbst in der Satellitenära ist immer noch unklar, wie genau sich die TSI verändert hat, denn:

1. Jede Satellitenmission bleibt in der Regel nur 10-15 Jahre lang aktiv.

2. Jedes Satelliteninstrument liefert einen anderen durchschnittlichen TSI-Wert.

3. Jeder Satellit zeigt subtil unterschiedliche, aber signifikante Unterschiede in den Trends zwischen den einzelnen Sonnenfleckenzyklen.

Diese Probleme sind im Folgenden dargestellt:

Aus den obigen Ausführungen geht hervor, dass, obwohl die Daten der einzelnen Satellitenmissionen unterschiedlich sind, alle Instrumente die Zu- und Abnahmen der Sonnenaktivität über den etwa 11-jährigen „Sonnenzyklus“ aufzeichnen, der in vielen Indikatoren für die Sonnenaktivität zu beobachten ist.

Da die einzelnen Instrumente jedoch in der Regel nur 10 bis 15 Jahre abdecken und unterschiedliche Grundtendenzen aufweisen, ist unklar, welche anderen Trends bei der TSI im Laufe der Satellitenära aufgetreten sind.

Mehrere Forschungsteams haben ihre eigenen Satellitenkomposits entwickelt, indem sie die oben genannten Satellitendaten auf unterschiedliche Weise und unter Verwendung verschiedener Annahmen und Verfahren kombiniert haben. Eine Zusammenfassung finden Sie in diesem CERES-Science-Beitrag.

Einige der wichtigsten neueren Komposita sind:

1. „ACRIM“ – Die ACRIM-Gruppe stellt fest, dass es neben dem 11-jährigen Sonnenzyklus auch wichtige Trends zwischen den einzelnen Zyklen gibt. Sie stellen fest, dass es zwischen jedem solaren Minimum und Maximum in den 1980er und 1990er Jahren einen signifikanten Anstieg der TSI gab, gefolgt von einem leichten Rückgang in den frühen 2000er Jahren. Siehe z. B. Scafetta et al. (2019).

2. „PMOD“ – Die PMOD-Gruppe nimmt mehrere Anpassungen an den Daten einiger früher Satellitenmissionen vor und verwendet unterschiedliche methodische Entscheidungen und Annahmen. Sie stellen fest, dass es zwischen den einzelnen Zyklen einen leichten Rückgang der TSI gegeben hat, der jedoch recht bescheiden war. Siehe z. B. Montillet et al. (2022).

3. „RMIB/ROB“ – Die ROB-Gruppe (früher RMIB genannt) argumentiert, dass sich die TSI im Laufe der Satellitenära mit Ausnahme des 11-jährigen Sonnenzyklus fast nicht verändert hat. Siehe z. B. Dewitte & Nevens (2016).

4. „The Community Composites“ – Dudok de Wit et al. (2017) bieten zwei verschiedene TSI-Composites an. Das eine, das die ursprünglichen Satellitendaten verwendet, impliziert eine Rekonstruktion zwischen den RMIB- und ACRIM-Kompositen. Das andere, das die PMOD-bereinigten Satellitendaten verwendet, impliziert eine Rekonstruktion ähnlich dem PMOD-Komposit.

Für die Vor-Satelliten-Ära gibt es keine direkten Messungen. Stattdessen müssen sich die Forscher auf „solare Näherungswerte“ verlassen, von denen sie hoffen, dass sie wichtige Aspekte der sich verändernden Sonnenaktivität genau wiedergeben.

Einige dieser Näherungswerte sind: Sonnenfleckenzahlen, Sonnenfleckengruppen, Sonnenzykluslängen, das Verhältnis von Penumbra- und Umbra-Merkmalen der Sonnenflecken, helle Flecken in der Photosphäre der Sonne (so genannte Sonnenfaculae), Messungen kosmogener Isotope usw.

In der Regel werden die Sonnenproxies anhand der Satellitenmessungen während der Satellitenära kalibriert. Die kalibrierten solaren Näherungswerte werden dann verwendet, um die Veränderungen der TSI in der Vor-Satelliten-Ära zu schätzen.

Sie denken jetzt wahrscheinlich, dass dies ein komplexes und schwieriges Problem ist. Sie haben Recht! Obwohl einige Wissenschaftler so tun, als seien diese Probleme bereits vollständig gelöst, wissen diejenigen von uns, die seit vielen Jahren aktiv an diesen Problemen forschen, dass es sich um ein heikles und strittiges Thema handelt.

Je nachdem, (a) welches Satellitenkompositum verwendet wird, (b) welche solaren Proxies verwendet werden und (c) welche Verfahren verwendet werden, können verschiedene Forschungsteams sehr unterschiedliche langfristige TSI-Rekonstruktionen entwickeln.
Zum Beispiel:

1. Matthes et al. (2017) sind diejenigen, die IPCC AR6 verwendet haben – basierend auf dem Durchschnitt zweier anderer TSI-Rekonstruktionen – „SATIRE“ von Krivova et al. (2007) und „NRLTSI2“ von Coddington et al. (2016). Alle drei stimmen gut mit dem PMOD-Komposit überein.

2. Bei Dewitte et al. (2022) handelt es sich um eine einfache Rekonstruktion, die auf einer einfachen Neuskalierung der Sonnenfleckenzahlen basiert, um mit dem RMIB-Kompositum übereinzustimmen.

3. Egorova et al. (2018) entwickelten 4 verschiedene Schätzungen. Jede zeigt eine weitaus größere Variabilität über die letzten Jahrhunderte als die IPCC-Schätzungen.

4. In einer NASA-Studie von 2019 aktualisierten Scafetta et al. (2019) die ursprüngliche TSI-Rekonstruktion von Hoyt und Schatten (1993) unter Verwendung des ACRIM-Komposits. Diese Rekonstruktion ist in gewisser Weise einzigartig, da Hoyt und Schatten im Gegensatz zu den meisten anderen, nur ein oder zwei solare Näherungswerte verwendenden Rekonstruktionen fünf solare Näherungswerte verwendeten, um mehrere Aspekte der solaren Variabilität zu erfassen.

5. Penza et al. (2022) gehen davon aus, dass sich die TSI im vergangenen Jahrhundert erheblich verändert hat, allerdings nicht so stark wie bei Egorova et al. (2018) oder der aktualisierten Rekonstruktion von Hoyt und Schatten (1993) gezeigt.

In Connolly et al. (2023) analysierten wir insgesamt 27 TSI-Rekonstruktionen, darunter alle oben genannten. In Soon et al. (2023) haben wir uns jedoch der Einfachheit halber auf nur zwei der oben genannten Rekonstruktionen konzentriert – Matthes et al. (2017) und die ACRIM-aktualisierte Rekonstruktion von Hoyt & Schatten.

Dr. Schmidt mag offensichtlich weder das ACRIM-Kompositum noch das ursprüngliche TSI-Kompositum von Hoyt & Schatten. Wir können verstehen, warum! Es impliziert eine viel größere Rolle für die Sonne bei den Klimaveränderungen seit dem 19. Jahrhundert als das RealClimate-Team behauptet.

Es ist jedoch erwähnenswert, dass Hoyt und Schatten (1993) als eine der sechs TSI-Reihen verwendet wurde, die vom CMIP3-Modellierungsprojekt berücksichtigt wurden, das der IPCC für seine Analyse der Erkennung und Zuordnung in seinem vierten Sachstandsbericht (2007) verwendete. Dies kann bestätigt werden, wenn man die Liste der „SOL“-Zeitreihen (d. h. TSI) auf den Seiten 11-12 des Ergänzungsmaterials zu Kapitel 9 der Arbeitsgruppe 1 des IPCC AR4 überprüft.

Die CMIP5- und CMIP6-Modellierungsprojekte, die zu den AR5- und AR6-Berichten 2013 und 2021 beigetragen hatten, berücksichtigten Hoyt und Schatten (1993) nicht als potenzielle TSI-Reihe. Dies scheint jedoch teilweise auf den Einfluss von Dr. Schmidt zurückzuführen zu sein. Er war der Hauptautor von Schmidt et al. (2011), d.h. der Studie, in der die für die PMIP3- und CMIP5-Projekte zu verwendenden Klimamodellierungs-Antriebe empfohlen werden.

Wie bereits erwähnt, haben wir in Connolly et al. (2023) insgesamt 27 verschiedene TSI-Rekonstruktionen berücksichtigt und sind dennoch zu ähnlichen Schlussfolgerungen gekommen wie Soon et al. (2023). Die spezifische Wahl von Hoyt und Schatten ist also nur eine Möglichkeit zu zeigen, dass der IPCC mit seiner AR6-Zuschreibung voreilig war.

Zu Behauptung 2: Hatte Soon (2005) unrecht?

In Soon (2005) fiel Dr. Soon eine bemerkenswerte Korrelation zwischen der TSI-Reihe von Hoyt und Schatten (1993) und den arktischen Temperaturen von 1875 bis 2000 auf.

In einer nachfolgenden Studie wiederholte Soon (2009) seine Analyse unter Verwendung (a) einer neueren Version der TSI-Reihe von Hoyt und Schatten, die bis 2007 aktualisiert wurde, und (b) der arktischen Temperaturaufzeichnungen des NASA GISS von 1880-2007.

Der Vergleich wird im Folgenden in Anlehnung an Abbildung A.1 von Soon (2009) dargestellt:

In seinem Blogbeitrag von dieser Woche räumt Dr. Schmidt ein, dass die Übereinstimmung 2005 gut aussah, aber er behauptet, dass sie nicht mehr gilt:

„Aber die Zeit schreitet voran, und was 2005 noch gut aussah (mit Daten, die nur bis 2000 reichten), sah 2015 nicht mehr so gut aus.“

Dr. Schmidt zeigte dann eine Darstellung, die er 2015 mit einem anderen TSI-Datensatz als dem von Soon verwendeten erstellt hatte. Seine Reanalyse ergab keine zwingende Korrelation, wenn sie auf die aktualisierten NASA-GISS-Temperaturdaten für die Arktis angewendet wurde.

Andererseits haben wir ebenfalls im Jahr 2015 als Teil unserer Analyse der Temperaturtrends auf der nördlichen Hemisphäre in Soon et al. (2015) unsere eigene Aktualisierung der ursprünglichen Analyse von Soon (2005; 2009) einbezogen.

Unten ist Abbildung 27(d) von Soon et al. (2015) zu sehen. Die blaue Linie stellt die arktischen Temperaturen dar, während die gestrichelte rote Linie die TSI darstellt:

Der Versuch von Dr. Schmidt, die Analyse von Soon (2005) durch Verwendung einer anderen TSI-Aufzeichnung auf das Jahr 2015 zu aktualisieren, schlug fehl.

Im Gegensatz dazu bestätigte die Aktualisierung von Soon et al. (2015), welche die aktualisierte Version der TSI von Soon (2005) und Soon (2009) verwendeten, die ursprünglichen Ergebnisse der früheren Studien.

Zu Behauptung 3: Ist unsere auf den ländlichen Raum beschränkte Temperaturaufzeichnung der nördlichen Hemisphäre repräsentativ für einen echten Klimawandel?

Dr. Schmidt scheint verwirrt zu sein über die nur auf der nördlichen Hemisphäre vorhandene Temperaturaufzeichnung, die wir als eine von zwei vergleichenden Temperaturaufzeichnungen in Soon et al. (2023) und auch als einen von fünf vergleichenden Temperaturaufzeichnungen in Connolly et al. (2023) verwendet haben.

Wir sind überrascht, dass er nicht verstanden zu haben scheint, wie diese Temperaturaufzeichnungen konstruiert worden sind, da die Konstruktion aller fünf Temperaturaufzeichnungen in Connolly et al. (2021) ausführlich beschrieben wurde, zusammen mit einer detaillierten Diskussion der Gründe für jede Temperaturaufzeichnung. Einzelheiten wurden auch in der von ihm kritisierten Studie von Soon et al. (2023) dargelegt.

Vielleicht hat er sich aber auch noch nicht die Zeit genommen, Connolly et al. (2021) zu lesen. Als Connolly et al. (2021) veröffentlicht wurde, wurde Dr. Schmidt von einem Journalisten der Epoch Times gebeten, die Studie zu kommentieren. Laut The Epoch Times:

„Als er auf die neue Studie angesprochen wurde, äußerte sich Gavin Schmidt, stellvertretender leitender Berater für Klimafragen bei der NASA und Direktor des Goddard Institute for Space Studies, ebenfalls unverblümt.

‚Das ist völliger Unsinn, mit dem niemand vernünftig seine Zeit verschwenden sollte‘, sagte er der Epoch Times.

Er reagierte nicht auf eine Anfrage, ob die neue Studie der RAA konkrete Fehler enthält.“ The Epoch Times, 16. August 2021

Eines der Hauptprobleme, auf das wir in Soon et al. (2023) hingewiesen haben, war das sogenannte „Urbanisierungsproblem“. Es ist bekannt, dass es in städtischen Gebieten wärmer ist als auf dem Land. Dies ist als „Urban Heat Island (UHI)“-Effekt bekannt.

Da städtische Gebiete nur 3-4 % der globalen Landfläche ausmachen, sollte dies die globalen Temperaturen nicht wesentlich beeinflussen.

Die meisten Wetterstationen, die für die Berechnung der Landkomponente der globalen Temperaturen verwendet werden, befinden sich jedoch in städtischen oder halbwegs städtischen Gebieten. Dies gilt insbesondere für die Stationen mit den längsten Temperaturaufzeichnungen. Ein Grund dafür ist die Schwierigkeit, eine Wetterstation in einem isolierten, ländlichen Gebiet über ein Jahrhundert oder länger zu besetzen und zu unterhalten.

Infolgedessen haben viele der längsten, zur Berechnung der globalen Temperaturveränderungen herangezogenen Stationsaufzeichnungen wahrscheinlich auch eine lokale Erwärmung in den Städten im Laufe ihrer Aufzeichnungen erfahren. Diese städtische Erwärmung ist nicht repräsentativ für die Klimaveränderungen in der nicht-städtischen Welt.

Die städtische Erwärmung, die fälschlicherweise in die „globalen Temperaturdaten“ einfließt, wird als „Urbanisierungsverzerrung“ bezeichnet.

Es ist immer noch unklar, inwieweit die aktuellen Schätzungen der globalen Erwärmung durch eine Verzerrung aufgrund der Verstädterung verunreinigt sind. In seinem jüngsten Bericht gab der IPCC optimistisch an, dass der Einfluss der Verstädterung wahrscheinlich weniger als 10 % der Erwärmung des Landes ausmacht. Sie haben jedoch keine stichhaltige Erklärung dafür geliefert, warum dies ihrer Meinung nach so ist.

Wie in Connolly et al. (2021), Soon et al. (2023) und Connolly et al. (2023) beschrieben, deuten mehrere wissenschaftliche Studien darauf hin, dass städtische Verzerrungen für mehr als 10 % der Erwärmung des Landes verantwortlich sind – und möglicherweise für viel mehr.

Kurzer Exkurs: Hintergrundinformationen dazu, wie und warum wir unsere auf die nördliche Hemisphäre beschränkte Temperaturaufzeichnung entwickelt haben

In Connolly et al. (2021) versuchten wir, das Problem der Verstädterung zu lösen, indem wir einen reinen Temperaturdatensatz für den ländlichen Raum entwickelten, der nur Temperaturdaten von ländlichen Stationen oder von Stationen verwendete, die ausdrücklich um Verstädterungsfehler korrigiert worden waren. Wir sahen uns jedoch mit zwei großen Problemen konfrontiert, die wir schon seit fast einem Jahrzehnt zu lösen versuchten:

1. Es gab einen erheblichen Mangel an ländlichen Stationen mit Temperaturaufzeichnungen von einem Jahrhundert oder länger.

2. Viele Wetterstationen mit langen Temperaturaufzeichnungen sind durch andere, nicht klimatisch bedingte Verzerrungen verunreinigt, z. B. durch Stationsumzüge, Änderungen der Instrumentierung usw.

Als wir uns ansahen, wie andere internationale Gruppen (einschließlich der Gruppe von Dr. Schmidt am NASA GISS) die nichtklimatischen Verzerrungen in den Daten berücksichtigten, entdeckten wir, dass sie sich nicht bemühten, die Stationsbesitzer zu kontaktieren, um „Metadaten zur Stationsgeschichte“ zu erhalten, d. h. Informationen über alle Änderungen, die mit der Station im Laufe ihrer Aufzeichnungen verbunden sind.

Stattdessen verließen sich die meisten Gruppen (einschließlich NASA GISS) auf automatisierte Computerprogramme, die versuchten zu erraten, wann Stationsänderungen eine Verzerrung verursacht haben könnten. Diese Programme verwendeten statistische Algorithmen, die jede Station mit den Aufzeichnungen benachbarter Stationen verglichen und „Homogenisierungs-Anpassungen“ an den Daten vornahmen.

In einer Reihe von drei Arbeitsstudien“, die zwei von uns (Dr. Ronan Connolly und Dr. Michael Connolly) im Jahr 2014 veröffentlicht haben, haben wir beschrieben, wie das funktioniert:

1. Es gab schwerwiegende Fehler in den von der NOAA verwendeten Homogenisierungs-Algorithmen, also von der Gruppe, deren homogenisierte Daten das NASA GISS für seine globalen Temperaturschätzungen verwendete. (https://oprj.net/articles/climate-science/34)

2. Es gab auch ernsthafte Probleme mit dem zusätzlichen Computerprogramm zur Anpassung der „Urbanisierungsverzerrung“, das NASA GISS auf die homogenisierten Daten der NOAA anwandte (siehe https://oprj.net/articles/climate-science/31)

3. Alle bis mindestens 2013 veröffentlichten Studien, die vorgaben, eine Verzerrung durch Verstädterung als wesentliches Problem ausgeschlossen zu haben, wiesen methodische Mängel auf, so dass ihre Schlussfolgerungen ungültig waren (siehe http://oprj.net/articles/climate-science/28).

Im April 2015 boten wir während unseres Besuchs in New York City (zusammen mit Dr. Imelda Connolly) an, diese Probleme mit Dr. Schmidt in den Büros von NASA GISS zu besprechen und zu sehen, ob mögliche Lösungen gefunden werden könnten. Dr. Schmidt lehnte die Einladung mit der Begründung ab, er sei nicht sehr vertraut damit, wie der globale Temperaturdatensatz von NASA GISS aufgebaut sei. Aber er arrangierte freundlicherweise, dass wir die Studien mit Dr. Reto Ruedy besprechen konnten, der damals der leitende Wissenschaftler für den NASA-GISS-Temperaturdatensatz (genannt GISTEMP“) war. Wir vier (Dr. Reto Ruedy, Dr. Imelda Connolly, Dr. Michael Connolly und Dr. Ronan Connolly) trafen uns im kultigen „Tom’s Restaurant“ direkt neben dem Bürogebäude des NASA GISS.

Bild: Dr. Ronan Connolly vor dem kultigen Tom’s Restaurant in New York City nach unserem dreistündigen freundschaftlichen und ausführlichen Fachgespräch mit Dr. Ruedy, das von Dr. Schmidt organisiert wurde. (April 2015).

Dr. Ruedy gab zu, dass keiner aus seinem Forschungsteam die verschiedenen, in unseren Studien aufgeworfen Probleme berücksichtigt hatte. Wir fragten ihn, ob er irgendwelche Probleme mit unserer Analyse erkennen könne. Er sagte, dass er das nicht sofort könne, aber er versprach, uns eine E-Mail zu schicken, wenn er Fehler in unserer Analyse erkennen könne. Da er uns nie eine E-Mail geschickt hat, gehen wir davon aus, dass er keine Fehler finden konnte.

Während unseres Treffens mit Dr. Ruedy warnten wir ihn vor einem Problem mit dem Homogenisierungs-Algorithmus der NOAA, das wir als „Urban Blending“-Problem bezeichnen, das andere jedoch als „statistisches Aliasing-Problem“ bezeichnet haben. Vor kurzem haben wir das Ausmaß dieses Problems in Katata et al. (2023) bestätigt.

Wir haben ihn gewarnt, dass aufgrund dieses Problems die Verzerrungen der städtischen Erwärmung in den Daten noch stärker in seine globalen Temperaturschätzungen einfließen würden, wenn er die homogenisierte Version der Daten der NOAA verwenden würde.

Er räumte ein, dass dies ein Problem sei, erklärte aber, dass das für den GISTEMP-Datensatz zuständige NASA-GISS-Team nur eine begrenzte Anzahl von Stunden pro Woche für die Arbeit an den Daten zur Verfügung habe. Daher müsse man darauf vertrauen, dass die Homogenisierungsbemühungen der NOAA besser seien als nichts.

Wir verließen unser Treffen mit Dr. Ruedy ziemlich enttäuscht, als wir feststellten, dass selbst das gut ausgestattete Forschungsteam des NASA GISS nicht wusste, wie man diese wichtigen wissenschaftlichen Probleme lösen konnte, und im Grunde nur hoffte, dass sich jemand anderes um die Daten kümmerte.

Wir beschlossen, dass wir es selbst versuchen würden, wenn sich niemand sonst um die Lösung dieser Probleme kümmern würde.

Damals stellte die NOAA zwei Arten von Stadtbewertungen zur Verfügung, die mit jedem ihrer GHCN-Datensätze (Global Historical Climatology Network) verbunden waren – eine auf der Grundlage der lokalen Bevölkerung und die andere auf der Grundlage der Intensität der Nachtbeleuchtung in dem Gebiet. Dies war Version 3 des GHCN, und die NOAA hat es bis Ende 2019 aktualisiert. Die aktuelle Version des GHCN (Version 4) enthält keine Parameter für die Urbanisierung. Daher konzentriert sich unsere Hauptanalyse derzeit auf die Version 3. Wir arbeiten jedoch daran, unsere Analyse in Zukunft mit der Version 4 zu erweitern – siehe Soon et al. (2018); O’Neill et al. (2022) und Katata et al. (2023) für weitere Einzelheiten zu dieser späteren Arbeit.

Wir haben uns entschieden, alle 7200 GHCN-Stationen in drei Kategorien einzuteilen – „ländliche“ Stationen sind diejenigen, die in Bezug auf beide GHCN-Parameter ländlich sind; „städtische“ Stationen sind diejenigen, die in Bezug auf beide Parameter städtisch sind. Alle anderen Stationen stufen wir als „semi-urban“ ein.

Dabei stießen wir sofort auf mehrere Probleme:

1. Weniger als 25% der GHCN-Stationen sind „ländlich“.

2. Die meisten der ländlichen Stationen haben sehr kurze Stationsaufzeichnungen, die oft nur 40-50 Jahre oder so umfassen.

3. Die wenigen ländlichen Stationen mit langen Aufzeichnungen, die bis ins späte 19. oder frühe 20. Jahrhundert zurückreichen, befinden sich fast ausschließlich in der nördlichen Hemisphäre und beschränken sich auf einige wenige Regionen: Nordamerika, Europa, Ostasien und einige arktische Gebiete.

4. Viele der ländlichen Stationen mit nominell langen Stationsaufzeichnungen wiesen oft große Datenlücken und plötzliche Verschiebungen der Durchschnittstemperatur auf, die möglicherweise auf nichtklimatische Stationsänderungen zurückzuführen sind.

Die meisten aus den Daten der Wetterstationen globale Temperaturaufzeichnungen erstellenden Gruppen verlassen sich auf die oben erwähnten Computerprogramme zur Temperaturhomogenisierung, um die ursprünglichen Temperaturaufzeichnungen automatisch anzupassen und „nichtklimatische Verzerrungen“ aus den Daten zu entfernen.

Wenn diese Homogenisierungs-Computerprogramme so zuverlässig wären, wie viele Wissenschaftler angenommen haben, dann sollten diese „automatisch homogenisierten“ Temperaturaufzeichnungen nicht mehr durch nichtklimatische Verzerrungen verunreinigt sein.

Wie wir jedoch herausgefunden haben (und mit Dr. Ruedy bei unserem Treffen 2015 diskutierten), weisen diese Homogenisierungsalgorithmen ernsthafte statistische Probleme auf, die neue nichtklimatische Verzerrungen in die homogenisierten Daten einbringen.

In den darauf folgenden Jahren haben wir die Schwere dieser Verzerrungen und statistischen Probleme in mehreren von Fachleuten begutachteten wissenschaftlichen Artikeln nachgewiesen: Soon et al. (2018); O’Neill et al. (2022) und kürzlich Katata et al. (2023).

Daher wurde uns klar, dass die anderen die Daten der Wetterstationen analysierenden Gruppen unbeabsichtigt einen großen wissenschaftlichen Fehler begingen, indem sie sich unkritisch auf diese automatisch „homogenisierten“ Daten verließen.

Um nichtklimatische Verzerrungen in den Daten zu korrigieren, müssen wir stattdessen realistischere, auf Experimenten basierende Korrekturen vornehmen.

Wir beschlossen, unsere Analyse damit zu beginnen, die Gebiete mit den längsten Aufzeichnungen über den ländlichen Raum und den meisten Informationen über die mit den Daten verbundenen nichtklimatischen Verzerrungen zu ermitteln. Wir fanden heraus, dass nur vier Regionen mehr als 80 % aller ländlichen Stationen mit Daten für das späte 19. und frühe 20. Jahrhundert repräsentativ sind. Alle vier Regionen liegen in der nördlichen Hemisphäre.

Unserer Meinung nach gab es auf der Südhalbkugel einfach nicht genügend Daten über ländliche Gebiete, um eine globale, rein ländliche Temperaturreihe zu erstellen, die bis ins späte 19. Jahrhundert zurück reicht.

Daher beschränkten wir unsere Analyse auf die datenreichere nördliche Hemisphäre.
Eine Region, auf die wir unsere Analyse in Zukunft ausweiten könnten, ist Europa (wie in den Studien beschrieben). Derzeit beschränkt sich unsere Analyse der Temperatur in ländlichen Gebieten in Europa auf Irland, da wir die wichtigsten Metadaten für die irischen Stationen von der nationalen meteorologischen Organisation (Met Éireann) erhalten konnten. In einer kürzlich erschienenen Studie (O’Neill et al., 2022) haben wir jedoch in Zusammenarbeit mit Wissenschaftlern aus ganz Europa die Metadaten von mehr als 800 Wetterstationen in 24 europäischen Ländern zusammengetragen – eine Zusammenfassung finden Sie hier. Die meisten dieser europäischen Stationen sind urbanisiert, aber unsere vorläufige Analyse deutet darauf hin, dass wir in der Lage sein sollten, diese Metadaten in der Zukunft zu nutzen, um eine datenreichere Temperaturaufzeichnung für das „ländliche Europa“ zu entwickeln.

Wie schneidet unsere Reihe, die sich ausschließlich auf den ländlichen Raum bezieht, im Vergleich zur Standardreihe „Stadt und Land“ ab?

Das obere Paneel zeigt die Standardschätzungen der Landtemperaturen der nördlichen Hemisphäre unter Verwendung aller Stationen – sowohl in Städten als auch in ländlichen Gebieten. Das untere Paneel zeigt unsere Schätzung für die Temperatur auf dem Land.

In Soon et al. (2023) – der Studie, über die sich Dr. Schmidt beschwert hat – berücksichtigen wir beide Temperaturschätzungen. Wir berücksichtigen auch zwei verschiedene TSI-Aufzeichnungen – die für die Zurechnungsexperimente im IPCC AR6 verwendete TSI-Reihe von Matthes et al. (2017) und die aktualisierte TSI-Reihe von Hoyt und Schatten, die wir bereits besprochen haben. Im Folgenden finden Sie eine Zusammenfassung einiger unserer wichtigsten Ergebnisse:

Dr. Schmidt beklagt, dass unsere auf ländliche Gebiete beschränkenden Temperaturaufzeichnungen der nördlichen Hemisphäre nicht zuverlässig sind, weil:

„Es ist keine gute flächige Stichprobe der nördlichen Hemisphäre, es ist keine gute Stichprobe ländlicher Stationen – von denen es viele im restlichen Europa, Australien, dem südlichen Afrika, Südamerika usw. gibt, es ist keine gute Stichprobe langer Stationen (von denen es wiederum viele anderswo gibt).“

Dies ist eine ziemlich clevere, aber irreführende Falschdarstellung der Daten. Beachten Sie, wie er seine Aussage in zwei Teile aufspaltet.

Im ersten Teil sagt er richtigerweise, dass es in anderen Regionen als den von uns analysierten „eine gute Stichprobe ländlicher Stationen“ gibt, aber er vergisst zu erklären, dass es sich dabei meist um Stationen mit kurzen Aufzeichnungen handelt.

Betrachtet man nämlich die Anzahl der im Jahr 2000 verfügbaren Stationen, so gibt es in der Tat viele ländliche Stationen rund um den Globus:

Im zweiten Teil seiner Erklärung stellt er richtig fest, dass es viele lange Stationsaufzeichnungen außerhalb der von uns analysierten Regionen gibt, aber er versäumt es zu erklären, dass sie nicht ländlich sind!

Nachfolgend sind die Stationen aufgeführt, für die Daten aus dem Jahr 1880 vorliegen. Wir haben die drei Regionen der südlichen Hemisphäre hervorgehoben, die wir seiner Meinung nach hätten mit einbeziehen sollen, d. h. Australien, das südliche Afrika und Südamerika:

Verstehen Sie, warum Dr. Schmidts Charakterisierung der verfügbaren Daten unaufrichtig war?

Aber was ist mit anderen Schätzungen der Temperaturen der nördlichen Hemisphäre?

In Soon et al. (2023) haben wir die Erwärmung der Landoberfläche der nördlichen Hemisphäre (1850-2018) anhand der Daten der Wetterstationen bewertet. In Connolly et al. (2023) haben wir jedoch auch drei zusätzliche Temperaturreihen der nördlichen Hemisphäre berücksichtigt. Eine wurde aus den Daten der Meerestemperatur (SST) erstellt. Die beiden anderen basierten auf Temperatur-Proxydaten: (a) Baumring-Temperaturproxydaten oder (b) Gletscherlängen-Temperaturproxydaten.

Dr. Schmidt behauptete, dass unsere nur auf dem Lande gemessenen Temperaturreihen nicht repräsentativ für die Temperaturtrends der nördlichen Hemisphäre seien. Wenn er recht hat, dann würden diese anderen Temperaturschätzungen vermutlich ganz andere Trends zeigen. Schauen wir mal!

Was meinen Sie dazu?

Offensichtlich sind sie nicht genau identisch. Wir sind jedoch der Meinung, dass alle drei alternativen Temperaturschätzungen weitgehend mit unseren reinen Temperaturaufzeichnungen auf dem Land übereinstimmen.

Daher sind wir mit Dr. Schmidts Behauptung nicht einverstanden.

Schließlich, wenn Sie sich an den Anfang erinnern, gefiel Dr. Schmidt die zweite TSI-Reihe nicht, die wir in Soon et al. (2023) analysiert haben. In Connolly et al. (2023) analysierten wir jedoch insgesamt 27 TSI-Serien.

Für jeden Temperaturdatensatz führten wir eine statistische Analyse in Bezug auf die „natürlichen“ und „anthropogenen“ (d. h. vom Menschen verursachten) Klimatreiber durch, die der IPCC für seine Attributionsversuche verwendet. Der IPCC berücksichtigte nur zwei natürliche Faktoren – TSI und Vulkanausbrüche. Wir haben alle Aufzeichnungen des IPCC zu den Klimatreibern verwendet, aber wir haben unsere Analyse unter Verwendung jeder der 27 TSI-Serien der Reihe nach wiederholt.
Sowohl in Connolly et al. (2023) als auch in Soon et al. (2023) verfolgen wir einen ähnlichen Ansatz wie die IPCC-Zuschreibungsanalyse. Das heißt, wir vergleichen die Ergebnisse, die man erhält, wenn man sie berücksichtigt:

1. „Nur natürliche Faktoren“ (die der IPCC als TSI und Vulkanismus definiert)

2. „Nur anthropogene Faktoren“.

3. „Natürliche und anthropogene Faktoren“.

Wenn Sie die Ergebnisse all dieser Kombinationen sehen möchten, empfehlen wir Ihnen, die vollständigen Studien zu lesen. Der Einfachheit halber wollen wir jedoch nur die ersten beiden Kombinationen vergleichen.

In Abbildung 6 von Connolly et al. (2023) haben wir die Anpassungen „nur natürliche Faktoren“ unter Verwendung von drei der am besten passenden TSI-Reihen mit den Anpassungen „nur anthropogene Faktoren“ verglichen. Siehe unten:

Die TSI-Aufzeichnung, über die sich Dr. Schmidt beschwert hat, wird hier als „H1993“ bezeichnet. Beachten Sie jedoch, dass wir für jede Temperaturaufzeichnung ähnlich gute Anpassungen mit anderen TSI-Schätzungen erhalten können.

Schlussfolgerungen

In Soon et al. (2023) kamen wir zu den folgenden zentralen Schlussfolgerungen:

„(1) Die Verzerrung durch die Verstädterung bleibt ein erhebliches Problem für die globalen Landtemperaturdaten; (2) es ist immer noch unklar, welche (wenn überhaupt) der vielen TSI-Zeitreihen in der Literatur genaue Schätzungen der vergangenen TSI sind; (3) die wissenschaftliche Gemeinschaft ist noch nicht in der Lage, mit Sicherheit festzustellen, ob die Erwärmung seit 1850 überwiegend vom Menschen verursacht wurde, überwiegend natürlich ist oder eine Kombination davon.“

Diese Schlussfolgerungen stehen im Einklang mit unseren Ergebnissen in zwei weiteren Studien, die ebenfalls in den letzten Wochen veröffentlicht worden sind – in separaten, von Experten begutachteten Fachzeitschriften und unter Verwendung unterschiedlicher unabhängiger Analysen.

So haben wir in Katata et al. (2023) bestätigt, dass die Schätzung des IPCC zum Ausmaß der Verstädterung in den globalen Temperaturdaten viel zu niedrig ist. In Connolly et al. (2023) kamen wir hingegen zu dem Schluss, dass es „unklar ist, ob die beobachtete Erwärmung überwiegend vom Menschen verursacht wurde, überwiegend natürlich ist oder eine Kombination aus beidem darstellt“.

Dr. Schmidt und das RealClimate-Team wollen offenbar nicht, dass Sie unsere Studien lesen. Sie scheinen zu befürchten, dass ihre Behauptungen über den Klimawandel dann nicht mehr so überzeugend erscheinen würden.

Im Gegensatz dazu haben wir keine Angst davor, dass Menschen Studien lesen, die nicht mit uns übereinstimmen. Wir ermutigen die Menschen sogar dazu, mehrere wissenschaftliche Perspektiven zu lesen und sich ihre eigene Meinung zu bilden.

Nachstehend finden Sie Links zu den oben genannten Studien. Lesen Sie ruhig alle, die für Sie von Interesse sind!

References mentioned

  1. W. Soon, R. Connolly, M. Connolly, S.-I. Akasofu, S. Baliunas, J. Berglund, A. Bianchini, W.M. Briggs, C.J. Butler, R.G. Cionco, M. Crok, A.G. Elias, V.M. Fedorov, F. Gervais, H. Harde, G.W. Henry, D.V. Hoyt, O. Humlum, D.R. Legates, A.R. Lupo, S. Maruyama, P. Moore, M. Ogurtsov, C. ÓhAiseadha, M.J. Oliveira, S.-S. Park, S. Qiu, G. Quinn, N. Scafetta, J.-E. Solheim, J. Steele, L. Szarka, H.L. Tanaka, M.K. Taylor, F. Vahrenholt, V.M. Velasco Herrera and W. Zhang (2023). „The Detection and Attribution of Northern Hemisphere Land Surface Warming (1850–2018) in Terms of Human and Natural Factors: Challenges of Inadequate Data“, Climate, 11(9), 179; https://doi.org/10.3390/cli11090179. (Open access)
  2. R. Connolly, W. Soon, M. Connolly, S. Baliunas, J. Berglund, C.J. Butler, R.G. Cionco, A.G. Elias, V. Fedorov, H. Harde, G.W. Henry, D.V. Hoyt, O. Humlum, D.R. Legates, N. Scafetta, J.-E. Solheim, L. Szarka, V.M. Velasco Herrera, H. Yan and W.J. Zhang (2023). „Challenges in the detection and attribution of Northern Hemisphere surface temperature trends since 1850“. Research in Astronomy and Astrophysics. https://doi.org/10.1088/1674-4527/acf18e. (Still in press, but pre-print available here)
  3. G. Katata, R. Connolly and P. O’Neill (2023). „Evidence of urban blending in homogenized temperature records in Japan and in the United States: implications for the reliability of global land surface air temperature data“. Journal of Applied Meteorology and Climatology. 62(8), 1095-1114. https://doi.org/10.1175/JAMC-D-22-0122.1. (Open access)
  4. R. Connolly, W. Soon, M. Connolly, S. Baliunas, J. Berglund, C. J. Butler, R. G. Cionco, A. G. Elias, V. M. Fedorov, H. Harde, G. W. Henry, D. V. Hoyt, O. Humlum, D. R. Legates, S. Lüning, N. Scafetta, J.-E. Solheim, L. Szarka, H. van Loon, V. M. Velasco Herrera, R. C. Willson, H. Yan and W. Zhang (2021). “How much has the Sun influenced Northern Hemisphere temperature trends? An ongoing debate”. Research in Astronomy and Astrophysics, 21, 131. https://doi.org/10.1088/1674-4527/21/6/131. (Open access)
  5. M.T. Richardson and R.E. Benestad (2022). „Erroneous use of Statistics behind Claims of a Major Solar Role in Recent Warming“. Research in Astronomy and Astrophysics, 22, 125008. http://dx.doi.org/10.1088/1674-4527/ac981c. (pdf available here).
  6. N. Scafetta, R.C. Willson, J.N. Lee and D.L. Wu (2019). „Modeling Quiet Solar Luminosity Variability from TSI Satellite Measurements and Proxy Models during 1980–2018“. Remote Sensing. 11(21), 2569. https://doi.org/10.3390/rs11212569. (Open access)
  7. Montillet, J.-P., Finsterle, W., Kermarrec, G., Sikonja, R., Haberreiter, M., Schmutz, W., & Dudok de Wit, T. (2022). „Data fusion of total solar irradiance composite time series using 41 years of satellite measurements“. Journal of Geophysical Research: Atmospheres, 127, e2021JD036146. https://doi.org/10.1029/2021JD036146. (Preprint here)
  8. S. Dewitte and S. Nevens (2016). „The Total Solar Irradiance Climate Data Record“. The Astrophysical Journal, 830 25. https://doi.org/10.3847/0004-637X/830/1/25 (Open access).
  9. T. Dudok de Wit, G. Kopp, C. Fröhlich and M. Schöll (2017). „Methodology to create a new total solar irradiance record: Making a composite out of multiple data records“. Geophysical Research Letters, 44(3), 1196-1203. https://doi.org/10.1002/2016GL071866. (Open access)
  10. K. Matthes, B. Funke, M.E. Andersson, L. Barnard, J. Beer, P. Charbonneau, M.A. Clilverd, T. Dudok de Wit, M. Haberreiter, A. Hendry, C.H. Jackman, M. Kretzschmar, T. Kruschke, M. Kunze, U. Langematz, D.R. Marsh, A.C. Maycock, S. Misios, C.J. Rodger, A.A. Scaife, A. Seppälä, M. Shangguan, M. Sinnhuber, K. Tourpali, I. Usoskin, M. van de Kamp, P.T. Verronen and S. Versick (2017) „Solar forcing for CMIP6 (v3.2)“. Geoscientific Model Development, 10, 2247–2302. https://doi.org/10.5194/gmd-10-2247-2017 . (Open access).
  11. N. A. Krivova, L. Balmaceda and S. K. Solanki (2007). „Reconstruction of solar total irradiance since 1700 from the surface magnetic flux“. Astronomy and Astrophysics, 467, 335-346. https://doi.org/10.1051/0004-6361:20066725 . (Open access).
  12. O. Coddington, J.L. Lean, P. Pilewskie, M. Snow and D. Lindholm (2016). “A Solar Irradiance Climate Data Record”. Bulletin of the American Meteorological Society, 97(7), 1265-1282. https://doi.org/10.1175/BAMS-D-14-00265.1 . (Open access)
  13. S. Dewitte, J. Cornelis and M. Meftah (2022). „Centennial Total Solar Irradiance Variation“, Remote Sensing, 14(5), 1072. https://doi.org/10.3390/rs14051072 . (Open access)
  14. T. Egorova, W. Schmutz, E. Rozanov, A.I. Shapiro, I. Usoskin, J. Beer, R.V. Tagirov and T. Peter (2018). „Revised historical solar irradiance forcing“. Astronomy and Astrophysics, 615, A85. https://doi.org/10.1051/0004-6361/201731199 (Open access)
  15. D.V. Hoyt and K.H. Schatten (1993). „A discussion of plausible solar irradiance variations, 1700-1992“. Journal of Geophysical Research Space Physics, 98(A11), 18895-18906. https://doi.org/10.1029/93JA01944 . (pdf available here)
  16. V. Penza, F. Berrilli, L. Bertello, M. Cantoresi, S. Criscuoli and P. Giobbi (2022). „Total Solar Irradiance during the Last Five Centuries“. The Astrophysical Journal, 937(2), 84. https://doi.org/10.3847/1538-4357/ac8a4b . (Open access).
  17. W. W.-H. Soon (2005). „Variable solar irradiance as a plausible agent for multidecadal variations in the Arctic-wide surface air temperature record of the past 130 years“. Geophysical Research Letters. 32, 16. https://doi.org/10.1029/2005GL023429 (Open access)
  18. W. W.-H. Soon (2009). „Solar Arctic-Mediated Climate Variation on Multidecadal to Centennial Timescales: Empirical Evidence, Mechanistic Explanation, and Testable Consequences“. Physical Geography. 30, 144-184. https://doi.org/10.2747/0272-3646.30.2.144 (pdf available here).
  19. W. Soon, Ronan Connolly and M. Connolly (2015). “Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19th century”. Earth-Science Reviews, 150, 409-452. https://doi.org/10.1016/j.earscirev.2015.08.010. (Preprint version)
  20. P. O’Neill, R. Connolly, M. Connolly, W. Soon, B. Chimani, M. Crok, R. de Vos, H. Harde, P. Kajaba, P. Nojarov, R. Przybylak, D. Rasol, Oleg Skrynyk, Olesya Skrynyk, P. Štěpánek, A. Wypych and P. Zahradníček (2022). “Evaluation of the homogenization adjustments applied to European temperature records in the Global Historical Climatology Network dataset”. Atmosphere, 13(2), 285. https://doi.org/10.3390/atmos13020285. (Open access)
  21. W.W-H. Soon, R. Connolly, M. Connolly, P. O’Neill, J. Zheng, Q. Ge, Z. Hao and H. Yan (2018). Comparing the current and early 20th century warm periods in China. Earth-Science Reviews, 185, 80-101. https://doi.org/10.1016/j.earscirev.2018.05.013. (Preprint version)
  22. G.A. Schmidt, J.H. Jungclaus, C.M. Ammann, E. Bard, P. Braconnot, T.J. Crowley, G. Delaygue, F. Joos, N.A. Krivova, R. Muscheler, B.L. Otto-Bliesner, J. Pongratz, D.T. Shindell, S.K. Solanki, F. Steinhilber, and L.E.A. Vieira (2011). “Climate forcing reconstructions for use in PMIP simulations of the last millennium (v1.0)”. Geoscientific Model Development, 4, 33–45, https://doi.org/10.5194/gmd-4-33-2011. (Open access).

Link: https://www.ceres-science.com/post/reply-to-erroneous-claims-by-realclimate-org-on-our-research-into-the-sun-s-role-in-climate-change

Übersetzt von Christian Freuer für das EIKE

 




1609 Wissenschaftler weltweit verurteilen die Klima-Hysterie

Larry Bell

[Hervorhebungen in diesem Beitrag vom Übersetzer]

Jede Behauptung, die Wissenschaft sei sich einig über die Existenz einer durch Kohlendioxid verursachten Klimakrise, ist ein betrügerischer, zerstörerischer und kostspieliger Betrug.

Eine „Welt-Klima-Erklärung“, die im August von der gemeinnützigen wissenschaftlichen Global Climate Intelligence Group (CLINTEL) veröffentlicht und von 1609 namhaften Wissenschaftlern und Fachleuten – darunter zwei Nobelpreisträger, John Clauser (USA) und Ivar Giaever (Norwegen/USA) – unterstützt wurde, widerlegt eindeutig eine solche Behauptung.

Der Autor, der zwei hoch bewertete Bücher zu diesem Thema veröffentlicht hat – das zweite auf Drängen des verstorbenen Dr. Fred Singer, dem Gründer des US-Wettersatellitendienstes, sowie des verstorbenen Dr. John Coleman, dem Mitbegründer des Wetterkanals – gehört zu den 321 Unterzeichnern von CLINTEL in den USA.

CLINTEL argumentiert, dass die Klimawissenschaft zu einer Glaubensdiskussion verkommen ist und nicht zu einer fundierten, selbstkritischen Wissenschaft:

● Es gibt keinen Notfall: Wissenschaftler sollten Unsicherheiten und Übertreibungen bei ihren Vorhersagen zur globalen Erwärmung offen ansprechen, und Politiker sollten die realen politischen Kosten sowie die imaginären Vorteile ihrer Vorschläge berechnen.

● Sowohl natürliche als auch vom Menschen verursachte Faktoren verursachen Änderungen der Temperatur: Die Welt hat sich deutlich weniger erwärmt, als theoretische Modelle vorausgesagt haben, was zeigt, dass wir weit davon entfernt sind, die komplexen Einflüsse zu verstehen.

● Klimamodelle sind als politische Instrumente nicht im Entferntesten plausibel: Sie übertreiben die Wirkung von Treibhausgasen, während sie den bereichernden und lebenswichtigen Nutzen von CO₂ für die Vegetation außer Acht lassen, das für alles Leben unerlässlich ist.

● Die Aufzeichnungen zeigen, dass die globale Erwärmung nicht zu einer Zunahme von Naturkatastrophen geführt hat; es gibt jedoch zahlreiche Belege dafür, dass Maßnahmen zur Verringerung der CO₂-Emissionen ebenso schädlich wie kostspielig sind.

● Die Klimapolitik muss die wissenschaftlichen und wirtschaftlichen Realitäten respektieren: Es gibt keinen Klimanotstand, und deshalb lehnt CLINTEL die schädliche und unrealistische Netto-Null-CO₂-Politik, die für 2050 vorgeschlagen wird, entschieden ab.

Die Erklärung von CLINTEL widerspricht alarmistischen, auf fehlerhaften Annahmen und Modellen beruhenden Weltuntergangsszenarien, die von den Medien verbreitet werden und sich als völlig unrealistisch erwiesen haben.

Nachdem die Temperaturen in den 1930er Jahren höher waren als heute und trotz der Industrien des Zweiten Weltkriegs in den 1940er Jahren, die enorme Mengen an CO₂ in die Atmosphäre freisetzten, führten drei Jahrzehnte der Abkühlung bis in die späten 1970er Jahre dazu, dass „Experten“, wissenschaftliche Einrichtungen sowie große Mediennetzwerke den Beginn einer neuen Eiszeit ankündigten.

Dieser Alarm schlug bald in eine angeblich entgegengesetzte globale Erwärmungsgefahr um.

Im Juni 2008 sagte James Hansen, Direktor des Goddard Institute for Space Studies (GISS) der NASA, voraus, dass es in fünf bis zehn Jahren kein arktisches Sommereis mehr geben würde.

Man beachte, dass Hansens Nachfolger Gavin Schmidt später, im Jahr 2021, in der renommierten Fachzeitschrift Science zugab: „Im Laufe des letzten Jahres ist klar geworden, dass wir um das Eingeständnis nicht herumkommen, dass man den Modellen als politischem Instrument nicht trauen kann. Am Ende erhält man sogar für die nahe Zukunft Zahlen, die ebenso wahnsinnig beängstigend wie falsch sind“.

Einige werden sich an den „Climategate“-Skandal von 2009 erinnern, als durchgesickerte E-Mail-Kommunikation zwischen Klimawissenschaftlern grobe, nicht gemeldete Unsicherheiten in Form von unhaltbaren Behauptungen und falschen Darstellungen enthüllte, die bis heute anhalten.

Kevin Trenberth, einer der Hauptautoren der IPCC-Berichte aus den Jahren 2001 und 2007, gab in der Wissenschaftszeitschrift Nature.com zu: „Keines der vom IPCC verwendeten Modelle wird mit dem beobachteten Zustand initialisiert, und keiner der Klimazustände in den Modellen entspricht auch nur im Entferntesten dem aktuellen beobachteten Zustand.“

Der verstorbene Stephen Schneider, Autor von „The Genesis Strategy“, einem Buch aus dem Jahr 1976, in dem er davor warnte, dass die globale Abkühlung eine Bedrohung für die Menschheit darstelle, änderte diese Ansicht später als Hauptautor von drei IPCC-Berichten um 180 Grad.

In der Zeitschrift Discover (1989) wird er mit den Worten zitiert, dass wir, um das Risiko eines möglicherweise katastrophalen Klimawandels zu verringern, „eine breite Unterstützung brauchen, um die Öffentlichkeit zu begeistern. Das bedeutet natürlich auch, dass die Medien viel darüber berichten müssen. Wir müssen also Schreckensszenarien entwerfen, vereinfachte, dramatische Aussagen machen und dürfen die Zweifel, die wir haben könnten, kaum erwähnen. Jeder von uns muss entscheiden, was das richtige Gleichgewicht zwischen Effektivität und Ehrlichkeit ist.“

Nein, wie CLINTEL in ihrer Erklärung klarstellt, erfordert verantwortungsvolle Wissenschaft keine solche Entscheidung zwischen Ehrlichkeit und Agenda.

In einer der E-Mails von Wissenschaftlern aus der Climategate-Ära heißt es: „Es ist unvorstellbar, dass politische Entscheidungsträger bereit sind, Milliarden- und Billionen-Dollar-Entscheidungen zur Anpassung an den prognostizierten regionalen Klimawandel auf der Grundlage von Modellen zu treffen, die nicht einmal die Prozesse beschreiben und simulieren, die die Bausteine der Klimavariabilität sind.“

Unvorstellbar, ja, aber tragischerweise geschieht es trotzdem.

This article originally appeared at NewsMax

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2023/09/04/1609-global-scientists-debunk-climate-hysteria/

Übersetzt von Christian Freuer für das EIKE

 




Alarmisten heizen mit Klima- und Wetter-„Rekorden“ ein

Larry Bell

Tedros Ghebreyesus, Generaldirektor der Weltgesundheitsorganisation (WHO), schrieb auf X, früher bekannt als Twitter, „Der heißeste Monat [Juli] ist gerade zu Ende gegangen. Wir haben sengende Hitze, extreme Wetterereignisse, Waldbrände und schwere gesundheitliche Folgen erlebt.“ Er fügte hinzu: „Das erinnert uns eindringlich daran, dass wir dringend gemeinsam etwas gegen den Klimawandel unternehmen müssen. Lassen Sie uns diesen alarmierenden Meilenstein nutzen, um unsere Entschlossenheit für mutige Klimaschutzmaßnahmen zu stärken. Gemeinsam können wir den Druck auf nachhaltige Lösungen erhöhen und eine kühlere, widerstandsfähigere Welt für die kommenden Generationen schaffen.“

Myron Ebel, Direktor und Senior Fellow des Center for Energy and Environment, weist darauf hin, dass Juni und Juli vielerorts heiß waren, während an anderen Orten – wie in Los Angeles mit dem zehntkältesten Juni seit Beginn der Aufzeichnungen der National Oceanic and Atmospheric Administration (NOAA) – unterdurchschnittliche Temperaturen herrschten.

Am 27. Juli erklärte Präsident Biden, dass „Rekordtemperaturen – und ich meine Rekord – jetzt mehr als 100 Millionen Amerikaner betreffen. Puerto Rico erreichte letzten Monat einen Hitzeindex von 125 Grad [52°C*]. San Antonio erreichte im letzten Monat einen Rekord-Hitzeindex von 117“ [47°C*].

[*Einschub des Übersetzers: Die Rede ist hier nicht von „Temperatur“, sondern von „Hitze-Index“. Weiter unten im Beitrag wird erklärt, dass der Index „Temperatur und Luftfeuchtigkeit kombinieren“. Vermutlich ist also eine Größe gemeint, die bei uns als „Pseudopotentielle Temperatur“ bekannt ist. Dabei wird rechnerisch angenommen, dass die gesamte Feuchtigkeit in der Luft auskondensiert und die frei werdende latente Wärme {d. h. die zuvor für die Verdunstung verbrauchte Wärme} zur Temperatur hinzu addiert wird. Im genannten Beispiel wären das also 51°C bei einer Relativen Luftfeuchtigkeit von Null Prozent. Allerdings erscheint dieser Wert bei hohen Temperaturen viel zu niedrig,, denn in einer feuchtheißen Luftmasse treten auch bei uns Werte über 100 Grad Celsius auf! – Weil nirgendwo angegeben wird, ob Fahrenheit oder Celsius gemeint ist, werden hier die Original-Angaben aus dem Beitrag mit dem entsprechenden Celsius-Wert in Klammern dahinter genannt {außer wenn explizit Grad Fahrenheit genannt wird}. – Ende Einschub]

Anstatt die tatsächlichen Temperaturen zu nennen, betrug der Index in Puerto Rico nach Angaben des Nationalen Wetterdienstes (NWS) an dem genannten Tag 95 Grad (35 Celsius) – nicht 125 (52) – da die Indexmessungen Temperatur und relative Luftfeuchtigkeit kombinieren.

Nach Angaben des NWS resultierte der Hitzeindex von San Antonio von 117 (47) Grad in diesem Monat aus nur drei Tagen mit Temperaturen von 105 (41) Grad vom 19. bis 21. Juni. Und während in Houston die Temperaturen im Juli rund 5 Grad über dem Durchschnitt lagen, gab es in einigen ländlichen texanischen Städten wie Water Valley mit 99,8 (37,7) Grad im Vergleich zu einem vorherigen Durchschnitt von 97 (36,1) Grad kaum Veränderungen.

Der Klimatologe Professor John Christy, Direktor des Geowissenschaftszentrums der Universität von Alabama in Huntsville, weist darauf hin, dass „der Westen regional gesehen die meisten Rekorde für heiße Sommer in den letzten 100 Jahren verzeichnet hat, während das Ohio-Tal und der obere Mittlere Westen die wenigsten erlebt haben“.

Dr. Christy, ein ehemaliger NASA-Wissenschaftler, beobachtet: „Für das gesamte Gebiet der USA haben die letzten zehn Jahre nur eine durchschnittliche Anzahl von Rekorden hervorgebracht. Die 1930er Jahre sind immer noch der Champion [für die meisten 100-plus-Temperaturtage in einem Jahr].“

In den alarmistischen Berichten werden die Temperaturdaten des U.S. Historical Climate Network (USHCN) für den Hauptteil der USA bequemerweise nicht erwähnt, aus denen hervorgeht, dass die Zahl der Tage mit Temperaturen über 100 Grad Fahrenheit (37,8 Grad Celsius), die in den 1930er Jahren ihren Höhepunkt erreichten, seit 80 Jahren insgesamt rückläufig ist.

Man bedenke, dass dieser Höhepunkt vor den 1940er Jahren erreicht worden war, als die Waffenindustrie des Zweiten Weltkriegs große Mengen an CO in die Atmosphäre freisetzte.

Nichtsdestotrotz sanken die globalen Temperaturen von Mitte der 1940er Jahre bis Ende der 1970er Jahre in Schüben, als der größte Teil des klimawissenschaftlichen Establishments und der Medien den Beginn der nächsten Eiszeit mit rasant vorstoßenden Gletschern, die Manhattan bedrohten, vorhersagte.

Ein Jahrzehnt später, begünstigt durch die fieberhaften Anhörungen des damaligen Senators Al Gore 1988 im Kongress und im Einklang mit der Besessenheit der Vereinten Nationen, das Kyoto-Protokoll zu verabschieden, einen Plan zur Umverteilung des globalen Reichtums, der den CO₂-Ausstoß in den Industrieländern – vor allem in den USA – deckelt, erklärte der IPCC einen gegenteiligen und unmittelbar bevorstehenden globalen Erwärmungsnotstand, der China, dem weltweit größten Emittenten, weiterhin einen Freibrief ausstellt.

Während Christy und praktisch alle anderen sachkundigen Klimatologen voll und ganz anerkennen, dass sich das Klima offensichtlich aufgrund zahlreicher komplexer natürlicher Faktoren verändert und dass seit dem Ende der drei Jahrhunderte dauernden so genannten „Kleinen Eiszeit“ Mitte des 18. Jahrhunderts ein Erwärmungstrend zu verzeichnen ist, sollten wir die 30-jährigen Klima-Zuordnungen nicht mit dekadischen und kürzeren regionalen Wettermustern und -ereignissen verwechseln.

Christie erklärte gegenüber der Epoch Times, dass die globalen, nur bis 1979 zurückreichenden Satellitenmessungen, die er zusammen mit seinem Meteorologenkollegen Roy Spencer durchgeführt hat zeigen, dass der vergangene Juli zwar der wärmste um etwa ein Viertel Grad war, dass aber ein „früher und starker El Niño“ ein „Hauptfaktor“ für diesen Anstieg war.

Der Begriff „El Niño“ bezieht sich auf durchweg natürliche, relativ kurze, mehrjährige, periodische Ereignisse im Pazifischen Ozean, die zu höheren Temperaturen in Nord- und Südamerika führen, auf die in der Regel La Niñas folgen, die das Ergebnis in kühlere Verhältnisse umkehren, wobei Passatwinde das warme Wasser in Richtung Asien drücken.

Alles in allem zeigen die Daten der National Oceanic and Atmospheric Administration (NOAA), dass die durchschnittlichen globalen Temperaturen seit der vorindustriellen Ära (1880-1900) um 1 Grad Celsius gestiegen sind, und nur wenige werden behaupten, dass CO₂ nicht einen (noch nicht messbaren) Beitrag geleistet hat.

Christy bestätigt, dass die jüngsten Satellitendaten einen stetigen Anstieg der globalen Temperaturen um etwa 0,12 Grad Celsius pro Jahrzehnt zeigen, betont jedoch, dass wir verstehen sollten, dass dieser aktuelle Trend eine Erholung von der kältesten Epoche der letzten 10.000 Jahre im 19. Jahrhundert darstellt.

Die römische Warmzeit vor zweitausend Jahren war genauso warm oder sogar wärmer als die mittelalterliche Warmzeit vor tausend Jahren – lange bevor die Menschheit Schornsteine und SUVs einführte.

Denken wir auch daran, dass CO₂ eine wichtige Pflanzennahrung ist, die laut Satelliten unsere Welt grüner macht, die Vegetationsperioden verlängert, mehr Menschen und andere Geschöpfe Gottes ernährt und unser Leben grundlegend verlängert und verbessert.

Und während Präsident Biden behauptet: „Ich glaube nicht, dass irgendjemand mehr die Auswirkungen des Klimawandels leugnen kann“, wo „die wetterbedingte Todesursache Nr. 1 die Hitze ist – 600 Menschen sterben jährlich an ihren Auswirkungen“, versäumt er zu erwähnen, dass kalte Wetterbedingungen jedes Jahr weit mehr Menschen töten.

Nach Angaben des Breakthrough Institute ist Hitze für etwa 500.000 jährliche Todesfälle weltweit verantwortlich, während Kälte für 4,6 Millionen zusätzliche Todesfälle verantwortlich ist.

Es ist auch höchste Zeit, dass Generaldirektor Tedros Ghebreyesus reinen Tisch macht und die falschen Informationen der WHO über COVID-19 richtigstellt, bevor er wieder Fakten über das Wetter verdreht.

This article originally appeared at NewsMax

Autor: CFACT Advisor Larry Bell heads the graduate program in space architecture at the University of Houston. He founded and directs the Sasakawa International Center for Space Architecture. He is also the author of „Climate of Corruption: Politics and Power Behind the Global Warming Hoax.“

Link: https://www.cfact.org/2023/09/02/alarmists-turn-up-heat-with-climate-weather-records/

Übersetzt von Christian Freuer für das EIKE