Landwirtschaft und Klimawandel

H. Sterling Burnett

Vor einigen Wochen wurde mir die Ehre zuteil, auf Einladung von Charlie Du, Präsident der Columbia University Global Dialogue und Gründer der World Salon-Reihe und -Website, als Podiumsteilnehmer an einer Livestream-Diskussion der World Salon Fireside Talk Series teilzunehmen. Der Titel: „Policy to Plate: Klimagerechte Lösungen für die Landwirtschaft“.

Die Podiumsdiskussion bestand aus fünf Teilnehmern und einem Moderator. Die anderen vier Podiumsteilnehmer und der Moderator wissen wahrscheinlich mehr über die Details der Landwirtschaft als ich, insbesondere in Entwicklungsländern. Ich habe in der Vergangenheit über die Landwirtschaft (einschließlich Forstwirtschaft und Aquakultur) geschrieben, unter anderem in Buchkapiteln und Artikeln für Fachzeitschriften und für verschiedene Think-Tank-Publikationen, aber was ich wirklich einbrachte, war mein Wissen über den Klimawandel und die Politik. Wenn man sich die Rednerliste anschaut, die Sie unter dem unten stehenden Link finden, könnte man meinen, dass ich in gewisser Weise der Außenseiter bin, zumindest was die Auswirkungen des Klimawandels auf die Landwirtschaft und den Wert der fortgesetzten Nutzung fossiler Brennstoffe, auch für synthetische Düngemittel und Pestizide, angeht.

Nach der Einführung begann der Moderator mit einer Reihe von Leitfragen, eine für jeden Diskussionsteilnehmer. Die Frage, die mir gestellt wurde, lautete: „Ausgehend von Ihrer Erfahrung mit Umweltpolitik in Think Tanks, Beiräten und Arbeitsgruppen, was sind Ihrer Meinung nach die besten Strategien für Klimaresilienz und -anpassung, die Umweltschutz, wirtschaftliche Freiheit und Energiesicherheit miteinander in Einklang bringen?“ Nachfolgend die Antwort, die ich gegeben habe:

Ich hoffe, dass alle Teilnehmer dieses Panels und das Online-Publikum darin übereinstimmen, dass die Ernährung der wachsenden Weltbevölkerung eines der dringendsten Probleme der Menschheit ist. Außerdem möchten wir dies tun, ohne noch mehr Naturlandschaften und Wälder in Felder oder Weiden umzuwandeln, und gleichzeitig die Belastung für die Meeresbewohner verringern.

Hunger gab es schon immer, aber wir haben die Mittel, ihn drastisch zu reduzieren, und zwar in naher Zukunft, nicht erst in 50 oder 100 Jahren, wenn Regierungen, Unternehmen und Nichtregierungsorganisationen nicht die Verbreitung moderner, ertragreicher landwirtschaftlicher Technologien behindern, zu denen synthetische Pestizide, Düngemittel und fossile Brennstoffe zum Antrieb von Pumpen und Maschinen sowie moderne Lagertechnologien und -einrichtungen zur Verringerung der Lebensmittelverschwendung gehören.

Dem Paten der grünen Revolution, dem mit dem Nobelpreis ausgezeichneten Agrarwissenschaftler Norman Borlaug, der die Verbreitung moderner landwirtschaftlicher Technologien in den Industrieländern vorantrieb, wird das Verhindern von mehr als einer Milliarde Hungertoten zugeschrieben. Seit Borlaugs führender Förderung des Einsatzes synthetischer Chemikalien zur Verbesserung des Pflanzenwachstums und zur Ermöglichung von Doppelkulturen sowie seiner Pionierarbeit bei der Entwicklung von genetischen Hochertragssorten und Pflanzen mit Resistenzen gegen verschiedene Arten von Krankheiten haben wir einen langen Weg zurückgelegt. Borlaugs Methoden führten zu mehr Nahrungsmitteln und reduzierten gleichzeitig die Landumwandlung.

Ich stimme mit vielen Grundsätzen dessen überein, was oft fast austauschbar als „nachhaltige“ oder „regenerative“ Landwirtschaft bezeichnet wird, wie z. B. die Verbesserung der Bodengesundheit durch Fruchtwechsel und reduzierte Bodenbearbeitung, eine effizientere Wassernutzung und das Anpflanzen von Deckfrüchten. Wo es möglich ist, befürworte ich auch Grüngürtel um die Felder und die Erhaltung von Gehölzen oder Baumgruppen auf den Feldern. Ich habe jedoch keine Beweise dafür gesehen, dass wir mit diesen Methoden allein die derzeitigen Erträge und die Produktion aufrechterhalten, geschweige denn steigern können, wie es für die Ernährung einer wachsenden Bevölkerung erforderlich ist, zumindest nicht ohne eine meines Erachtens nicht hinnehmbare Umwandlung von Wildnis in Ackerland. Das ist besonders wichtig, wenn man bedenkt, dass die Weltbevölkerung den Prognosen zufolge zumindest in den nächsten 20 bis 50 Jahren weiter wachsen wird, bevor sie sich möglicherweise auf einem Plateau einpendelt.

Das heißt, solange keine besseren Technologien und Ersatzstoffe für synthetische Düngemittel zur Verfügung stehen, ist es von entscheidender Bedeutung, dass wir sie weiterhin mit Bedacht einsetzen und ihre Verwendung auf Länder und Regionen ausweiten, die derzeit keinen Zugang zu ihnen haben, ebenso wie zu den Energiesystemen, die das moderne Leben ermöglichen. Ich habe mich gefreut, dass Zane (einer meiner Mitdiskutanten) die Gentechnik nicht abwertend behandelt hat. Ich unterstütze die Idee der gentechnischen Veränderung von Nutzpflanzen, um sie widerstandsfähiger gegen Schädlinge zu machen, ihren Verderb zu verringern und ihren Nährwert zu verbessern. Ich hoffe, dass wir durch die verstärkte Entwicklung und Vermarktung gentechnisch veränderter Nutzpflanzen den Bedarf an riesigen Anbauflächen verringern können, die nach Schätzungen des World Resources Institute notwendig wären, um die Weltbevölkerung mit ausreichend nahrhaften Lebensmitteln zu versorgen.

Es ist nicht nur der fehlende Zugang zu fossilen Brennstoffen und modernen landwirtschaftlichen Technologien, der die Pflanzenproduktion, die Erträge und den Absatz in und aus armen Ländern behindert; es sind auch verschiedene Arten von Agrarsubventionen, Preisstützungen und andere protektionistische Maßnahmen in den Industrieländern, die zu einer Überproduktion führen und die Fähigkeit vieler Länder untergraben, ihre Ernten zu exportieren.

Übrigens dehne ich diese Analyse auch auf die Fischereisubventionen aus, die Verschwendung und Überfischung begünstigt haben und dabei oft die lokalen Fischereigemeinden in den Entwicklungsländern zerstören. Damit sollte Schluss sein. Die meisten dieser Subventionen gehen nämlich nicht an Familienbetriebe oder landwirtschaftliche Gemeinschaften, sondern an große Agrarunternehmen und reiche Landwirte.

Darüber hinaus dezimiert die Biokraftstoffe fördernde Politik der Regierungen die Wildnis und die Wälder in den Entwicklungsländern, um das grüne Bewusstsein der westlichen Eliten zu retten. Und das, obwohl es zweifelhaft ist, ob Biokraftstoffe, wie sie derzeit hergestellt werden, in irgendeinem sinnvollen Sinne „grüner“ sind als herkömmliches Benzin oder Diesel. Schlimmer noch, sie laufen oft auf einen unmoralischen Tausch von Lebensmitteln gegen Kraftstoffe hinaus, indem sie dem menschlichen Verzehr und der Tierfütterung für eine unnötige Kraftstoffquelle entzogen werden, was wiederum zu höheren Lebensmittelpreisen führt.

Ich befürworte nicht die Umstellung der Landwirte in Entwicklungsländern auf kommerzielle Kulturen, zumindest nicht ausschließlich. Es gibt keinen Grund zu der Annahme, dass bei vielen traditionellen Früchten und Gemüsesorten, die in verschiedenen Regionen heimisch sind und die Grundnahrungsmittel für die Menschen in diesen Gebieten darstellen, keine modernen Verfahren eingesetzt werden können, um deren Erträge zu steigern. Und es gibt wahrscheinlich einen wachsenden Markt für diese Produkte. Wir im Westen leben in wirklich multikulturellen Gesellschaften. In Dallas, wo ich herkomme, gibt es Hunderte, wenn nicht Tausende von ethnischen Restaurants und Lebensmittelläden, in denen Menschen aus Afrika, Südamerika, Asien und darüber hinaus vertreten sind und die sowohl Neueinwanderer als auch Westler mit einer Vorliebe für Abenteuer und Vielfalt bedienen. Landwirtschaftliche Produkte, die vor 30 Jahren noch als ungewöhnlich gegolten hätten, werden immer häufiger angeboten, wenn nicht gar zum Mainstream. Dies sind Märkte, die die Landwirte in den Entwicklungsländern in vielleicht einzigartiger Weise bedienen können.

Sie werden feststellen, dass ich den Klimawandel nicht erwähnt habe. Ich erkenne an, dass er stattfindet und dass der Mensch wahrscheinlich zumindest geringfügig dazu beiträgt, aber ich sehe in den verfügbaren Daten keinerlei Hinweise auf eine Katastrophe.

Wissenschaft ist kein Ergebnis, sondern ein Verfahren, bei dem Theorien anhand von Messungen in der realen Welt überprüft werden. Die vorhergesagten und bewarnten Klimakatastrophen und Kipppunkte sind bisher nicht eingetreten. Die Klimamodelle sind unzureichend, um Temperaturveränderungen genau darzustellen, ganz zu schweigen von den damit verbundenen Vorhersagen. In der Tat sind die angeblich katastrophalen Folgen, die der vom Menschen verursachte Klimawandel für die Erde und die Zivilisation haben soll, immer noch nicht eingetreten, wie wir täglich bei Climate Realism und Climate at a Glance nachlesen können. Der Untergang ist nirgendwo am Horizont zu sehen. Selbst der IPCC kann keine signifikanten Veränderungen bei extremen Wetterereignissen oder anderen Arten von Schäden feststellen, die von Panikmachern gemeinhin als Folge des Klimawandels propagiert werden.

Dies führt uns zu Resilienz und Anpassung. Ein bekanntes Sprichwort lautet: Je reicher, desto gesünder. Bessere Gesundheitsergebnisse – längere Lebenserwartung, geringere Kinder- und Frühsterblichkeit, weniger Todesfälle aufgrund nicht optimaler Temperaturen und extremer Wetterereignisse – verbessern sich alle und stehen in direktem Zusammenhang mit einem höheren nationalen BIP und dem Wohlstand der Haushalte.

Forschungsergebnisse deuten auch darauf hin, dass die Bevölkerung und die Regierung eines Landes, sobald Einkommen und wirtschaftliche Entwicklung ein bestimmtes Niveau erreicht haben, einen immer größeren Teil ihrer Ressourcen für den Umweltschutz aufwenden. Politische Maßnahmen, welche die Dritte Welt daran hindern, die Energiearmut durch die Entwicklung und/oder Nutzung fossiler Brennstoffe zu verringern, moderne landwirtschaftliche Verfahren und Technologien einzusetzen und sich Zugang zu den Märkten zu verschaffen, schränken die Möglichkeiten der armen Länder ein, sowohl ihre Lebenssituation als auch die Umwelt zu verbessern.

Ich kann künftige Klimabedingungen auf globaler oder regionaler Ebene nicht vorhersehen, und auch sonst ist niemand so vorausschauend. Wir wissen auch nicht, wie hoch die Tragfähigkeit der Erde ist – seit Malthus haben sich die Menschen darüber geirrt, weil sie nicht verstanden haben, dass der Mensch, der seinen Erfindungsreichtum einsetzt, die letzte Ressource ist. Was wir wissen ist, dass wohlhabendere Nationen Katastrophen besser überstehen und sich schneller von ihnen erholen als ärmere Nationen.

Daher lautet meine beste Empfehlung, die Antizipations- und Anpassungsfähigkeit der Menschen und ihre Widerstandsfähigkeit gegenüber dem Klimawandel – unabhängig von dessen Ursachen und Auswirkungen – zu verbessern, indem wir den Menschen helfen, so schnell wie möglich so wohlhabend wie möglich zu werden.

This piece originally appeared at Heartland.org and has been republished here with permission.

Link: https://cornwallalliance.org/agriculture-and-climate-change/

Übersetzt von Christian Freuer für das EIKE

 




Australische Windkraftanlagen geben nur 27 % ihrer theoretischen Kapazität – der langfristige Trend ist rückläufig

Von Jo Nova

Erwähnen Sie diesen Kapazitätsfaktor nicht …

Medien und Windindustrie preisen die größten und besten neuen Generatoren stets mit ihrer imaginären Kapazität an [und mit dem Zusatz: „Damit können XY Haushalte versorgt werden“]. Die neuesten Windparks werden mit „1 GW“ angepriesen, obwohl sie diese Leistung fast nie [und wenn, dann nur kurzfristig mal] erreichen. Der tatsächliche Prozentsatz der beworbenen „Kapazität“ wird als „Kapazitätsfaktor“ bezeichnet und selten erwähnt. Dem unaufmerksamen Leser fällt nicht auf, dass die Kosten von 2 Milliarden Dollar überhaupt nicht stimmen. Es ist, als würde man ein brandneues Auto kaufen, ohne zu wissen, dass es nur 7 Meilen pro Gallone schafft [= 33,6 L/100km] (und das auch nur, wenn der Wind weht).

Wir müssen den Kilometerstand kennen

Im jüngsten GenCost-Bericht kommt der Begriff „Kapazitätsfaktor“ buchstäblich hundertmal vor (ich habe ihn gezählt). Er spielt also offensichtlich eine zentrale Rolle bei der Berechnung des Werts eines Generators, doch in öffentlichen Diskussionen soll er nicht genannt werden. Und wenn er doch erwähnt wird, ist er oft noch schlimmer, als er tatsächlich ist, und dieser schlechte Wert sinkt zudem.

Im Jahr 2019 gingen die CSIRO Blob Experts mutig davon aus , dass der modellierte durchschnittliche Kapazitätsfaktor der Onshore-Windenergie 44,4 % betragen würde. Jahre später, im jüngsten GenCOST-Bericht, gehen sie wie Süchtige davon aus, dass er zwischen 29 % „und 48 %“ liegen würde – und fantasieren immer noch von einem bevorstehenden Wunder. Ihre modellbasierte Vorhersage der Kosten für Onshore-Windenergie ist also lächerlich großzügig. Selbst nachdem die Realität sechs Jahre lang hartnäckig bei etwa 30 % verharrte, zeigt eine Google-Suche, dass das „Fact Sheet“ der Regierung von New South Wales einen Wert von etwa 35 % angibt   und die Google-KI-Übersicht 30 % „bis 45 %“ angibt .

Wie imaginäre Häuser durch imaginäre Kapazitätsfaktoren mit Strom versorgt werden

Anton Lang, auch bekannt als TonyfromOz, ist ein weiterer Freiwilliger, der die Diagramme erstellt , für deren Erstellung CSIRO, AEMO, ARENA, ABC und AER Milliarden von Dollar erhalten, die sie uns aber vorenthalten wollen. Jahrelang fiel Tony auf, dass in den Werbeunterlagen für Windparks der Kapazitätsfaktor nicht erwähnt wurde. Es schien eine seltsame Lücke in der Dokumentation zu sein. Tony fiel auf, dass sie ihre Leistung normalerweise in die imaginäre Zahl von 1.000 Haushalten umrechneten, die sie versorgen würden, was ein reiner Marketingtrick ist. Sie geben irreführend vor, dass Windturbinen überhaupt in der Lage seien, beliebige Haushalte mit Strom zu versorgen. Als Tony die Anzahl der Haushalte zurückrechnete, stellte er fest, dass alle Unternehmen, die Windturbinen vermarkteten, einen Kapazitätsfaktor von 38 % annahmen, um den imaginären Haushaltswert zu ermitteln.

Er berechnete anhand seiner gesammelten Daten den Kapazitätsfaktor aller australischen Windkraftanlagen und stellte fest, dass dieser im Durchschnitt der letzten sieben Jahre bei knapp 30 % liegt. 2019 lag er zunächst bei etwa 31 %, ist aber gesunken, und im letzten Jahr lag der gleitende 12-Monats-Durchschnitt des Kapazitätsfaktors oft bei fast 27 %.

Vielen Dank an Angus McFarlane für das Diagramm, in dem wir den Rückgang der Windkraftkapazität sehen können:

In diesem Zeitraum stieg die Nennkapazität von 5,3 GW auf 13,5 GW. Trotz Designverbesserungen und des jungen Alters dieser Flotte verschlechtert sich der Kapazitätsfaktor, er verbessert sich nicht.

TonyfromOz, wind capacity

TonyFromOz bei PaPundits

Wie Angus McFarlane betont, verwendet GenCost den höchstmöglichen Kapazitätsfaktor auf der Oberseite, berechnet die „niedrige Option“ jedoch auf eine andere Weise, um zu verbergen, wie niedrig sie tatsächlich ist:

GenCost verwendet einen niedrigen Kapazitätsfaktor, der „10 % unter dem Durchschnitt “ liegt. Dies widerspricht der üblichen Ingenieurpraxis, bei der für den niedrigen Wert das 5. Perzentil verwendet wird. Beispielsweise verwendet IRENA 5. Perzentilwerte für niedrige Kapazitätsfaktoren. Darüber hinaus würde die Verwendung des 5. Perzentils für australische Windkraft zu einem niedrigen Kapazitätsfaktor von 19,5 % führen, was die Abneigung der CSIRO gegen die Verwendung dieses Werts erklären könnte.

Wenn wir doch nur eine wissenschaftliche Einrichtung hätten, die vom Steuerzahler finanziert würde und unvoreingenommene wissenschaftliche Beratung anbieten würde, oder?!

Drei Gründe für den Rückgang des wöchentlichen Kapazitätsfaktors

  • Erstens:  Die besten Standorte für Windkraftanlagen sind bereits vergeben. Alle windigsten Stellen in der Nähe von Strommasten, die noch Platz übrighaben, sind bereits bebaut. Neue Windkraftanlagen sind daher entweder weniger windig oder weiter von Ballungszentren entfernt.
  • Zweitens:  Egal, wie viele neue Turbinen installiert werden, die Hochdruckzellen decken immer noch das ganze Land ab, und daher fällt die zusätzliche Stromerzeugung meist dann an, wenn wir sie nicht brauchen. Mehr Turbinen bedeuten mehr Drosselung. Mehr Solarenergie bedeutet mehr Drosselung zur Mittagszeit.
  • Drittens:  Die Ausrüstung verschleißt ständig. Starkwindgebiete sind für den Bau jeglicher Infrastruktur schwierig. Wind, Sand, Staub, Eis und Salz greifen die Hinterkanten der Rotorblätter kontinuierlich an, was Turbulenzen verstärkt und die Effizienz mindert. Und der ständige Wind setzt Getriebe und Lager stark zu. Die Rotorblätter sind so schwer, dass sich der Rotor selbst bei Windstille langsam drehen muss, sonst werden die Lager platt.

Warum der Tiefpunkt wichtig ist

Die Zahlen in der obigen Grafik sind wöchentliche Durchschnittswerte. Wichtig ist aber auch der Kapazitätsfaktor an den schlechtesten Tagen und in der schlechtesten halben Stunde, denn dieser gibt Aufschluss darüber, wie viel Notstrom wir benötigen. In solchen Momenten kann der Kapazitätsfaktor eines ganzen Landes voller Windturbinen auf bis zu 0,7 % sinken. An einem schlechten Tag können Windkraftanlagen im Wert von 20 Milliarden Dollar in ganz Australien nur so viel Strom liefern wie zwei Dieselgeneratoren .

Wie viel Reservekapazität benötigen wir für ein 13,5-Gigawatt-Windkraftsystem? Die traurige Wahrheit lautet: etwa 13,4 Gigawatt. Die gesamte Windindustrie ist praktisch eine überflüssige Ergänzung zu einem zuverlässigen Stromnetz. Ihr größter Produktionsvorteil ist (angeblich) die Hoffnung, Stürme und Überschwemmungen in 100 Jahren zu verhindern. Sie kann unmöglich billiger sein als unser derzeitiges System, es sei denn, die Brennstoffkosten würden den größten Teil der Stromkosten ausmachen, was aber nicht der Fall ist.

Diese Hochdruckzellen wollen einfach nicht verschwinden:

Sehen Sie, wie groß diese schrecklichen Hochdruckgebiete sind, die den Wind auf dem gesamten Kontinent stoppen. Bringen Sie sie zum Stillstand!

Synoptic chart. Australia. Wind power

Wie TonyfromOz sagt: Ohne Isobaren gibt es keinen Wind …

Deprimierender weise führte Paul Miskelly die Berechnungen bereits 2012 durch und die Kapazitätsfaktoren lagen schon damals bei etwa 31 %. AEMO, CSIRO und AER wussten sicherlich schon immer, dass es nicht 35 %, 40 % oder 48 % waren. Sie lebten entweder von falschen Hoffnungen oder machten falsche Werbung.

Es ist Zeit, dass die australische Bevölkerung es erfährt.

 

REFERENZEN

Paul Miskelly, (2012) Windparks in Ostaustralien – Aktuelle Erkenntnisse, Energie & Umwelt 23(8):1233-1260, DOI: 10.1260/0958-305X.23.8.1233

Anton Lang veröffentlicht seine Arbeiten bei PaPundits.

— Demnächst mehr von Angus McFarlane zu den Übertreibungen und Fantasien von CSIROs GenCost. —

https://joannenova.com.au/2025/08/australian-wind-plants-only-working-at-27-of-full-capacity-and-the-long-term-trend-is-down/

 




Neue Studie: Tonga-Vulkanausbruch offenbart Makel des IPCC – Abkühlung steht bevor

Cap Allon

Eine neue Studie, veröffentlicht im August 2025 im Journal of Basic & Applied Sciences, analysiert die wahre Ursache für die jüngste „Rekordwärme“ und kommt zu dem Schluss, dass es sich bei dieser keineswegs um CO₂ handelte, sondern um den Vulkanausbruch von Hunga Tonga.

Am 15. Januar 2022 injizierte der Unterwasservulkan Hunga Tonga beispiellose 146 Millionen Tonnen Wasserdampf in die Stratosphäre. Diese Einzel-Eruption erhöhte den Wassergehalt der Stratosphäre um etwa 10 % – genug, um die Temperaturmessungen der Satelliten vorübergehend in die Höhe schnellen zu lassen.

Laut der UAH stieg die Temperatur in der unteren Troposphäre der Erde rapide und erreichte im April 2024 einen Höchstwert von 0,45 °C über der vom IPCC viel gepriesenen „sicheren” Schwelle von 1,5 °C. Die Mainstream-Medien griffen dies sofort als Beweis für eine durch CO₂ verursachte, außer Kontrolle geratene Erwärmung auf.

Die Forscher H. Douglas Lightfoot (The Lightfoot Institute) und Gerald Ratzer (McGill University, Emeritus) zeigen jedoch, dass dieser Anstieg nur von kurzer Dauer war, in engem Zusammenhang mit dem Vulkanausbruch in Tonga stand und keinerlei Zusammenhang mit dem gleichmäßigen, allmählichen Anstieg des CO₂-Gehalts in der Atmosphäre hatte.

Wie wir wissen, waren die globalen Temperaturen bis Juli 2025 bereits um 0,6 °C gegenüber ihrem Höchststand im April 2024 gefallen.

Die Ergebnisse von Lightfoot und Ratzer stellen die Kernannahme des IPCC in Frage:

„Der 24-monatige Anstieg der gemessenen Temperaturwerte steht in keinem Zusammenhang mit den stetig steigenden CO₂-Werten und widerlegt damit jede Behauptung, dass CO₂ ein Treiber der globalen Klimaerwärmung ist. Dies ist ein entscheidendes Gegenbeispiel zur Position des IPCC.“

Seit Jahrzehnten schreiben Klimamodelle fast die gesamte Erwärmung den CO₂-Emissionen zu, während sie episodische natürliche Einflussfaktoren – Vulkane, Sonnenaktivität, Veränderungen des Wasserdampfgehalts in der Stratosphäre – außer Acht lassen. Hier haben wir jedoch einen empirischen Beweis aus der realen Welt, dass natürliche Einflussfaktoren kurzfristige Erwärmungsereignisse, welche die Prognosen des IPCC übertreffen, vollständig überlagern und verursachen können, ohne dass es zu einem entsprechenden Anstieg der Emissionen kommt.

Darüber hinaus hatte das vorübergehende Überschreiten der 1,5 °C-Marke keinerlei katastrophale Auswirkungen. Keine Kipppunkte. Kein Zusammenbruch. Nur ein Wärmeausbruch, der bereits wieder abklingt. Dies ist für die Landwirtschaft von Bedeutung, heißt es in der Studie weiter. Landwirte werden vor einer endlosen Erwärmung gewarnt, während der langfristige Trend (wie die UAH zeigt) auf eine bevorstehende Abkühlung hindeutet – kürzere Vegetationsperioden, frühere Fröste und sinkende Ernährungssicherheit.

Summa summarum:

1) Die Schlagzeilen über „Rekordhitze“ in den Jahren 2023–24 waren eine direkte Folge eines Vulkanausbruchs und nicht von CO₂.

2) Dies liefert ein entscheidendes Gegenbeispiel zur zentralen Behauptung des IPCC, dass steigende CO₂-Werte der Hauptgrund für den globalen Temperaturanstieg sind.

3) Den Forschern zufolge stehen uns kühlere Jahrzehnte bevor, was mit den Sonnenzyklen und den Trends vor dem Vulkanausbruch übereinstimmt. Die Abkühlung war bereits vor Tonga in den UAH-Satellitenaufzeichnungen zu erkennen, erklären sie, und tritt nun wieder in Erscheinung, da der vulkanische Anstieg nachlässt.

Die Wissenschaft hat gesprochen. Die Modelle sind hinfällig. Und wieder einmal weigert sich das Establishment, dies zuzugeben. Abkühlung steht bevor.

[Hervorhebung im Original]

Link: https://electroverse.substack.com/p/aussie-alpine-rescues-up-cold-freezes?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Das britische Wetteramt flirtet mit Verschwörungstheorien, während es Kritiker seiner „minderwertigen“ Temperatur-Messstationen scharf kritisiert.

Chris Morrison, THE DAILY SCEPTIC

Das britische Wetteramt (Met Office) hat sich in einem verzweifelten Versuch, die wissenschaftliche Glaubwürdigkeit seines als „Waffe“ eingesetzten „Junk“-Temperaturmessnetzwerks zu retten, auf das Terrain der Verschwörungstheorien begeben. In einer kürzlich veröffentlichten Erklärung behauptete es: „Die Bemühungen einer kleinen Gruppe von Menschen, die Integrität der Beobachtungen des Met Office durch Verschleierung oder Falschdarstellung von Fakten zu untergraben, sind ein Versuch, jahrzehntelange solide wissenschaftliche Erkenntnisse über den Klimawandel weltweit zu unterminieren.“ Dieser erstaunliche Ausbruch bezieht sich natürlich auf die jüngsten Enthüllungen des Daily Sceptic und einer Reihe von Bürgerdetektiven. Im März 2024 enthüllte der Daily Sceptic, dass fast 80 % aller Messstationen in UK so schlecht liegen, dass sie massive „Unsicherheiten“ bei der Temperaturmessung aufweisen. Unterdessen haben Ray Sanders und Dr. Eric Huxter überzeugende Beweise für den beklagenswerten Zustand des unnatürlichen, von Hitze heimgesuchten Netzwerks und dessen Tendenz vorgelegt, erhöhte Temperaturen und kurzfristige Hitzespitzen zu erzeugen.

Die vom Klima-Alarm besessenen Mainstream-Medien haben sich von ihrer besten Seite gezeigt und über den wachsenden Skandal geschwiegen, aber der schockierende Zustand der Aufzeichnungsvorgänge des Met Office und deren fortgesetzte Verwendung zur Schürung von Klimapanik werden in den sozialen Online-Medien ausführlich diskutiert.

„Trotz der Spekulationen im Internet“, so das Met Office, „von denen viele ein klares Missverständnis oder eine falsche Darstellung der Fakten zeigen, unterliegen die Wetterstationen des Met Office strengen nationalen und internationalen Richtlinien.“ Das Team des Met Office soll jährlich Hunderte von Standortinspektionen durchführen. „Ein strenges Qualitätssicherungssystem, einschließlich einer langjährigen und ausgereiften Methodik für Standortinspektionen, stellt sicher, dass die an unseren Standorten erzeugten Daten so genau wie möglich sind“, stellte es fest. Ray Sanders entdeckte kürzlich, dass 103 Standorte, die Langzeitdaten lieferten, in Wirklichkeit gar nicht existierten und die Messungen aus „gut korrelierten benachbarten Standorten“ erfunden/geschätzt wurden. Leider blieben die anschließenden Bemühungen, die Identität dieser wichtigen, gut korrelierten Eingaben aufzudecken, erfolglos, da Anträge auf Informationsfreiheit als „schikanös“ und nicht im öffentlichen Interesse liegend abgelehnt worden waren.

Die von der Weltorganisation für Meteorologie vorgeschriebenen „Unsicherheiten“ bedeuten, dass 48,7 % des Netzwerks, das in der Klasse 4 (Junk) eingestuft ist, Fehler bis 2 °C aufweisen können, während unglaubliche 29,2 % in der Klasse 5 (Super-Junk) Fehler bis 5 °C aufweisen können. Einminütige Hitzespitzen, wie die hinter dem britischen Allzeitrekord von 40,3 °C in RAF Coningsby zu einer Zeit, als in der Nähe ein Taifun-Jet aktiv war, sind häufig. Trotz internationaler Leitlinien besteht das Met Office darauf, 60-Sekunden-Daten zu verwenden, die von kürzlich installierten empfindlichen elektronischen Geräten aufgezeichnet wurden, um einzelne Rekorde und höhere durchschnittliche Tagesgesamtwerte zu melden. Dr. Huxter hat in seiner jüngsten Arbeit gezeigt, dass die im Mai letzten Jahres gemeldeten täglichen „Extremwerte” im Durchschnitt 0,8 °C höher waren als die beiden Messungen, die eine Stunde vor und eine Stunde nach dem Rekordwert vorgenommen worden waren. In Kew Gardens meldete das Met Office um 14:59 Uhr einen nationalen Mai-Rekordwert von 29,3 °C, der jedoch um ganze 2,6 °C über der Messung um 14:00 Uhr und um 0,76 °C über der Messung um 15:00 Uhr lag.

Wie viele selbstherrliche und unverantwortliche Bürokratien neigt auch das Met Office zu einer ausgeprägten arroganten Haltung. „Wir verstehen, dass die Daten von Tausenden unabhängiger Wetterstationen weltweit (aus den letzten sieben Jahrzehnten), die einen Erwärmungstrend zeigen, für manche eine unangenehme Realität sein mögen.“ Natürlich bestreitet niemand, dass sich die Welt in einer Erwärmungsphase befindet und dass der Mensch durch die Nutzung von Kohlenwasserstoffen dazu beigetragen haben könnte. Diese Arroganz ist ein albernes Ablenkungsmanöver. Das Met Office verfügt über ein grundlegendes Temperaturmessnetz, das aus einer weitgehend amateurhaften Basis heraus gewachsen ist, um den Bedürfnissen bestimmter Gruppen wie dem Militär gerecht zu werden. Es war nie dafür ausgelegt, eine unverfälschte Umgebungstemperatur für UK zu liefern, geschweige denn, um globale Zahlen zu liefern. Es war gut genug für die groben Zwecke, für die es konzipiert wurde, aber es ist nicht in der Lage, wie das Met Office behauptet, zu zeigen, dass es 2023 in ganz UK 0,06 °C kühler war als im Rekordjahr 2022. Das Met Office führt die Öffentlichkeit einfach an der Nase herum, wenn es glaubt, mit seinem derzeitigen miserablen landesweiten Netzwerk Messungen mit einer Genauigkeit von einem Hundertstel Grad Celsius vorweisen zu können.

Der Wissenschaftsjournalist Matt Ridley hat kürzlich aufgedeckt, was beim Met Office schiefgelaufen ist. Es wurde „peinlicherweise von Aktivisten getäuscht“. Es glaubt, dass der größte Teil der jüngsten Erwärmung vom Menschen verursacht wurde, obwohl die Beweise für diese Aussage hauptsächlich aus vereinfachten Klimamodellen stammen. Net Zero ist in den Vereinigten Staaten gescheitert, und skeptische Stimmen werden immer lauter. Jahrzehntelange politisierte, feststehende Wissenschaft wird durch den breiteren Wunsch ersetzt, zu verstehen, wie die Atmosphäre funktioniert. Die Rolle natürlicher Schwankungen wird diskutiert, und die „grünen“ Vorteile höherer Temperaturen und Kohlendioxid werden in Betracht gezogen. Die Idee einer „feststehenden“ anthropogenen Klimameinung beginnt ziemlich veraltet zu wirken. Die Panikmache/der Betrug war nützlich, um die extrem linke Net Zero-Phantasterei zu fördern, aber diese Phantasterei bröckelt rapide, da die Realität der Kohlenwasserstoffe Einzug hält.

Das mit Aktivisten gespickte Met Office setzt seinen wahnsinnigen Kurs der politischen Panikmache in Bezug auf Netto-Null fort, indem es Wetterkarten im Sommer lila färbt und ständig Wetterwarnungen herausgibt, sehr zur Belustigung erwachsener Menschen. Die einzige „unangenehme Realität“ ist die, unter der das Met Office leidet, da es nicht in der Lage ist, den Vorwurf zu widerlegen, dass es sich auf wertlose Statistiken stützt, um zu behaupten, dass die Erwärmung höher ist als es tatsächlich der Fall ist.

Chris Morrison is the Daily Sceptic’s Environment Editor. Follow him on X.

Link: https://wattsupwiththat.com/2025/08/09/uk-met-office-flirts-with-conspiracy-theory-as-it-slams-critics-of-its-junk-temperature-measuring-sites/

Übersetzt von Christian Freuer für das EIKE

 




Klimagate – ist ChatGPT auch nicht besser als Wikipedia oder ‚Spiegel‘?

Die beiden Klima-Gates 2009 und 2010, kurz vor der wichtigen Kopenhagener Konferenz COP 15, hätten der institutionalisierten Klimahysterie eigentlich medial das Genick brechen müssen – zu offensichtlich gaben zentrale Akteure intern zu, daß die wichtigsten Wekzeuge, die Computersimulationen, nicht funktionieren.

Aber die Profiteurs-Netzwerke waren hatten sich schon zu dicht um den Planeten gelegt. Hinzu kam außerdem, daß elitäre Milieus der westlichen Gesellschaft das Untergangs-Narrativ einschließlich des Leugner-Feindbildes dringend brauchen. Ergebnis: Die von elitären Akademikern betriebenen Zeitungen, TV-Sender und KI-Programme leugnen, beschönigen und verdrehen, was das Zeug hält – ganz im Sinne des billionenschweren Klima-Profteurskomplexes.

Der Watergate-Skandal (benannt nach einem Gebäudekomplex in Washington DC, dt. „Wassertor“), hat in den 1970ern Richard Nixon den politischen Kopf gekostet. In Anlehnung daran werden seit den 80er alle möglichen Korruptions-Skandale mit „-Gate“ bezeichnet.

Man staunt im Jahre 2025, wie klar der Klima-Manipulations-Skandal 2009 offen lag: Hacker hatten interne Mails der weltweit wichtigsten Klimaforscher im Server der Universität von East Anglia gefunden und veröffentlicht. Einige der elektronischen Briefe zeigten deutlich, daß sich die Klima-Simulierer darüber bewußt waren, daß ihre fast rein auf CO2 programmierten Programme nicht funktionierten. Aber ähnlich der geleakten Emails der Corona-Virologen um Christian Drosten und Anthony Fauci weigerten sich die Massenmedien, darüber zu berichten.

Oder, besser gesagt: Sie berichten sehr wohl – aber nur in angepaßter Form, ganz im Sinne der Klimaprofs. Auch wenn der Skandal 15 Jahre her ist, machen modernste Medien wie das KI-Programm ChatGPT da weiter, wo Spiegel und ARD früher aufhörten.

Unser Horst Lüdecke, der im Titelbild dargestellt sein soll (von ChatGPT :-))  fragte gerade ChatGPT nach Quellen für das Klimagate und erhielt nur PR-Antworten im Stile der Tagesschau:

Frage: Was war das Climate gate von 2009?

Antwort von ChatGPT: „Climategate“ bezeichnet eine Kontroverse, die im November 2009 kurz vor der UN-Klimakonferenz in Kopenhagen entstand.

🔹 Was passiert ist:

  • Unbekannte Personen hackten Computer der Climatic Research Unit (CRU) an der Universität East Anglia in England.

  • Rund 1.000 E-Mails und 3.000 Dokumente von Klimaforschern gelangten ins Internet.

  • In Blogs und Medien wurden einzelne Sätze und Formulierungen aus dem Zusammenhang zitiert, um zu suggerieren, dass Klimawissenschaftler Daten manipuliert oder unliebsame Meinungen unterdrückt hätten.

🔹 Die öffentliche Reaktion:

  • Klimaskeptische Gruppen griffen das sofort auf und behaupteten, die Erderwärmung sei eine „Erfindung“.

  • Die Kontroverse wurde stark politisiert, weil sie mitten in die internationalen Klimaverhandlungen platzte.

🔹 Untersuchungen danach:

  • Mehrere unabhängige Untersuchungen (u. a. britisches Parlament, US-Behörden, internationale Gremien) prüften die Vorwürfe.

  • Ergebnis: Es gab keine Hinweise auf Datenmanipulation oder wissenschaftliches Fehlverhalten. Allerdings wurde kritisiert, dass die Kommunikation der Forscher unprofessionell war und ihre mangelnde Transparenz gegenüber Anfragen (z. B. nach Rohdaten) das Misstrauen verstärkte.

🔹 Fazit:
„Climategate“ war weniger ein echter Skandal in der Klimawissenschaft, sondern vor allem ein Kommunikations- und PR-Desaster, das von Gegnern der Klimapolitik stark instrumentalisiert wurde. Die wissenschaftlichen Erkenntnisse über den menschengemachten Klimawandel blieben davon unberührt.

👉 Soll ich dir die wichtigsten Mißverständnisse und Zitate aus den gehackten E-Mails erklären, die damals für Aufregung sorgten?

Frage: Ja, bitte!

Antwort von ChatGPT: Alles klar – hier die wichtigsten E-Mail-Stellen, die damals von Klimaskeptikern zitiert und fehlinterpretiert wurden, und was sie tatsächlich bedeuteten:

1. „Hide the decline“

  • Zitat (aus einer Mail von Phil Jones, CRU): Er sprach von einem „trick … to hide the decline“.

  • Vorwurf: Wissenschaftler würden absichtlich Temperaturabfälle verbergen.

  • Tatsächlich: Es ging um ein bekanntes Problem in der Dendroklimatologie (Baumring-Temperaturrekonstruktionen): Manche Baumdaten zeigten ab den 1960er-Jahren einen Abwärtstrend, der nicht den gemessenen Temperaturen entsprach.

    • Der „trick“ bedeutete einfach eine grafische Methode, die Baumdaten ab einem bestimmten Zeitpunkt durch echte Messdaten zu ersetzen, um die Darstellung korrekt zu machen.

    • Es war keine Manipulation, sondern ein transparenter, in Fachartikeln erklärter Schritt.

2. Diskussion über „peer review“

  • Zitat (sinngemäß): Einige Forscher diskutierten, wie man „schlechte Arbeiten“ vom Peer-Review fernhält.

  • Vorwurf: Unliebsame Meinungen würden unterdrückt.

  • Tatsächlich: Peer-Review ist eine Qualitätskontrolle. Die Mails zeigen, dass Wissenschaftler frustriert waren über methodisch schwache Studien, die dennoch in Fachzeitschriften erschienen.

    • Ihr Ton war unprofessionell, aber keine Absprache zur Unterdrückung valider Gegenmeinungen.

3. Selektive Datenauswahl

  • Zitat (sinngemäß): „Lasst uns bestimmte Daten nicht berücksichtigen …“

  • Vorwurf: Forscher würden unpassende Daten weglassen, um Trends zu schönen.

  • Tatsächlich: In der Klimaforschung ist es Standard, fehlerhafte oder unzuverlässige Datensätze kritisch zu prüfen und manchmal auszuschließen.

    • Die Untersuchungen bestätigten, dass es sich um legitime wissenschaftliche Praxis handelte, nicht um Betrug.

4. „Pressure on journals“

  • Zitat (sinngemäß): Klimaforscher beschwerten sich über eine Zeitschrift, die „junk science“ veröffentlichte.

  • Vorwurf: Sie würden Redakteure einschüchtern.

  • Tatsächlich: Wissenschaftler kritisierten das Review-Verfahren dieser Zeitschrift. Später traten tatsächlich Redakteure zurück, weil die Qualitätskontrolle dort mangelhaft war.

✅ Kurz gesagt:
Die Zitate wirkten in Blogs und Medien skandalös, weil sie aus dem Zusammenhang gerissen wurden. In den vollständigen Dokumenten und nach unabhängigen Prüfungen zeigte sich:

  • Es gab kein Belegen von Datenfälschung,

  • aber durchaus einen ungeschickten und manchmal arrogant wirkenden E-Mail-Ton.

Hier sind einige der bekanntesten deutschen Klimakritiker, die in der Diskussion um „Climategate“ aktiv waren, sowie verlässliche Quellen, die das belegen:

1. EIKE – Europäisches Institut für Klima und Energie

  • Der Blog Telepolis beschreibt, wie EIKE den „Climategate“-Skandal instrumentalisiert hat: man sah darin den „Einschlag einer Atombombe in das Gebäude der etablierten Klimaforschung“ Telepolis.

2. Horst-Joachim Lüdecke

  • Physiker, Publizist und Pressesprecher von EIKE. Er veröffentlichte 2009 ein Buch mit dem Titel CO₂ und Klimaschutz. Fakten, Irrtümer, Politik (ClimateGate) Wikipedia.

3. Fritz Vahrenholt

  • Chemiker, ehemaliger Umweltsenator und Mitbetreiber des skeptischen Blogs „Kalte Sonne“. Auch wenn eine direkte Verbindung zu „Climategate“ in den Quellen nicht klar hervorgehoben wird, zählt er zu den prominenten Skeptikern in Deutschland WikipediaEIKE.

4. Manuel Bonik & Andreas Schaale

  • Laut dem Telepolis-Bericht organisierten sie eine Veranstaltung zur „Klimalüge“ in Berlin, in deren Kontext auch „Climategate“ thematisiert wurde. Sie warfen Klimaforschern vor, mit „Manipulationen von Fakten“ zu arbeiten Telepolis.

5. Werner Kirstein

  • Emeritierter Geographie-Professor aus Leipzig, der auf einer Skeptiker-Konferenz eine polemische Rede hielt, in der er den Klimawandel als moderne „Ersatzreligion“ bezeichnete – eine indirekte Reaktion auf die aufgeheizte Debatte um „Climategate“ Süddeutsche.de.

Überblickstabelle

Person / Institut

Rolle / Plattform

Bezug zu „Climategate“

EIKE

Skeptiker-Institut

Thematisierte „Climategate“ als Skandal

Horst-Joachim Lüdecke

Physiker / EIKE-Sprecher

Buch über ClimateGate (2009)

Fritz Vahrenholt

Politiker, Blogger („Kalte Sonne“)

Prominenter Skeptiker, jedoch nur indirekter Bezug

Manuel Bonik & Andreas Schaale

Autoren/Veranstalter

Kritik an Klimaforschung im „Climategate“-Kontext

Werner Kirstein

Leipzig emer. Prof.

Polemische Rede im Skeptiker-Kontext

 .              .                .

Immerhin hat ChatGPT uns als schlimmste deutschsprachige Klimaskeptiker aufgeführt – sogar tabellarisch.

Ansonsten klingt der KI-Text wie aus der Feder von Correctiv oder SZ – ChatGPT gibt ja sogar SZ oder Andols Wikipedia allen Ernstes als Quelle an. Gerade Wiki dürfte nicht als Referenz genannt werden, da es nur eine Sammlung von Primärquellen ist. Selbst Schülern in der Mittelstufe wird von den Lehrern das Wiki-en verboten.

Will man nicht nur rosinengepickte 50%-Informationen über das Klimagate, kann man sich in alten EIKE-Artikeln darüber informieren, hier ein paar Beispiele:

Climategate 1: Menschgemachter Klimawandel und Lyssenkoismus

Cimategate 2 Dreiste Manipulation der wichtigsten Temperaturdaten zur Welttemperatur nicht mehr auszuschliessen! Das Daten Desaster der IPCC Klimazentrums CRU (Climate Research Unit) der Universität East Anglia.

Climategate 4- Die Chronik eines wissenschaftlichen Skandals des IPCC Zulieferers CRU!

Climategate Update 5: IPCC-Zulieferer CRU erlebt ein totales Desaster! Direktor Phil Jones tritt zurück.