Warum „billigere“ Wind- und Solaranlagen die Kosten erhöhen. Teil I: Das „Dickes Ende“-Problem

Planning Engineer (Russ Schussler)

Wind- und Sonnenenergie werden in vielen Regionen als die billigsten Stromquellen angepriesen, welche die meiste Zeit über preisgünstige Energie liefern können. Auf den ersten Blick könnte dies den Eindruck erwecken, dass ein stark auf erneuerbare Energien ausgerichteter Energiemix die wirtschaftlichste Wahl wäre. Diese Annahme übersieht jedoch einen kritischen Punkt: das Problem des „Dicken Endes“. Nur weil eine Ressource die meiste Zeit über billiger ist, bedeutet das nicht, dass sie die Gesamtsystemkosten senkt. In diesem Beitrag, dem ersten einer Reihe, wird untersucht, warum die Bevorzugung von Wind- und Solarenergie zu höheren Kosten führen dürfte, wobei eine Analogie aus der Finanzwelt verwendet wird.

Das dicke Ende im Finanzwesen: Ein abschreckendes Beispiel

Um das Problem des dicken Endes zu verstehen, betrachten wir einen Finanzbetrug, der einst in Werbespots zu später Stunde verbreitet wurde: „Machen Sie bei über 90 % Ihrer Trades Geld – garantiert!“ Diese Anzeigen versprachen, dass Sie mit ihrer Handelsstrategie bei 90 % Ihrer Geschäfte gewinnen und bei weniger als 10 % verlieren würden. Klingt nach einem todsicheren Weg zum Reichtum, oder?

Nicht so schnell, das ist zu einfach. Der Fehler liegt in der Größenordnung der Gewinne und Verluste. Investitionen steigen oft allmählich, können aber auch dramatisch abstürzen. Wenn Sie in 90 % der Fälle kleine Gewinne erzielen, aber in den restlichen 10 % massive Verluste erleiden, kann das Gesamtergebnis katastrophal sein. Der Prozentsatz der Gewinngeschäfte ist ein schlechter Maßstab für die Rentabilität, wenn die Verluste unverhältnismäßig hoch sind. Das ist das Dicke-Ende-Problem: Seltene, aber extreme Ereignisse bestimmen die Wirtschaftlichkeit.

Das dicke Ende im Stromnetz

Genauso wie seltene, aber massive Verluste im Handel die Gewinne zunichte machen können, verursachen Nachfragespitzen in den Stromsystemen Kosten, welche die Einsparungen durch erneuerbare Energien in einfachen Zeiten überschatten. Die Stromnachfrage schwankt, und die Stromversorgung ist zu bestimmten Zeiten weitaus schwieriger – und teurer – zu bewerkstelligen. Am Ende dieses Beitrags habe ich eine detailliertere und quantitativere Diskussion darüber geführt, wie und warum das dicke Ende zu einem wichtigen Faktor für die Energiekosten wird. Um nicht zu viele Leser zu verlieren, werde ich hier mit einer allgemeineren Beschreibung fortfahren.

Die schwierigsten Zeiten sind in der Regel die Nachfragespitzen im Winter und Sommer, die weniger als 5 % des Jahres ausmachen. In einer einzigen Stunde der Nachfragespitze können die Stromkosten um Größenordnungen höher ausfallen als die typischen Durchschnittskosten, so dass die Versorgungsunternehmen gezwungen sind, auf teure Reservekraftwerke zurückzugreifen, welche die meiste Zeit des Jahres ungenutzt bleiben. Im Januar 2014 beispielsweise wurde der Osten der USA von einem massiven Kälteeinbruch heimgesucht, der die Stromnachfrage für Heizzwecke im gesamten PJM-Verbund auf Rekordniveau steigen ließ. Da keine überschüssige Energie zwischen den Bundesstaaten geteilt werden konnte, stiegen die Großhandelspreise auf 2.000 US-Dollar pro Megawattstunde, mehr als das 60-fache des üblichen Durchschnitts von 30 US-Dollar/MWH. Kleinere, lokal begrenzte Ereignisse mit weniger drastischen Preisschwankungen kommen häufiger vor, tragen aber ebenfalls zum Problem des dicken Endes bei.

Diese Arten von Szenarien können durch die Entenkurve, wie sie im Folgenden dargestellt und beschrieben wird, erheblich verschlimmert werden:

Abbildung 1: Die Entenkurve, die zeigt, wie die Solarenergie in der Abenddämmerung starke Nachfragespitzen verursacht und die Kosten in die Höhe treibt.

Stellen Sie sich im schlimmsten Fall das Szenario der Entenkurve an einem Spitzentag im Sommer vor. Da die Verbraucher immer mehr Strom benötigen, fällt die gewerbliche und private Solarenergie deutlich ab und erfordert ein massives, schnelles Hochfahren einer Reihe von zuverlässigen Erzeugungsressourcen. Bei Jahresspitzen müssen unter Umständen große, kostspielige und möglicherweise das ganze Jahr über nicht benötigte Ressourcen zu hohen Kosten in Betrieb genommen werden. Bei einer Winterspitze tritt eine ähnliche Situation kurz vor Tagesanbruch ein. Ein hohes Maß an Strom wird benötigt, wenn Privatpersonen, Unternehmen und Fabriken mit der enormen Kälte fertig werden und sich auf den kommenden Tag vorbereiten.

Im Gegensatz dazu machen die „günstigen“ Zeiten, in denen die Nachfrage gering und das Angebot reichlich ist, 90 % oder mehr des Jahres aus, und hier werden die durchschnittlichen Energie- und variablen Kosten festgelegt. Ganz anders verhält es sich in schwierigen Zeiten mit der Nachfrage und den Festpreisen. In der Vergangenheit konnte eine einzige Stunde Nachfragespitze die jährlichen Spitzenlastgebühren eines Versorgungsunternehmens bestimmen, was die übergroßen Auswirkungen dieser extremen Bedingungen verdeutlicht.

Wind- und Solarenergie glänzen oft in guten Zeiten, da sie Strom zu niedrigeren Grenzkosten produzieren als traditionelle Energiequellen wie Erdgas oder Kernkraft. Allerdings ist ihre Leistung in Spitzenzeiten, wenn die Wetterbedingungen nicht mit der Nachfrage übereinstimmen, unregelmäßig und weniger zuverlässig. Wenn man sich in hohem Maße auf erneuerbare Energien verlässt, braucht man Reservesysteme – oft teure fossile oder nukleare Kraftwerke – um die Zuverlässigkeit während dieser kritischen Spitzenzeiten zu gewährleisten. Die Kosten für die Aufrechterhaltung dieser Reservesysteme in Verbindung mit der Infrastruktur, die für die Integration intermittierender erneuerbarer Energien erforderlich ist, können die Einsparungen durch billige erneuerbare Energien in guten Zeiten bei weitem übersteigen.

Wie ich schon früher angemerkt habe, sind „Energie-‚Pläne‘, die zwar Veränderungen auf breiter Front fordern, aber nicht berücksichtigen, wie das Gesamtsystem letztendlich funktionieren könnte, keine Pläne, sondern nur naive Wunschlisten.“ Politische Entscheidungsträger fördern Wind- und Solarenergie oft aufgrund ihrer niedrigen Kosten unter günstigen Bedingungen und ignorieren dabei das Dicke-Ende-Problem und die daraus resultierenden höheren Kosten für das gesamte System.

Eine Auto-Analogie: Effizienz/Marginalkosten sind nicht alles

Betrachten Sie ein praktisches Beispiel. Stellen Sie sich vor, Sie haben die Wahl zwischen zwei Autos. Auto A ist sparsam und erfüllt in 90 % der Fälle Ihre Bedürfnisse, aber in 10 % der Fälle brauchen Sie Auto B, das mehr Leistung und zusätzliche Sitzplätze hat. Auto B ist weniger sparsam, aber in den entscheidenden Momenten ist es unverzichtbar. Würden Sie auch Auto A kaufen, nur weil es in 90 % der Fälle billiger ist? Wahrscheinlich nicht – der Besitz von zwei Autos würde wahrscheinlich mehr kosten als die zusätzlichen Kraftstoffkosten für Auto B allein.

Auch der Bau von Wind- und Solarparks, die in ruhigen Zeiten billige Energie liefern, macht den Bedarf an zuverlässigen Ressourcen wie Erdgas oder Kernkraft in Spitzenzeiten nicht überflüssig. Die zusätzlichen Kosten für den Bau, die Instandhaltung und die Integration erneuerbarer Energien – bei gleichzeitiger Finanzierung von Backup-Systemen – machen das Gesamtsystem oft teurer. Detaillierte Modellrechnungen für das Energiesystem und Erfahrungen aus der Praxis bestätigen dies. Dennoch hält sich hartnäckig der Irrglaube, dass die niedrigen Grenzkosten der erneuerbaren Energien wirtschaftliche Vorteile garantieren.

Aneinander vorbei reden

Das „Fat Tail“-Problem kann erklären, warum Energiedebatten oft wie ein vorbeifahrendes Schiff in der Nacht wirken. Die Befürworter der erneuerbaren Energien betonen ihre niedrigen Durchschnittskosten, während sich die Planer auf die systemweiten Kosten konzentrieren, die mit der gesamten Palette der benötigten Erzeugungsressourcen verbunden sind. Diese Diskrepanz rührt von einer Art Unzähligkeit her – es wird versäumt, über die Durchschnittskosten hinauszugehen und die unverhältnismäßigen Auswirkungen der Versorgung von Spitzenzeiten und seltenen kostspieligen Ereignissen zu berücksichtigen.

In einem traurigen Fall von falsch verstandenem gesunden Menschenverstand wurden Renewable Portfolio Standards (RPS) und ähnliche Vorschriften in der Annahme erlassen, dass erneuerbare Energien von Natur aus wirtschaftlich sind. Die Modelle der Experten zeigten das Gegenteil, wurden aber oft als voreingenommen abgetan, da sie den Wert der „billigen“ erneuerbaren Energien nicht reflektierten. In Wirklichkeit reflektierten sie die harte Arithmetik des fetten Schwanzes. Diese entscheidende Erkenntnis wurde von zu vielen politischen Entscheidungsträgern, die sich auf kurzfristige Ziele konzentrierten, sowie von enthusiastischen Befürwortern und Akademikern, die sich der realen Welt nicht bewusst waren, übersehen.

Warum täuschen Finanzbetrügereien, bei denen ebenfalls Fat-Tail-Missverständnisse ausgenutzt werden, weniger Menschen als Versprechungen zu erneuerbaren Energien? Vielleicht verschleiert die Komplexität der Energiesysteme das Fat-Tail-Problem, während emotionale Appelle und vertrauenswürdige Institutionen den erneuerbaren Energien eine unangemessene Glaubwürdigkeit verleihen. Außerdem ist die Energiepolitik im Gegensatz zu persönlichen Investitionen mit kollektiven Kosten verbunden, so dass der Einzelne vielleicht weniger genau hinschaut.

Die moderne Zivilisation braucht die meiste Zeit über Strom. Andernfalls wären Wind- und Solarenergie ein besseres Geschäft. Aber es reicht nicht aus, 80 oder 90 % der Zeit über Energie zu verfügen. Es gibt zwar viele Programme und Ansätze zur Begrenzung des Stromverbrauchs in Spitzenzeiten, aber große Strommengen können nicht aus den Spitzenzeiten herausgenommen werden. Die Verbraucher müssen kühlen, wenn es heiß ist, und heizen, wenn es kalt ist. Diese Bedürfnisse sorgen dafür, dass das dicke Ende nicht wesentlich abgespeckt werden kann.

Um das klarzustellen: Ich glaube nicht, dass die Probleme im Allgemeinen in Form von „Fat Tails“ diskutiert wurden. Viele Ingenieure und Finanzanalysten haben sich zu den Systemkosten geäußert, was an den betroffenen Zuhörern vorbei und über sie hinweg ging. Die Gegenargumente von Akademikern und Befürwortern zur Wirtschaftlichkeit von Wind- und Solarenergie haben die Ingenieure und Finanzexperten verblüfft, die im Allgemeinen nicht den Einfluss hatten, um sie zu hinterfragen und eine Klärung herbeizuführen. In den meisten Fällen hatten die politischen Entscheidungsträger, ob mit oder ohne das nötige Verständnis, die Macht und trafen die Entscheidungen auf der Grundlage übermäßig optimistischer Erwartungen für Wind- und Solarenergie. Ein weiser Ratschlag: Wer nur von Durchschnittskosten spricht, sollte sich bei der Entscheidungsfindung für komplexe Systeme nicht darauf verlassen. Hüten Sie sich vor irreführenden Maßstäben.

Vorausschau

Das dicke Ende ist nur ein Teil des Puzzles. Es ist zwar ein entscheidender und oft missverstandener Faktor, aber auch andere Faktoren treiben die Kosten von Wind- und Solaranlagen in die Höhe. In künftigen Beiträgen dieser Serie werden diese Faktoren im Detail untersucht, um eine umfassende Erklärung dafür zu liefern, warum „billigere“ Wind- und Solarenergie in der Regel zu erheblich höheren Stromkosten führen kann. In den nächsten Beiträgen werden wir uns mit der Solarenergie für Privathaushalte, mit den wirtschaftlichen Aspekten von Energieversorgern befassen, Probleme mit den Energiemärkten erörtern sowie auf viele der oft ignorierten, nicht berücksichtigten Kosten im Zusammenhang mit Wind- und Solarenergie eingehen.

Das Wichtigste vorweg: In der Energiewirtschaft, wie auch im Finanzwesen, kann die Konzentration auf das, was am häufigsten passiert, den Blick auf die katastrophalen Kosten dessen verstellen, was seltener passiert. Das „Fat Tail“-Problem erfordert einen ganzheitlichen Ansatz bei der Energieplanung, bei dem Zuverlässigkeit und Erschwinglichkeit Vorrang vor simplen Kostenvergleichen haben.

Bonusabschnitt: Warum gibt es ein dickes Ende in Stromsystemen?

Schauen wir uns einige der Gründe an, warum elektrische Systeme dazu neigen, ein dickes Ende zu haben. Die Stromnachfrage schwankt je nach Tageszeit, Wochentag, Jahreszeit und natürlich je nach Wetterbedingungen, vor allem der Temperatur. Die durch diese Faktoren verursachten Schwankungen lassen sich in einer Lastdauer-Kurve ablesen. Lastdauerkurven werden gebildet, indem der jährliche stündliche Bedarf vom Höchstwert, der während des Jahres beobachtet wird, zum Mindestwert geordnet wird. Hier eine typische Lastdauer-Kurve:

Abbildung 2: Lastdauer-Kurve, die veranschaulicht, wie die Spitzennachfrage (rechts) kurz auftritt, aber die Systemkosten treibt

Wenn wir uns von rechts nach links bewegen, sehen wir, dass die Werte in der Nähe des Spitzenwerts nicht lange anhalten, und wenn wir uns nach links bewegen, sehen wir, dass die Last in fast einem Drittel der Zeit deutlich unter 40 % des Spitzenwerts fällt. Bei diesem typischen System liegt die Last nur 1,5 % der Zeit innerhalb von 90 % des Spitzenwerts. Wie oben gezeigt, liegt die Last nur 5 % der Zeit bei 80 % des Spitzenwerts. Niedrigere Lastniveaus überwiegen, da die Last in 50 % der Zeit weniger als 46 % des Spitzenwertes beträgt.

Noch ausgeprägter als die mit einem elektrischen System verbundenen Änderungen der Nachfrage sind die Unterschiede bei den Energiekosten von Stunde zu Stunde. Die inkrementellen Kosten für das nächste Quantum Energie werden als System-Lambda bezeichnet. Dies ist ein guter Indikator für die variablen Kosten für die Bereitstellung zusätzlicher Energie pro Stunde. Für ERCOT (Texas) lag das durchschnittliche System-Lambda im letzten Jahr bei 25 bis 30 $/MWh. Die meisten Werte lagen zwischen 10 $ und 100 $/MWh. Die gesamte Spanne reichte jedoch von -$10/MWh bis zu etwa $5.000/MWh. Die kalifornische ISO gibt die System-Marginal-Energiekosten ähnlich wie das System-Lambda an, das im vergangenen Jahr durchschnittlich 20 bis 30 $/MWh betrug, wobei die meisten Werte zwischen 0 und 100 $/MWh lagen, die gesamte Spanne jedoch von -100 $/MWh bis 2.000 $/MWh reichte.

Die Spanne der Grenzkosten (inkrementellen Kosten) ist sehr groß. Durch den Ausbau von Wind- und Solarenergie werden die Spannen noch deutlicher, als sie es sonst wären. Einige von Ihnen werden sich vielleicht den Kopf zerbrechen, wenn sie die negativen Werte oben sehen. Lassen Sie mich das erklären: Die Kernkraft läuft heute so gut wie immer auf Hochtouren. Für andere Anlagen wie Kohle- und Erdgasverbrennungsturbinen gelten Mindestbetriebswerte. Die Abschaltung von Kernkraft-, Kohle- und Kombikraftwerken ist mit Kosten verbunden, und wenn sie einmal abgeschaltet sind, gibt es verschiedene Mindestabschaltzeiten, die verhindern könnten, dass sie später bei Bedarf wieder zur Verfügung stehen. Für viele Blöcke bedeutet die Bereitstellung der benötigten Energie in Zeiten hoher Nachfrage, dass sie 24 Stunden am Tag Strom erzeugen müssen. Manchmal werden Wind- und Solarkraftwerke vorrangig betrieben, unabhängig davon, ob die Energie benötigt wird oder nicht. Diese Faktoren führen dazu, dass mehr Energie zur Verfügung steht, als vom System genutzt werden kann. Ein negatives Lambda wird verwendet, um von der Erzeugung abzuschrecken, und die Anlagen werden für die Einspeisung von Strom in diesen Zeiten bezahlt. (Hinweis: Aufgrund vertraglicher Vereinbarungen und Vorschriften kann es vorkommen, dass Wind- und Solarkraftwerke in Zeiten von Energieüberschüssen bezahlt werden, auch wenn andere für die Einspeisung von Energie in Rechnung gestellt werden).

Wir haben hier keine Festpreise berücksichtigt, aber allein die oben genannten Faktoren zeigen, dass Fat Tails eine große Rolle spielen können. System-Lambdas mit hohen Kosten können ein paar Größenordnungen über dem durchschnittlichen System-Lambda liegen, und noch schlimmer ist es, wenn der Energiewert negativ ist.

Bevor es einen signifikanten Anteil an intermittierenden Ressourcen gab, wurde die Stromerzeugung im Allgemeinen in Spitzenlast-, Zwischenlast- und Grundlaststrom eingeteilt. Die inkrementellen Kosten für jede dieser Kategorien waren begrenzt, oft bekannt und nur in den extremsten Fällen gegeben. Es war relativ einfach, die Last vorherzusagen und zu bestimmen, welche Erzeugungsmuster sich ergeben würden und welche Kosten damit verbunden wären. Die intermittierende Erzeugung hat diese Situation drastisch verändert. Die Last kann steigen, während die intermittierende Erzeugung sinkt, oder umgekehrt. Die sich daraus ergebenden Änderungen der Grenzkosten können manchmal atemberaubend sein. Wenn die intermittierende Erzeugung zunimmt, sind die Kosten für das Stromsystem ein Problem mit einem dicken Ende auf Steroiden.

Link: https://judithcurry.com/2025/05/13/why-cheaper-wind-and-solar-raise-costs-part-i-the-fat-tail-problem/

Übersetzt von Christian Freuer für das EIKE

Anmerkung des Übersetzers: Ich bin nicht sicher, ob der Terminus „Fat Tail“ im Original mit „dickes Ende“ korrekt übersetzt ist, wenn derselbe nicht im Original stehen gelassen worden ist. Gerne nehme ich bessere Vorschläge entgegen.




Aktualisierung bzgl. Blackouts in Europa (ja, es war Solar)

Robert Bradley Jr., MasterResource

Jonas Kristiansen Nøland, außerordentlicher Professor an der Norwegischen Universität für Wissenschaft und Technologie, hat ein Urteil über den Stromausfall auf der Iberischen Halbinsel gefällt. Seine Meinung dazu:

Jüngste Erkenntnisse deuten darauf hin, dass der schlimmste Stromausfall in Europa, der sich auf der Iberischen Halbinsel ereignete, auf ein instabiles Stromnetz zurückzuführen ist. Diese Instabilität war wahrscheinlich der Auslöser für die nachfolgende Kaskade weiterer Ereignisse.

In der halben Stunde vor dem Blackout wurden im kontinentaleuropäischen Synchronbereich zwei Episoden von Leistungs- und Frequenzschwankungen beobachtet. Die Netzbetreiber ergriffen Maßnahmen zur Abschwächung dieser Schwingungen.

Die wahrscheinliche Ursache für diese ungedämpften „Inter-Area-Oszillationen“ war die geringe Trägheit des spanischen Stromnetzes zur Mittagszeit, da etwa 70 % der Stromerzeugung aus inverterbasierten Solar- und Windkraftanlagen stammt. Solche erneuerbaren Energiequellen verfügen nicht über die nötige Spinning-Reserve, um Frequenzschwankungen wirksam entgegenzuwirken.

Aufgrund dieser instabilen Netzbedingungen traten außergewöhnlich hohe Frequenzänderungsraten (RoCoF) auf, was den endgültigen Sargnagel darstellte. Infolgedessen konnte der Niederfrequenz-Lastabwurf (UFLS) den Tag nicht mehr retten.

Der kritische Punkt kam mit dem ersten Erzeugungsausfall um 12:32:57 Uhr, der etwa 2,2 GW betraf und wahrscheinlich von der PV-Erzeugung im Südwesten Spaniens stammte – einer Region, in der die Solarenergie dominiert.

Dieser Erzeugungsausfall, der unter bereits instabilen Bedingungen auftrat (wahrscheinlich aufgrund von Überspannungen, so die Hypothese von Luis Badesa), beschleunigte einen raschen Frequenzeinbruch in dem System mit Trägheitsmangel. Beamte von Red Eléctrica (REE) stellten genau an diesem Punkt eine „starke Oszillation“ fest, die aufgrund des hohen RoCoF zu kaskadenartigen Schutzabschaltungen im gesamten Netz führte.

Könnte die Zuverlässigkeit des Netzes der Iberischen Halbinsel durch die Einführung neuer technischer Lösungen gewährleistet werden? Technisch gesehen, ja – aber wirtschaftlich gesehen ist die Durchführbarkeit eine größere Herausforderung.

Die REE hatte bereits synchrone Kondensatoren installiert und die vorhandene synchrone Stromerzeugung (Kernkraft, Wasserkraft, Solarthermie) genutzt, um die Trägheit und Spannungsstabilität zu erhöhen. Leider erwiesen sich diese Maßnahmen als unzureichend.

Der Einsatz zusätzlicher Synchron-Kondensatoren oder die Beschaffung von schnellen Frequenzreserven (FFR) zur Bereitstellung virtueller Trägheit über die Ausgleichsmärkte erhöht jedoch die Systemkosten erheblich.

Derzeit wird FFR in der Regel nur während kurzer Intervalle mit geringer Trägheit beschafft. Der Betrieb eines durchgängig trägheitsarmen Netzes würde permanente, kostspielige Frequenzstützungs-Prozesse erfordern, was eine solche Lösung zu einer wirtschaftlichen Herausforderung machen könnte.

Quellen
[1] 𝐄𝐍𝐓𝐒𝐎-𝐄 𝐞𝐱𝐩𝐞𝐫𝐭 𝐩𝐚𝐧𝐞𝐥: https://lnkd.in/dajvNZ3f
[2] 𝐞𝐥𝐄𝐜𝐨𝐧𝐨𝐦𝐢𝐬𝐭𝐚.𝐞𝐬 𝐚𝐫𝐭𝐢𝐜𝐥𝐞: https://lnkd.in/dmRHp5Zz
[3] 𝐑𝐞𝐬𝐞𝐚𝐫𝐜𝐡 𝐨𝐧 𝐢𝐧𝐭𝐞𝐫-𝐚𝐫𝐞𝐚 𝐨𝐬𝐜𝐢𝐥𝐥𝐚𝐭𝐢𝐨𝐧𝐬: https://lnkd.in/dCEVR549
[4] 𝐑𝐞𝐬𝐞𝐚𝐫𝐜𝐡 𝐨𝐧 𝐫𝐨𝐭𝐚𝐭𝐢𝐨𝐧𝐚𝐥 𝐢𝐧𝐞𝐫𝐭𝐢𝐚 𝐟𝐨𝐫 𝐠𝐫𝐢𝐝 𝐫𝐞𝐥𝐢𝐚𝐛𝐢𝐥𝐢𝐭𝐲: https://lnkd.in/d8YXEumZ
[5] 𝐑𝐞𝐬𝐞𝐚𝐫𝐜𝐡 𝐨𝐧 𝐫𝐞𝐧𝐞𝐰𝐚𝐛𝐥𝐞-𝐫𝐢𝐜𝐡 𝐩𝐨𝐰𝐞𝐫 𝐠𝐫𝐢𝐝𝐬: https://lnkd.in/ghMYqhsq

1

Siehe auch: Inertia in One Lesson (Dave Edwards on LinkedIn May 6, 2025

Link: https://wattsupwiththat.com/2025/05/13/european-blackout-update-yes-it-was-solar/

Übersetzt von Christian Freuer für das EIKE

 




Die Kohlendioxid-Erwärmungstheorie ist falsch – Teil 3

Teil 3: Wie sieht die CO-Wirkung außerhalb Deutschlands aus? Vergleich europäischer Regionen mit denen Nordamerikas.

Von Matthias Baritz, Josef Kowatsch

Teil 1 hier

Teil 2 hier

Halten wir zunächst die bisherigen Erkenntnisse fest:

  • CO steigt laut Treibhauskirche seit 140 Jahren, Schuld: angeblich allein wir
  • Seit 1958 (317 ppm) ist der CO-Gehalt auf 429 ppm in diesem Jahr gestiegen, also um 112 ppm in 67 Jahren (Quelle: NOAA)
  • Die Apriltemperaturen des DWD halten sich nicht an die CO-Anstiegskurve
  • Bis 1987 haben wir eine starke Abkühlung in Europa
  • Der Klimawandel fand in Mittel- und Westeuropa erst im Jahre 1987/88 statt
  • Die wachsende Sonnenscheindauer korreliert sehr stark mit der Erwärmung ab 1988
  • Viele Ursachen haben zur angenehmen Erwärmung seit 1988 geführt

Und ganz aktuell: „Das EU-Erdbeobachtungsprogramm Copernicus teilt mit, der vergangene Monat war mit 14,96 ° der zweitwärmste April weltweit seit Beginn der Wetteraufzeichnungen und damit 1,51 Grad über dem Durchschnitt des vorindustriellen Niveaus in den Jahren 1850 bis 1900.“

Man muss wissen, im fraglichen Zeitraum gab es noch überhaupt keine globalen Temperatur-Messungen, Arktis und Antarktis waren noch gänzlich unbekannt und unerforscht. Und auch große Teile Australiens und Afrikas. Aber bleiben wir bei Europa, selbst in Deutschland beginnen die einigermaßen zuverlässigen Aufzeichnungen erst 1881.

Wir wollen anhand des Monats April Unterschiede im Temperaturverhalten zeigen, die absolut nicht mit der CO-Erwärmungstheorie erklärt werden können. Dazu betrachten wir die Temperaturen des Vereinigten Königreichs, UK. Bisher hatten wir nur Grafiken für Zentralengland (CET), jetzt mit England, Wales, Schottland und Nordirland. Im Vergleich zum DWD veröffentlicht Met Office auch die durchschnittlichen Tagesminimum- und Tagesmaximum-Temperaturen für alle Monate und Jahreszeiten. Das erspart natürlich unendlich viel Arbeit.

Abb. 1: Aufgetragen sind 2 Zeiträume, 1943 bis 1987, dann der Temperatursprung und ab 1988 bis heute. Außerdem 3 Grafikverläufe: Die obere graue Grafik fasst die Tmax-Temperaturen des Monats April, die mittlere braune Grafik die Tagesschnitte (24-Stunden) und die blaue Grafik die kältesten Nachttemperaturen, gemessen in Tmin.

Interessant wird es, wenn man sich die Entwicklung der Sonnenscheindauer ansieht:

Abb. 2: Sonnenscheindauer für die gleichen Zeitabschnitte wie die Temperatur in Abb. 1

Offensichtlich ist die Sonnenscheindauer ein deutlicher Treiber der Temperatur. Mit abnehmender Sonnenscheindauer fällt auch Temperaturtrendgerade, bei zunehmender Sonnenscheindauer steigt sie. Dieser nur visuelle Eindruck lässt sich durch Berechnung der Korrelationskoeffizienten verifizieren.

Korrelationskoeffizient Sonne/Tmax, 1943-1987: R = 0,36

Korrelationskoeffizient Sonne/Tmax, 1988-2025: R = 0,61

Diese Korrelation kann man durchaus als signifikant bezeichnen. An dieser Stelle möchten wir, dass die Leserinnen und Leser die beiden Grafiken von UK mit denen des DWD vergleichen, gezeigt in Teil 2 die Abbildungen 2 und 3.

Alle Ergebnisse der DWD Reihen lassen sich nahezu 1:1 auf UK übertragen! (Nachfolgend das, was in Teil 2 bei den DWD Daten steht)

Tmax: bis 1987 stark fallend, Temperatursprung, seitdem stark steigend

Schnitt: bis 1987 deutlich fallend, Temperatursprung, danach deutlich steigend.

Tmin: ab 1947, 40 Jahre leicht fallend, Temperatursprung, danach ausgeglichen

Wichtige Erkenntnis, nach dem Temperatursprung 1987/88 wurden beim Monat April nur die Tage tagsüber wärmer.

Wo ist der CO-Treibhauseffekt in der Grafik 2 (hier 1) erkennbar? Antwort: Nirgendwo

Seit längerem beschäftigt uns die Frage, warum der DWD nicht genauso wie Met Office einen benutzerfreundlichen Zugriff auf die durchschnittlichen Tmin und Tmax bereitstellt. Wie man leicht sieht, sind die Tendenzen ähnlich, teilweise sogar fast identisch, zu denen des Met Office.

Zum späteren Vergleich mit den nordamerikanischen Gebieten haben wir noch drei Gebiete in Europa, die das Temperatur-Verhalten von DWD und UK widerspiegeln

Abb.3: Westeuropa, deutlich fallende Temperaturtrendlinie bis 1987, danach steigend.. Quelle: https://climatereanalyzer.org/

 

Abb 4a,b: Die Sonnenscheindauer Österreichs korreliert wie in UK deutlich mit den Temperaturen. R = 0,36 bis 1987, R = 0,61 ab 1988 Quelle

Abb. 5: Auch in Skandinavien wird es erst nach 1987 wärmer. Quelle

Kurze Zusammenfassung:

1) Der Trendlinienverlauf tagsüber richtet sich hauptsächlich nach der Zunahme der Aprilsonnenstunden, die in Europa fast überall zunehmend sind.

2) Die Grafiken des Artikels zeigen alle, CO hat keinen erkennbaren Einfluss auf das Temperaturverhalten.

Trotz dieser erdrückenden Beweislast, die Sonnenscheindauer ist der Haupttemperaturtreiber, wird hier im Blog immer wieder behauptet, CO ist für die Erwärmung verantwortlich und das auch nur der böse homo sapiens mit der Verbrennung fossiler Brennstoffe. Ohne irgend einen Beweis. Es ist ja auch so einfach: anthropogenes CO steigt, die Temperatur steigt und das reicht für eine kausale Glaubens-Behauptung aus. Dann kommen weitere Behauptungen: 1 Grad Erwärmung pro 100 ppm CO Zuwachs. Vielleicht sollten diese oft man Erwärmungsmodell mitverdienenden Experten mal über den Tellerrand hinausschauen. Wenn das CO wirklich für die Erwärmung verantwortlich ist, so sollte man dies auch anderswo auf dieser Welt sehen. Z.B in Nordamerika. Auch hier wird im Vergleich zum DWD einen benutzerfreundlichen Zugriff auf durchschnittliche Tmin und Tmax ermöglicht:

Abb. 6: Temperaturen USA seit 1895 Quelle: https://www.ncei.noaa.gov/

Wenn in 67 Jahren (1958-2025) das CO um 117 ppm gestiegen ist, müsste die Erwärmung für diesen Zeitraum mehr als 1 Grad betragen. Wir haben aber hier eine fast doppelt so lange Zeitspanne von 130 Jahren und die Temperatur ist nur um 0,7 Grad gestiegen. Und nächtens noch weniger. Frage: Soll die CO-Wirkung in Amerika eine andere sein?

Eine weitere Grafik wird die angeblich so starke CO– Wirkung noch mehr in Frage stellen.

Abb.7: Die sog. Nördlichen Rocky-Plains mit den angegebenen Bundesstaaten

Hier bleiben die Temperaturen über 130 Jahre konstant. Keine Erwärmung im April. Wo ist die CO-Wirkung im April? Nirgends! Schauen wir genauer hin und nehmen die Jahre ab 1988:

Abb 8: Fallende Trendgeraden

Merke: In diesen Bundesstaaten wird es sogar kälter seit 1988. Und das in einem Zeitraum als die CO-Zunahme in der Atmosphäre besonders stark war.!! Das ist ein weiterer klarer Beweis gegen die CO-Treibhauskirche mit ihrem Geschäftsmodell Klimahysterie.

Man vergleiche die entsprechenden Grafiken aus Europa. Dort haben wir ab 1988 überall stak steigende Trendgeraden, die von den Kritikern mit dem Anstieg des CO erklärt werden. Und hier in den USA genau das Gegenteil, fallende Trendgeraden. Wo ist hier das CO?

Bleiben wir im Nordwesten der USA

Abb. 9a, b: Region Pacific Northwest in den Vereinigten Staaten mit den Bundesstaaten Oregon Washington und Idaho. Quelle Grafik 7,8,9: https://www.ncei.noaa.gov/

Wie schon in den nördlichen Rockies und Plains sind die Temperaturtrendgeraden ab 1988 fallend, obwohl auch hier in den USA der CO Gehalt der Atmosphäre genauso gestiegen ist wie in Europa bzw. der ganzen Welt. Scheinbar weigert sich das CO hier erwärmend zu wirken…..In Teil 1 haben wir übrigens auch gezeigt, dass auch in der Antarktis keine Aprilerwärmung in den letzten 45 Jahren feststellbar ist.

Mit diesen Grafiken haben wir deutlich gezeigt, dass die ganze Diskussion der CO Erwärmung Deutschland und Europa hinfällig sein sollte. Es sind ganz andere Gründe, die für die Erwärmung verantwortlich sind. Mögliche Ursachen wurden u.a. in Teil 1 aufgeführt.

Gesamtergebnis: CO macht kein Klima heiß, egal ob der derzeitige globale CO-Anstieg hauptsächlich vom Menschen verursacht oder natürlichen Ursprungs ist. Diese Definition ist somit absolut falsch: Der Begriff Klimawandel bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe

Folge: CO ist überhaupt kein Temperaturregelknopf, wir werden belogen!!!

Zum Schluss noch drei Grafiken aus Kanada und eine aus Alaska, deren Temperaturverhalten mit CO nicht erklärbar ist. Im Süd-Westen Kanadas nehmen wir die Station Kamloops, in der Mitte im Westen die Station Whitehorse und im Nordwesten an der Beaufortsee Inuvik.

Beachte: Ab 1987/88 treten teilweise viel höhere Temperatursprünge auf wie in Deutschland. Von Mitteleuropa wissen wir als Grund, dass sich die Großwetterlagen schlagartig geändert haben. Für diese nun aufgeführten Teile der Welt könnten uns vielleicht andere Forscher durch ihr Wissen helfen.

Abb. 10a,b,c Keine Erwärmung in den letzten 36 Jahren, dafür ein Sprung der Trendgeraden von bis zu 5 Grad ! Quelle: https://www.giss.nasa.gov/

Dieses Ergebnis wird mit einer Grafik aus Alaska bestätigt: Keine kontinuierliche Erwärmung, sondern es wurde wärmer durch Sprung der Temperatur (-trendgeraden), hier um ca. 2,4 Grad!

Abb. 11: Temperaturentwicklung Alaska Quelle; https://climatereanalyzer.org/

Zusammenfassung:

1) Die Temperaturtrendlinien verlaufen in Europa und Nordamerika unterschiedlich, sie sind sogar ab 1988 gegenläufig.

2) Die Grafiken des Artikels zeigen allesamt: CO hat keinen erkennbaren Einfluss auf das Temperaturverhalten.

3) Alle teuren Maßnahmen zur CO-Reduzierung sind ein Geschäftsmodell und ändern am Temperaturverlauf überhaupt nichts. Sie müssen sofort eingestellt werden, weil diese unser Land ruinieren.

4) Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt einer allumfassenden Politik gestellt werden. Der Erhalt einer sauberen Luft, sauberes Wasser und intakte Naturlandschaften mit genügend Bodenfeuchte sollten das gemeinsame Ziel sein und nicht die planmäßige Angstmacherei, die Klimahysterie mit einem angeblichen und nur erfundenen Treibhausgas.

5) Das Leben auf der Erde ist auf dem Element Kohlenstoff aufgebaut. Kohlendioxid ist das Transportmittel für den Kohlenstoff. Die Erde braucht höhere CO-Konzentrationen in der Atmosphäre und nicht weniger. Der CO-Optimumsbereich für die Schöpfung Erde sollte endlich wissenschaftlich erforscht werden

6) Wer CO verdammt als Klimakiller oder Klimagift, versündigt sich an der Schöpfung. Das gilt insbesondere für die beiden christlichen Kirchen.

7) Wir alle sind aufgerufen, diesem unheilvollen Geschäftsmodell Klimahysterie durch Kohlendioxid ein Ende zu bereiten. Jeder so wie er kann und wie er es für richtig hält. Eine Klimakatastrophe ist weit und breit nicht in Sicht. Die in den Medien ständig verkündeten Panikmeldungen sind entweder Übertreibungen oder Folgen einer bisher verfehlten Natur- und Umweltpolitik

Josef Kowatsch, Naturbeobachter, aktiver Natur- und Umweltschützer

Matthias Baritz, Naturwissenschaftler und Naturschützer

 




UK könnte monatelange Stromausfälle aufgrund von Net Zero erleben

Richard Eldred, THE DAILY SCEPTIC

Großbritanniens überstürztes Streben nach „Net Zero“ könnte das Land für monatelange Stromausfälle anfällig machen, da die Abhängigkeit von intermittierenden erneuerbaren Energien das Netz belastet, die Kosten in die Höhe treibt und die Energiesicherheit gefährdet. Der Telegraph hat mehr:

Der Netzbetreiber hat Bedenken geäußert, dass die Umstellung von zuverlässigem Gas auf intermittierende Wind- und Solarenergie „die Netzstabilität beeinträchtigen“ würde, und erklärt, dass die Kosten der Steuerzahler für die Finanzierung von Maßnahmen zur Verhinderung eines Systemzusammenbruchs „erheblich“ auf 1 Milliarde Pfund pro Jahr steigen würden.

Unterdessen hat die globale Energieaufsichtsbehörde Alarm geschlagen wegen der „vorzeitigen Stilllegung“ von Gaskraftwerken „ohne angemessenen Ersatz“.

Außerdem wurde bekannt, dass Regierungsbeamte zugegeben haben, dass Großbritannien „mehrere Monate“ brauchen würde, um sich von einem landesweiten Stromausfall vollständig zu erholen.

Spanien und Portugal wurden im vergangenen Monat von massiven Stromausfällen heimgesucht, die nach Ansicht von Experten höchstwahrscheinlich durch ihre Abhängigkeit von erneuerbaren Energien verursacht wurden. Die Minister haben die Möglichkeit eines solchen Stromausfalls in UK heruntergespielt und darauf bestanden, dass Großbritannien über ein „äußerst widerstandsfähiges Energienetz“ verfügt.

Nach einem Stromausfall in Heathrow im März, der den Flughafen für 24 Stunden lahmlegte, wurden Fragen zur Zuverlässigkeit des Stromnetzes laut.

Der National System Energy Operator (Neso), der das Netz betreibt, veröffentlichte im gleichen Monat einen Bericht, in dem er vor einem erhöhten Risiko von „Ausfällen“ warnte. Darin heißt es, dass die Verringerung der „synchronen“ Stromerzeugung, z. B. aus Gas und Kernenergie, zugunsten der erneuerbaren Energien „die Netzstabilität verringert“. …

Als Reaktion darauf muss Großbritannien große Summen in „Stabilitätsnetzdienste“ investieren, z. B. in Massenbatteriespeicher, um das System zu stützen. Der NESO zufolge würden die Kosten dafür „bis 2030 erheblich steigen, und zwar auf schätzungsweise 1 Milliarde Pfund pro Jahr“, und zitierte dabei Modelle des Imperial College London. …

Ein Anfang des Jahres vom Kabinettsbüro erstellter Bericht kam zu dem Schluss, dass das Risiko eines landesweiten Stromausfalls „gering“ sei, die Auswirkungen aber verheerend sein würden.

In einem solchen Szenario würden „alle Verbraucher ohne Notstromaggregate sofort und ohne Vorwarnung ihre Stromversorgung verlieren“. Dies würde „zu erheblichen und weitreichenden Unterbrechungen der öffentlichen Dienste, Unternehmen und Haushalte sowie zum Verlust von Menschenleben führen“.

Das Nationale Risikoregister der Regierung stellte fest, dass es „einige Tage“ dauern würde, um ein „Notnetz“ wieder zum Laufen zu bringen.

Es wurde hinzugefügt: „Die vollständige Wiederherstellung könnte bis zu sieben Tage dauern, aber je nach Ursache des Ausfalls und der Schäden kann die Wiederherstellung kritischer Dienste mehrere Monate dauern.“

Das Ganze ist es wert, vollständig gelesen zu werden.

Link: https://wattsupwiththat.com/2025/05/11/britain-could-face-months-long-blackouts-because-of-net-zero/

Übersetzt von Christian Freuer für das EIKE

 




Das Met Office ist nicht in der Lage, die Standorte zu nennen, welche die „geschätzten“ Temperaturdaten für seine 103 nicht existierenden Stationen liefern

Chris Morrison, THE DAILY SCEPTIC

Letztes Jahr wurde nachgewiesen, dass das britische Met Office langfristige Temperaturdaten von 103 nicht existierenden Wetterstationen einfach erfunden hat. In einem späteren lächerlichen Faktencheck wurde behauptet, dass die Daten von nahe gelegenen, gut korrelierenden Nachbarstationen geschätzt wurden. Der bürgerliche Superdetektiv Ray Sanders stellte eine Reihe von Anträgen im Rahmen des Informationsfreiheits-Gesetzes (FOI), um die Identität dieser korrelierenden Stationen in Erfahrung zu bringen, doch wurde ihm mitgeteilt, dass diese Informationen nicht im Besitz des Met Office sind. Die erfundenen Zahlen für die nicht existierenden Standorte stammen also angeblich von Stationen, die das Wetteramt nach eigenen Angaben nicht identifizieren kann und die vermutlich auch nicht in seinen umfangreichen Computerspeichern und Archiven gespeichert sind.

Sanders zeigt sich verständlicherweise unbeeindruckt von der Erklärung, dass diese wichtigen Informationen nicht gespeichert werden, und schreibt: „Soll die Öffentlichkeit dem Wetteramt einfach ‚glauben‘, ohne dass irgendwelche Berechnungen ersichtlich sind? Für mich und jeden einzelnen Wissenschaftler, der je gelebt hat, ist es zwingend erforderlich, die verwendeten Daten anzugeben – ALLES WENIGER IST NICHT GÜLTIG. Keine überprüfbare Datenquelle = keine Glaubwürdigkeit = nicht besser als Fiktion.“

Bis vor kurzem zeigte das Met Office Wetterdurchschnittswerte einschließlich der Temperatur für über 300 Stationen, die mindestens 30 Jahre zurückreichen. Die Daten wiesen einzelne Stationen und einzelne Standortkoordinaten aus, aber als sich herausstellte, dass 103 Stationen gar nicht existierten, schrieb das Met Office den Titel der Datenbank eilig um, um zu suggerieren, dass die Zahlen aus einem größeren lokalen Gebiet stammten.

Nach dieser Änderung bat Sanders um Auskunft über Scole, eine Wetterstation in Norfolk, die zwischen 1971 und 1980 nur neun Jahre lang betrieben worden war. Gibt man Scole in die neue Datenbank für Standorte ein, so wird es als einer von fünf Standorten identifiziert, die die „nächstgelegenen Klimastationen zu Scole“ sind. Es werden 60 Jahre Durchschnittsdaten angegeben, darunter 10 Jahre, bevor Scole tatsächlich gegründet wurde. Dies ist an sich schon merkwürdig, da das Met Office die „Schätzung“ von Daten für geschlossene Stationen rechtfertigt, um eine lange Verwendbarkeit der Daten zu gewährleisten. Es erscheint weit hergeholt, mit dieser Erklärung die Aufbewahrung von Daten aus den 1960er Jahren von einer Station zu rechtfertigen, die erst 1971 eröffnet wurde. Sanders stellte eine einfache Anfrage und forderte das Met Office auf, die Namen der Wetterstationen zu nennen, die bei der Zusammenstellung der Klimadurchschnittsdaten für Scole von 1990 bis 2020 verwendet worden waren. Wenn das Met Office nicht in der Lage war, die vollständige Liste zu liefern, machte er es sich so einfach wie möglich und fragte nach dem Namen der letzten Station, die Daten lieferte.

Auf die erstaunliche Behauptung, das Met Office könne nicht helfen, weil die Informationen nicht vorhanden seien, folgte die Erklärung, dass „die spezifischen Stationen, die jeden Monat in der regressiven Analyse verwendet werden, kein Ergebnis des Prozesses sind“. Der unbeeindruckte Sanders stellt fest, dass das Met Office zwar Milliarden von Zahlen und Daten archiviert, aber anscheinend keine Aufzeichnungen über seine Berechnungen führt. „Sie haben also keinerlei Beweise dafür, wie ihre Klimamittelwerte zusammengestellt wurden“, bemerkt er.

Sanders suchte auch nach ähnlichen Details über einen anderen „Zombie“-Standort, nämlich Manby in Lincolnshire. Dieser Standort wurde 1974 für Temperaturmessungen geschlossen, aber auch hier sind 60-Jahres-Durchschnittswerte verfügbar. Sanders interessierte sich für diesen Standort, zeigte doch das CEDA-Archiv, in dem die Daten des Met Office gesammelt werden, dass dieser noch in Betrieb war – eine Behauptung, die auch in einer früheren FOI-Offenlegung durch den staatlichen Meteorologen aufgestellt wurde. Auch hier wird Manby als die nächstgelegene Klimastation angegeben, wenn der Name auf der Site der Klima-Durchschnittswerte gesucht wird. Die Wetterbeobachtungs-Website des Met Office zeigt jedoch, dass sie geschlossen ist, und Sanders stellt fest, dass das Met Office ihm dies inzwischen bestätigt hat. Es ist 50 Jahre her, dass in Manby eine tatsächliche Temperatur gemessen worden ist, aber wie bei Scole ist das Met Office auf eine FOI-Anfrage hin nicht in der Lage, einen der „gut korrelierten“ Standorte zu nennen, die angeblich Daten liefern.

Es ist schwer zu verstehen, warum das Met Office nicht in der Lage ist, eine einfache Frage zu beantworten, in der es darum geht zu erfahren, wo die Temperaturwerte gemessen wurden. Vermutlich würden sie von den fünf nächstgelegenen „Stationen“ stammen, die bei der Eingabe eines Ortes in die Datenbank für Klimamittelwerte ermittelt werden. Aber wie der Daily Sceptic in der Vergangenheit berichtet hat, könnte es bei diesem Ansatz Probleme geben. Cawood in West Riding of Yorkshire ist ein unberührter Standort der Klasse 1, der von der Weltorganisation für Meteorologie als ein Ort bezeichnet wird, der eine unverfälschte Lufttemperaturmessung über ein großes umliegendes Gebiet liefert (fast 80 % der Standorte des Met Office gehören zu den Schrottklassen 4 und 5 mit „Unsicherheiten“ von 2 bzw. 5 °C). Cawood verfügt über gute Temperaturaufzeichnungen, die bis ins Jahr 1959 zurückreichen. Es wird jedoch kein gleitender 30-Jahres-Durchschnitt für Cawood angegeben. Stattdessen verweist das Met Office auf Daten von fünf anderen Standorten, von denen vier nicht existieren, und der fünfte befindet sich 43 km entfernt in einer 163 Meter höheren Lage. Noch schlimmer ist, dass der Standort Norwich fünf nahe gelegene Stationen anzeigt, darunter Scole, von denen keine einzige existiert.

Wie der Daily Sceptic in der Vergangenheit festgestellt hat, ist das Met Office selbst schuld an der oft scharfen Kritik, die in den sozialen Medien an dessen Temperaturmessungen geübt wird. Es leistet gute Arbeit bei der Wettervorhersage, aber aktivistische Elemente in seinem Betrieb haben ungenaue Temperaturaufzeichnungen als Waffe eingesetzt, um die politisierte Net-Zero-Phantasterei zu fördern.

Kürzlich forderte der Chefwissenschaftler des Met Office Professor Stephen Belcher Net Zero, „um das Klima zu stabilisieren“, da er in den Beobachtungen des Met Office „mehr extremes Wetter“ sehe. In UK habe sich zwischen 2014 und 2023 die Zahl der Tage mit Temperaturen von 28 °C verdoppelt, während sich die Zahl der Tage mit Temperaturen über 30 °C im Vergleich zu 1961-1990 verdreifacht habe. Der IPCC hat jedoch keinen Trend zu extremerem Wetter festgestellt, und die Beobachtungen über heiße Tage in jüngster Zeit würden vielleicht wahrer klingen, wenn sie nicht auf den zunehmend von städtischer Hitze geplagten Datenbanken des Met Office beruhen würden.

Und die Meinung von Ray Sander? „In den Mainstream-Medien, vor allem in der BBC, wird uns regelmäßig erzählt, dass wir uns in einer existenziellen ‚Klimakrise‘ befinden. Wie kommt es also, dass niemand die offensichtlich erfundenen Daten diskutieren will, die manipuliert werden, um dieses ‚Argument‘ zu stützen?“

Chris Morrison is the Daily Sceptic’s Environment Editor.

Link: https://wattsupwiththat.com/2025/05/13/the-met-office-is-unable-to-name-the-sites-providing-estimated-temperature-data-for-its-103-non-existent-stations/

Übersetzt von Christian Freuer für das EIKE