Die Masken der Technokraten sind gefallen!

Duggan Flanakin

Jahrzehntelang tappten die Massen im Dunkeln, wer die Marionettenspieler [Schwarzgeld] sind, welche die Fäden ihrer Gefolgsleute ziehen – die „auserwählt“ wurden, um die mächtigen Institutionen der Welt zu leiten. Die Menschen dachten nach viel Belehrung durch „offizielle“ Kanäle, dass die öffentlichen Amtsträger selbst das Sagen hätten.

Futuristische Autoren von George Orwell bis Ayn Rand (und viele Science-Fiction-Autoren) haben vor den Gefahren einer zentralisierten Macht gewarnt, die dazu neigt, in den falschen Händen zu landen. Aber nur wenige schenkten den Warnungen Beachtung, und wie Audrey in „Little Shop of Horrors“ fütterten sie das menschenfressende Monster so lange, bis es groß genug war, um ihr Leben zu beherrschen.

Auch Dichter, wie W.B. Yeats in seinem Gedicht „The Second Coming“, haben davor gewarnt, dass eine ungepflegte Zivilisation außer Kontrolle geraten kann:

Die Dinge fallen auseinander, das Zentrum hat keinen Halt, die Welt ist in Anarchie versunken.

Das haben auch Liedermacher wie Barry McGuire:

Du glaubst nicht an den Krieg, aber was ist das für eine Waffe, die du da schwenkst? Und sogar im Jordan treiben Leichen.

Erst letzten Monat schrieb der bekannte Historiker Victor Davis Hanson: „Zum ersten Mal seit einem Jahrtausend spielt Europa keine entscheidende Rolle mehr bei der Förderung der westlichen Zivilisation oder in der Weltgeschichte im Allgemeinen.“

Hanson sagt, dass sich die europäischen Nationen, nachdem sie ihre Sicherheit am Ende des Zweiten Weltkriegs an die Vereinigten Staaten abgegeben hatten, für einen postmodernen, pazifistischen, utopischen Sozialismus entschieden, der sich auf Umverteilungsansprüche, offene Grenzen und eine radikale grüne Politik konzentrierte, die zusammen den schwindenden Einfluss Europas auf das Weltgeschehen beschleunigten. Europa war also nicht auf den Krieg zwischen Russland und der Ukraine vorbereitet.

Laut der französischen Journalistin Anne-Elisabeth Moutet schrieben 20 französische Generäle im Ruhestand mit Unterstützung von über 100 Offizieren im Jahr 2021 einen offenen Brief, in dem sie Präsident Emmanuel Macron warnten, dass die Spaltungen zwischen den Gemeinschaften in Frankreich und die zunehmende „Gewalt und der Nihilismus“ das Land auf einen sozialen Zusammenbruch zusteuerten, mit dem Risiko eines „Chaos’“, das zu einem „Bürgerkrieg“ führe, der dann eine militärische „Intervention erfordern“ würde.

Manche fragen sich, ob den USA ein ähnliches Schicksal bevorstehen könnte.

Vor weniger als einem Monat warnte der französische Kabinettssprecher Olivier Vȇran, dass Frankreich aufgrund der gleichen von Hanson festgestellten politischen Fehler an einem „Kipppunkt“ stehen könnte. Das Ergebnis ist, so Moutet, dass das Vertrauen zwischen den „herrschenden“ Klassen und der französischen Öffentlichkeit im Gleichschritt mit dem wirtschaftlichen und sozialen Niedergang Frankreichs abgenommen hat.

Das Problem der meisten öffentlichen Proteste, so Seamus Bruner in seinem bahnbrechenden Buch „Controligarchs“, besteht darin, dass die wahren Ziele – die Puppenspieler – seit langem verborgen sind und von einer Öffentlichkeit, die von rechts und links gefüttert wird, um sich auf Prominente zu konzentrieren (praktisch die Handelsvertreter und öffentlichen Gesichter der „Controligarchs“), nicht einmal erkannt werden.

Im Kapitel „The Great Reset“ zeigt Bruner, wie die Rockefellers und der Gründer des Weltwirtschaftsforums Klaus Schwab, Erfinder des „Stakeholder-Kapitalismus“ und Verfechter der „ökologischen und sozialen Governance“, China dazu brachten, sich vom agrarischen Maoismus zu dem amoralischen Technokratenstaat zu wandeln, der es heute ist. Und es ist dieses chinesische Governance-Modell, dem viele westliche Progressive und Unternehmensführer nacheifern wollen.

Schwab tat sich auch mit den Rockefellers zusammen, um die Philosophie der „Grenzen des Wachstums“ zu propagieren, deren krude Computermodelle ohne drastische Maßnahmen katastrophale Folgen für den Planeten vorhersagten. Als ihre Angstmacherei über die Erschöpfung der Ressourcen durch neue Entdeckungen entlarvt wurde, wechselten sie das Mantra zu der leichter zu manipulierenden „globalen Erwärmung“.

Bruner verweist auf ein Eingeständnis im Bericht des Club of Rome von 1991: „Wir sind auf die Idee gekommen, dass Umweltverschmutzung, die Bedrohung durch die globale Erwärmung, Wasserknappheit, Hungersnöte und ähnliches die Lösung sein könnten … Der wahre Feind ist also die Menschheit selbst.“

Al Gore argumentierte 1992 in seinem Buch Earth in the Balance, dass „die Rettung der Umwelt zum zentralen Organisationsprinzip der Zivilisation werden muss“. Zwar enthielt die Liste der „entscheidenden Schadstoffe“ des Clean Air Act von 1970 kein Kohlendioxid, doch waren die ersten sechs bereits deutlich unter Kontrolle gebracht worden. Daher waren die Regulierungsbehörden bestrebt, Kohlendioxid – das von jedem lebenden Tier emittiert wird und für fast alle Pflanzen lebenswichtig ist – als ein Übel hinzuzufügen, das sie eindämmen müssen.

Sich auf Kohlendioxid zu konzentrieren war ein genialer Coup, der einen Vorwand für die Kontrolle von Verkehr, Produktion, Landwirtschaft usw. lieferte. Er „rechtfertigte“ die absolute Notwendigkeit einer zentralisierten globalen Regierung. Die Erde kann nicht sicher sein, solange die Retter nicht alles – und jeden – kontrollieren. Und wüssten Sie es nicht? Die Kontrolltechnologie und die Daten waren bereits im Entstehen.

Dreißig Jahre später hatte sich die „globale Erwärmung“ in „Klimawandel“ verwandelt, und Gore hatte die „Rettung der Umwelt“ durch „Dekarbonisierung“ ersetzt und damit signalisiert, dass „die Umwelt“ nicht mehr zählt. In der heutigen Klima-verrückten Matrix sind Glattwale und Buckelwale ein Ärgernis, dessen Untergang in Kauf genommen werden kann, um die Kontrollinfrastruktur einer rein elektrischen Gesellschaft aufzubauen.

Aber das sind die Menschen auch. Menschen, die es wagen, sich riesigen Solaranlagen und Windparks zu widersetzen; Menschen, die sich dagegen sträuben, zuverlässige Verkehrsmittel und Haushaltsgeräte gegen teurere, weniger effiziente Modelle einzutauschen, die ihnen von der Regierung aufgezwungen werden; Menschen, die die verworrene Logik nicht akzeptieren können, nach der intermittierende Flüsse als „schiffbare Gewässer“ bezeichnet werden. Vor allem aber Menschen, deren Stimmen Widerstand gegen ihre grandiosen Ziele hervorrufen könnten.

Und genau hier kommt der „Sozialkredit“ ins Spiel. Der Plan sieht vor, dass Finanzinstitute, Medien und sogar Zulassungsstellen wirksame Gegner entweder mit einem Schweige-Gebot belegen oder ganz ausschalten können. Besser noch: Sie können Unternehmen und Dissidenten zu „Geständnissen“ zwingen, sie überreden oder ihnen sogar schmeicheln, wie man es von gefangenen Soldaten kennt.

Der Schwab-Schüler und -Schützling Yuval Noah Harari schwärmt von Mikrochips im Gehirn, „Glückspillen“ für die Selbstzufriedenheit und Virtual-Reality-Erfahrungen als Möglichkeiten, die Bevölkerung kurzfristig zu besänftigen – und von einer Welt, in der die Eliten durch biotechnische Upgrades Unsterblichkeit kaufen können.

Da künstliche Intelligenz bei der Schaffung einer „übermenschlichen“ Klasse hilft, wird der Großteil der Menschheit, der keinen solchen Zugang hat, „nutzlos“, sagt Harari. Die schwierige Entscheidung ist dann, „was man mit all diesen nutzlosen Menschen macht“.

Im Jahr 2012 beklagte Mitt Romney die „47 % nutzloser“ Menschen, die von der Regierung versorgt werden und damit (seiner Meinung nach) in der Hand von staatlichen Wohltätern sind. Im Jahr 2016 prangerte Hillary Clinton die „unverbesserlichen Bedauernswerten“ an – jeden, der sich ihrer Agenda widersetzte. Für beide (unterlegenen) Kandidaten waren solche Menschen entbehrlich.

Mindestens drei Jahrzehnte lang hat Al Gore im Namen der „herrschenden Klassen“ verkündet, dass Menschen weit weniger wichtig sind als „die Umwelt“. Doch nicht viele haben die Bedeutung seiner Verkündigung begriffen. Heute jedoch haben die meisten Menschen in Afrika und viele sogar in den Industrieländern die Pläne der Elite für ihre Zukunft verstanden. Und sie werden zunehmend lauter.

Vielleicht war es die COVID-Pandemie und die Einschüchterungstaktik, mit der Regierungen und Aufsichtsbehörden die meisten Menschen der ersten Welt dazu zwangen, sich ungetestete Impfstoffe injizieren zu lassen. Aber viele der schlafenden Massen wachten auf und erkannten, wie Präsident Reagan schon vor langer Zeit sagte, dass die Regierung NICHT „hier ist, um zu helfen“.

Damit die Massen verhindern können, dass die Kontrolleure sie auf den Müllhaufen der Geschichte befördern, brauchen sie so edle und engagierte Kämpfer wie den legendären William Wallace, Rosa Parks und Jeanne d’Arc. Zu den ersten Früchten der „Anti-Kontrolligarchen“-Revolte gehören die Wahlen von Meloni in Italien, Milei in Argentinien und Luxon in Neuseeland.

Aber mehr noch als die Anführer müssen diejenigen, die ihre Menschlichkeit und ihre Freiheiten schätzen, die Betrüger beim Namen nennen und ihnen entgegentreten, die den Deckmantel des „Klimawandels“ benutzt haben, um uns sogar unsere „unveräußerlichen Rechte“ zu nehmen.

Die Zeit ist knapp, aber die Masken sind gefallen. Wir wissen, wer sie sind.

Und sie sind Legion. Oder vielleicht Rumpelstilzchen.

This piece originally appeared at RealClearEnergy.com and has been republished here with permission.

Link: https://cornwallalliance.org/2024/02/the-technocracys-masks-are-all-off-now/

Übersetzt von Christian Freuer für das EIKE

 




Es ist an der Zeit, den Begriff „erneuerbare Energien“ aus der ernsthaften Diskussion und den energiepolitischen Richtlinien zu streichen

Russell Schussler (Planning Engineer)

Teil I: Erneuerbare Energie als Gruppierung ist nicht kohärent

In dieser Reihe werden wir uns eingehend mit den inhärenten und neu auftretenden Mängeln des Rahmens für die Klassifizierung von erneuerbaren/nicht erneuerbaren Energieressourcen befassen. Vor 50 Jahren mag es sinnvoll gewesen sein, von erneuerbaren und nicht-erneuerbaren Ressourcen zu sprechen, wenn es um den zukünftigen Energiebedarf und -plan ging. Dieses grundlegende Konzept trug dazu bei, den Wandel und das Nachdenken über die Auswirkungen von Erzeugungsressourcen auf die Umwelt zu fördern. Von den 1970er Jahren sind wir heute jedoch weit entfernt. Die aktuellen Forderungen nach größeren Veränderungen im Stromversorgungssystem, wie z. B. Net Zero, sehen weitreichende Veränderungen vor. Umfassende Systemanstrengungen zur Berücksichtigung von Umweltbelangen bei gleichzeitiger Deckung des Energiebedarfs erfordern ein differenzierteres Verständnis, als es durch eine Unterscheidung zwischen „erneuerbaren“ und „nicht-erneuerbaren“ Ressourcen möglich ist.

Weder „erneuerbare“ noch „nicht erneuerbare“ Ressourcen sind kohärente Gruppierungen für eine Energieressourcen-Typologie. Die Ähnlichkeiten zwischen den Ressourcen in den verschiedenen Gruppen können sehr groß sein, und innerhalb der Gruppen können die Unterschiede groß sein. Die meisten Aussagen, die in Bezug auf allgemeine „erneuerbare Energien“ gemacht werden, sind entweder trivial oder irreführend. Politik und Gesetzgebung, die erneuerbare Energien gegenüber anderen Energiequellen bevorzugen, können eine schlechte Wahl der Ressourcen fördern und gute Alternativen behindern.

Es ist zu erwarten, dass diejenigen, die über CO₂-Emissionen besorgt sind, diejenigen, die über Atomkraft besorgt sind, und diejenigen, die sich im weiteren Sinne mit Umweltbewegungen identifizieren, mit diesem Vorschlag nicht einverstanden sein werden. Aber jeder ernsthafte Befürworter von Net Zero oder von größeren Energie-Umwandlungen sollte für mehr Klarheit und mehr Präzision sein, wenn er ernsthafte Diskussionen führt. Viele Umweltschützer haben z. B. große Bedenken gegen den Ausbau der Wasserkraft und der Erzeugung von Biomasse. In dieser Serie wird später erörtert, dass „nicht erneuerbare“ Ressourcen in vielen Fällen die saubersten und grünsten Vorschläge sein könnten. Die Argumente gegen die Verbrennung fossiler Brennstoffe beruhen vielmehr auf aktuellen Umweltbedenken und nicht auf der Befürchtung, dass diese Ressourcen in Hunderten von Jahren zur Neige gehen könnten.

Anstatt von erneuerbaren Energien zu sprechen, sollten wir darüber reden, wie sauber die Ressourcen sind, wie umweltfreundlich sie sind, wie nachhaltig sie sind und wie gut sie den Bedürfnissen der Verbraucher und des Energiesystems gerecht werden. Wir sollten Ressourcen, die ausgebaut werden können, nicht mit solchen in einen Topf werfen, die in Zukunft nur begrenzt einsetzbar sind. Wir sollten nicht die Ressourcen, die das Netz unterstützen, mit denen verwechseln, die das Netz belasten, und so tun, als hätten sie ein ähnliches Potenzial. Island mit seinen reichhaltigen Wasser- und Erdwärme-Ressourcen ist zum Beispiel kein Modell für erneuerbare Energien, das einem Gebiet mit vielen Wind- und Sonnenenergie-Ressourcen als Orientierung und Unterstützung dienen könnte.

Erneuerbare Energien sind eine Relation und keine unabhängige Eigenschaft von Energiequellen
Die UNO definiert erneuerbare Energie als „Energie, die aus natürlichen Quellen gewonnen wird, die sich schneller regenerieren als sie verbraucht werden“. Ob etwas erneuerbar ist oder nicht, hängt also von der Beziehung zwischen Nachschub und Verbrauch ab. Sind Holzschiffe „erneuerbar“? Ja und nein. Die Wälder in Irland und Island lieferten „erneuerbares“ Holz für den Schiffsbau, bis der Verbrauch viel schneller anstieg, als die Baumbestände erneuert werden konnten. Schiffsholz wurde in kurzer Zeit von einer erneuerbaren Ressource zu einer begrenzten Ressource und zu einem tragischen Umweltverlust. Einst war Walöl eine lebensfähige „erneuerbare Ressource“, die einen Großteil der westlichen Welt mit Licht versorgte. Viele Ressourcen sind zwar eine Zeit lang „erneuerbar“, doch mit zunehmendem Verbrauch kann sich ihre Nutzung als nicht nachhaltig erweisen.

Solche Beziehungen können auch bei den derzeitigen erneuerbaren Energiequellen beobachtet werden. Wenn man die Stromerzeugung im Verhältnis zu einigen geothermischen Ressourcen überbaut oder überdisponiert, können diese erschöpft werden. In ähnlicher Weise kann auch die Nutzung von Wasserressourcen erschöpft sein. In vielen Gebieten gibt es „Wasserkriege“, bei denen verschiedene Gruppen um die Nutzung der Wasserressourcen für Freizeitaktivitäten, Landwirtschaft, Aquakultur, Schifffahrt und Energieerzeugung streiten. Die bisherigen Muster der Nutzung von Wasserenergie sind in vielen Regionen nicht nachhaltig. Die Erzeugung von Biomasse kann ebenso wie der Schiffbau zu einer Erschöpfung der Ressourcen führen.

Was ist mit nicht erneuerbaren Ressourcen?

Liegt das Problem bei Kernkraft, Erdgas und Kohle darin, wie es die Zweiteilung in erneuerbare und nicht-erneuerbare Ressourcen nahelegt, dass uns diese Ressourcen eines Tages ausgehen könnten? Oder sind die Bedenken eher auf ihre potenziellen Auswirkungen in der näheren Zukunft gerichtet?

Die Kernenergie wird im Allgemeinen nicht als erneuerbar angesehen. Mit Atommüll könnten die USA möglicherweise 100 Jahre lang mit Strom versorgt werden. Ökonomisch bewertbares Uran könnte 200 Jahre reichen. Mit Brüterreaktoren können wir möglicherweise Milliarden von Jahren mit Atomstrom auskommen. Unter Berücksichtigung aller Ressourcen, die für die Erzeugung von elektrischer Energie benötigt werden, könnten wir mit unseren derzeitigen technologischen Möglichkeiten weitaus mehr Energie über längere Zeiträume mit nuklearen Ressourcen erzeugen, bevor wir mit erheblichen Ressourcenengpässen konfrontiert werden als mit erneuerbaren Ressourcen wie Wind und Sonne. Nachhaltigkeitsbezogene Argumente gegen die Kernenergie sind schwach. Argumente gegen die Kernenergie sollten auf Überlegungen beruhen, die über die Frage hinausgehen, ob sie erneuerbar ist oder nicht.

Betrachten wir nun die Kohle. Die Schätzungen für die Verfügbarkeit von Kohle reichen von 50 bis 500 Jahren oder mehr. Diejenigen, die sich gegen die Nutzung von Kohle aussprechen, wollen diese wegen ihrer Umweltauswirkungen in naher Zukunft stark einschränken, nicht weil sie sie für eine zukünftige Nutzung verfügbar haben wollen. Die Befürworter der Kohlenutzung sehen die Kohle im Allgemeinen als Überbrückungsbrennstoff an und sind nicht an die Kohle als Brennstoff über die Lebensdauer der bestehenden und geplanten Kohlekraftwerke hinaus gebunden. Vor allem geht es bei den Argumenten rund um die Kohlenutzung nicht um Fragen der Nachhaltigkeit der Versorgung, sondern vielmehr um die Auswirkungen der heutigen Kohlekraftwerke. Praktisch niemand wird seine Haltung zur heutigen Kohlenutzung ändern, wenn er weiß, ob uns noch 50 Jahre oder 3 Millionen Jahre Kohle zur Verfügung stehen.

Betrachten wir abschließend noch Erdgas. Da es „sauberer“ ist als Kohle, wird es von vielen als hervorragender Brennstoff für den Übergang von der Kohle betrachtet. Übliche Schätzungen der Verfügbarkeit von Erdgas liegen zwischen 60 und 120 Jahren. Das ist weit mehr Erdgas, als vor der Einführung des horizontalen Frackings als verfügbar angenommen wurde. Auch hier gilt, dass selbst an den unteren Enden der Verfügbarkeit genügend Erdgas vorhanden ist, um die derzeitigen Erdgasanlagen zu versorgen und in Zukunft erhebliche zusätzliche Anlagen zu errichten. Noch einmal: Die überwiegenden Bedenken im Zusammenhang mit Erdgas konzentrieren sich auf die Auswirkungen der derzeitigen Fracking-Maßnahmen und den CO₂-Ausstoß, nicht auf die langfristige Verfügbarkeit von Erdgas.

Verfügbarkeit von Ressourcen

Die Menschheit ist zur Deckung ihres Energiebedarfs und anderer Bedürfnisse auf zahlreiche Ressourcen angewiesen. Bei fast allen diesen Ressourcen kann es je nach Bedarf zu Engpässen kommen. Ist es sinnvoll, Strategien festzulegen, die die Verfügbarkeit von Ressourcen Hunderte von Jahren in der Zukunft berücksichtigen? Wie das Sprichwort sagt: „Es ist schwer vorherzusagen, vor allem, was die Zukunft betrifft“. Wenn sich die Denkweise, welche die Debatte über erneuerbare Energien beherrscht, auf andere Bereiche ausweiten würde, würden wir viele Ressourcen ganz anders betrachten als heute. WorldWatch zufolge könnte uns bis 2070 das Eisenerz ausgehen. Hochrechnungen für Bauxit deuten darauf hin, dass es nur noch 25 bis 200 Jahre reichen könnte. Die Wissenschaftler der Global Phosphorous Research Initiative schätzen, dass das Phosphormaximum 2030 erreicht sein wird. Der Goldabbau könnte bis 2050 wirtschaftlich nicht mehr tragbar sein. Bei Kobalt könnte es im nächsten Jahrzehnt zu Versorgungsproblemen kommen. Die Wolframquellen scheinen sehr begrenzt zu sein. Auf der anderen Seite scheint es, dass wir über wesentlich mehr Lithium verfügen könnten als bisher angenommen.

Viele werden argumentieren, dass menschlicher Erfindungsreichtum, technologische Veränderungen, alternative Vorgehensweisen, alternative Wege der Ressourcengewinnung usw. schwerwiegende Folgen der prognostizierten Ressourcenverknappung verhindern werden. Bislang waren wir gut darin, Lösungen für die zu erwartenden Ressourcenprobleme zu finden. Vor etwas mehr als 100 Jahren hatten wir ein schwieriges Problem mit Stickstoff. Stickstoff für Waffen und Düngemittel war abhängig von den Vorräten an Vogelguano, die sich im Laufe der Zeit auf abgelegenen Inseln angesammelt hatten. Die Vorräte gingen bedrohlich zur Neige und drohten, die Zivilisation zum Stillstand zu bringen. Das in Deutschland entwickelte Haber-Bosch-Verfahren war in der Lage, Stickstoff aus der Luft zu gewinnen und Ammoniak herzustellen. Der Stickstoff aus dem Ammoniak konnte dann die ganze Welt versorgen. Nebenbei bemerkt: Das ursprüngliche Verfahren war auf Osmium als Katalysator angewiesen, einem extrem seltenen Element. Inzwischen sind andere Katalysatoren und andere Verfahren entdeckt worden, so dass wir nicht mehr auf Osmium oder das Haber-Bosch-Verfahren angewiesen sind. Wir sollten uns auch bewusst sein, dass die Lösung von heute das Problem von morgen sein kann. Anstelle von Problemen im Zusammenhang mit der schwindenden Stickstoffverfügbarkeit schafft der reichlich vorhandene anthropogene Stickstoff Umweltprobleme, indem er Cyanobakterien und daraus resultierende Algenblüten fördert.

Damit soll nicht gesagt werden, dass wir leichtfertig und verschwenderisch mit den Ressourcen umgehen und die möglichen Folgen für die Zukunft ignorieren sollen. Aber wir sollten auch nicht dogmatisch verkünden, dass die Erschöpfung der Ressourcen unmittelbar bevorsteht und dass die derzeitigen Trends unmöglich anhalten können. Wir haben keine wirkliche Vorstellung davon, was in 100 Jahren an Ressourcen benötigt wird. Bei der Betrachtung der verschiedenen Ressourcengenerationen wird die Frage der Nachhaltigkeit immer eine Herausforderung sein. Bei der Prüfung geeigneter Alternativen wird es wichtig sein, die verschiedenen Ressourcenarten so gleichmäßig wie möglich zu behandeln.

Nachhaltigkeit hängt vom gesamten Energie-Umwandlungsprozess ab

Wind- und Sonnenenergie scheinen nicht so eingeschränkt zu sein wie andere erneuerbare Ressourcen, da wir täglich neue Mengen erhalten. Es ist jedoch wichtig, dass wir nicht nur die direkte Energiequelle betrachten, sondern alle Ressourcen, die zur Erzeugung von elektrischer Energie benötigt werden, sowie die Auswirkungen auf den gesamten Lebenszyklus, einschließlich Bau, Transport und unterstützende Dienstleistungen. Um Energie aus Wind- und Solarquellen zu gewinnen, sind wir auf viele Ressourcen angewiesen, die nur in begrenzten Mengen zur Verfügung stehen. Es ist willkürlich (und falsch) zu sagen, dass wir uns nur um die Erneuerbarkeit der ursprünglichen Energiequelle selbst kümmern und nicht um die Ressourcen, die zur Umwandlung der Energiequelle in elektrische Energie benötigt werden. Wenn man alle potenziellen Ressourcen fair behandeln will, sollte man bedenken, dass der Bau riesiger Solar- und Windkraftanlagen kritische Ressourcen erschöpfen kann, so dass ihre verstärkte Nutzung möglicherweise nicht nachhaltig ist. Mit den derzeitigen Technologien können in absehbarer Zeit nicht alle Ressourcen aufgefüllt werden, die für die Umwandlung von Wind- und Sonnenenergie in elektrische Energie erforderlich sind.

Man könnte argumentieren, dass Wind- und Solarenergie nicht immer von den begrenzten Ressourcen abhängen, auf die sie heute angewiesen sind, wie z. B. seltene Erdmetalle. Dass sie durch derzeit noch unbekannte Technologien irgendwann in der Lage sein werden, den Energiebedarf zu decken. Wie bereits erwähnt, ist dies eine durchaus berechtigte Hoffnung. Wenn man jedoch dieses Argument anführen kann, ist ein ähnliches Argument für Kernbrennstoffe wahrscheinlich noch fundierter. Jede Zweiteilung, die Wasser-, Biomasse-, Wind- und Solarenergie als nachhaltige Energiequellen ansieht, die Kernkraft aber als weniger nachhaltig betrachtet, sollte als fragwürdig betrachtet werden.

Bedeutet erneuerbar auch sauber oder grün? Sollten wir nicht erneuerbare Ressourcen schnell aus dem Verkehr ziehen?

Umweltgruppen sprechen sich seit Jahren klar gegen die meisten neuen Wasserkraftprojekte aus. Viele Umweltgruppen lehnen die Biomasseindustrie entschieden ab und beklagen die Umweltauswirkungen unserer derzeitigen Ansätze. Die FERC hat gerade die Streichung von vier bestehenden Wasserkraftwerken aufgrund ihrer anhaltenden Auswirkungen genehmigt. Geothermische Anlagen setzen CO₂ frei, und die meisten werden sorgfältig überwacht, um die Emissionen zu verfolgen. Auch Wind- und Solarkraftwerke sind nicht durchgängig sauber und umweltfreundlich, da sie in manchen Umgebungen besonders schädliche Auswirkungen haben können.

Viele mit fossilen Brennstoffen betriebene Kraftwerke, die eigentlich als Notstromaggregate dienen könnten, werden unüberlegt stillgelegt, um den Übergang zu einem höheren Anteil erneuerbarer Energien zu beschleunigen. Dies mag zwar zu Gesamtzahlen führen, die für manche besser aussehen, aber es kann kontraproduktiv sein. Bei der Betrachtung der Auswirkungen von Lebenszyklen von Erzeugungsressourcen kann die Beibehaltung alter Anlagen für den Notbetrieb der ökologisch klügste Schritt sein. Die meisten Umweltschäden sind bereits eingetreten. Die verbleibenden zusätzlichen Brennstoffauswirkungen sind im Vergleich zu den Vorteilen gering. Betrachtet man nur den CO₂-Ausstoß, so kann der Bau umfangreicher Wind- und Solarkraftwerke oder der Einbau von Batterien als Ersatz für die Notstromversorgung durch solche Anlagen weitaus größere negative Umweltauswirkungen haben als die Verlängerung der begrenzten Stromerzeugung aus fossilen Brennstoffen.

Die Grenze zwischen erneuerbaren und nicht erneuerbaren Energien ist nicht eindeutig und wird weiter verwischen

Die Energieressourcen der Zukunft können sich erheblich von den heutigen Erwartungen unterscheiden. Es ist wahrscheinlich, dass viele die Grenze zwischen dem überschreiten werden, was als erneuerbar und was als nicht erneuerbar gilt. Bestehende Technologien verwischen diese Grenze bereits. Salzschmelzen werden mit Spiegeln beheizt, damit die Solarenergie besser an die Netzkapazitäten der fossilen Brennstoffe angepasst werden kann. Bei einigen Anwendungen wurde die „erneuerbare“ Solarquelle so konzipiert, dass sie zusätzliches Erdgas verbrennt, um den Prozess effizienter zu gestalten. Bislang haben solche Anlagen in der Praxis nicht so gut funktioniert wie in der Theorie. Aber sie haben bei vielen die Hoffnung auf eine zukünftige synchrone „erneuerbare“ Ressource geweckt. Wenn sie tatsächlich wie geplant funktionieren würden, könnte es durchaus sinnvoll sein, viel Sonnenenergie mit ein wenig Erdgas effektiv zu nutzen, auch wenn eine solche Anlage nicht unbedingt „erneuerbar“ wäre. Ohne eine sorgfältige Prüfung der tatsächlichen Auswirkungen könnten künftige saubere Anlagen, die nicht streng „erneuerbar“ sind, auf unangemessene Hürden stoßen.

Schlussbemerkung

Die Unterscheidung zwischen erneuerbaren und nicht-erneuerbaren Energiequellen führt im Allgemeinen eher zu Verwirrung als zu Klarheit. Die Unterschiede innerhalb der einzelnen Kategorien sind in vielen Fällen groß. Wir können nicht in die Zukunft sehen und wissen nicht, welche Alternativen sich entwickeln und bewähren werden. Es zeichnet sich jedoch deutlich ab, dass „erneuerbar“ und „nicht erneuerbar“ veraltete Begriffe sind, die ihre Nützlichkeit überlebt haben. Im nächsten Teil dieser Serie werden wir uns ansehen, wie sich die verschiedenen Erzeugungsquellen auf das Stromnetz auswirken. Einige „erneuerbare“ Energieträger sind eine große Hilfe für das Netz, während andere eine Herausforderung darstellen. Sie bei der Diskussion über die Auswirkungen auf das Netz in einen Topf zu werfen, führt zu Missverständnissen und Problemen, die langfristig allen Bemühungen um eine Veränderung des Netzes schaden werden.

Link: https://judithcurry.com/2024/02/05/time-to-retire-the-term-renewable-energy-from-serious-discussion-and-energy-policy-directives/#more-30961

Übersetzt von Christian Freuer für das EIKE

 




Abhängigkeiten zwischen Temperatur-‚Beobachtungen‘ und den Klima-‚Modellen’…

und den Wissenschaftlern des Establishments, die sie verborgen halten sollen.

Cap Allon

Einführung

Die in den letzten 50 Jahren beobachtete „globale Erwärmung“ ist schwächer ausgefallen als von den meisten computergestützten Klimamodellen vorhergesagt. Die öffentliche Politik sollte sich auf diese wenig alarmierenden Beobachtungen stützen und nicht auf übertriebene Modellrechnungen.

Die durchschnittliche Erwärmung des Klimasystems in den letzten fünf Jahrzehnten wurde den CO₂-Emissionen aus der Verbrennung fossiler Brennstoffe zugeschrieben. Diese Überzeugung hat zu Bemühungen geführt, die Abhängigkeit der Menschheit von solchen Brennstoffen stark zu verringern und auf „erneuerbare“ Energiequellen umzusteigen, die sich immer wieder als teuer und unzuverlässig erweisen – ein Schritt, der die Energiepreise im Westen in die Höhe treibt.

Laut Dr. Roy Spencer, leitender Wissenschaftler an der Universität von Alabama in Huntsville und ehemaliger leitender Wissenschaftler für Klimastudien bei der NASA, sind im Zusammenhang mit dem Anstieg der globalen Durchschnittstemperatur seit den 1970er Jahren drei Fragen von Bedeutung:

1) Ist die jüngste Erwärmung des Klimasystems im Wesentlichen auf die anthropogenen Treibhausgasemissionen zurückzuführen?

2) Liegt die beobachtete Erwärmung in der Nähe dessen, was Computerklimamodelle zeigen – die als Richtschnur für die öffentliche Politik dienen?

3) Reicht die beobachtete Erwärmungsrate aus, um Alarm zu schlagen und eine umfassende Regulierung der CO₂-Emissionen zu rechtfertigen?

Die Projektionen des Klimawandels, die in den Nachrichten zu lesen sind und die Grundlage für die Bemühungen der Regierungen um eine Verringerung der Kohlendioxidemissionen bilden, stammen aus computergestützten Klimamodellen, die von Klimaforschungszentren in verschiedenen Ländern betrieben werden, so Dr. Spencer in einer aktuellen Veröffentlichung für die Heritage Foundation.

Diese Prognosen ähneln den Wettervorhersagemodellen, sind aber mit zusätzlichen Verbesserungen versehen, die für kurzfristige Vorhersagen nicht erforderlich sind. Die Modelle sind so eingestellt, dass sie keine langfristigen Veränderungen des Klimas bewirken. Mit anderen Worten: Die Modelle gehen davon aus, dass sich ohne menschliches Zutun normalerweise nichts am Klima ändern würde, dass der „Klimawandel“ völlig unnatürlich ist – sie werden dann als „Beweis“ für den vom Menschen verursachten Klimawandel herangezogen, wenn zusätzliches CO₂ hinzugefügt wird.

Das ist natürlich ein logischer Widerspruch, wie Dr. Spencer betont. Es gibt natürlich zahlreiche natürliche oder nicht CO₂-bedingte Gründe, warum sich das Klima ändern kann.
Die zahlreichen Klimamodelle ergeben globale Erwärmungsraten, die etwa um den Faktor drei variieren (1,8°C bis 5,6°C). Dies zeigt, dass die Prognosen der Klimamodelle nicht auf gesicherten physikalischen Grundlagen beruhen. Wäre dies der Fall, würden sie alle in etwa die gleiche Erwärmung vorhersagen. Außerdem hat sich dieser Faktor drei in den mehr als 30 Jahren der Verbesserung der Klimamodelle nicht verändert.

Temperaturveränderungen sind das Ergebnis eines Energie-Ungleichgewichts, und alle Klimamodelle wurden so „eingestellt“, dass sie ohne die vom Menschen verursachten CO₂-Äquivalent-Emissionen ein Energie-Gleichgewicht herstellen. Ohne solche „Tuning-Anpassungen“ (Dr. Spencer nennt sie „Fudge-Faktoren“) würde die Temperatur der Modelle im Laufe der Zeit langsam driften, d. h. immer mehr steigen oder sinken. Trotz dieser Anpassungen hat sich gezeigt, dass viele Modelle immer noch Probleme mit der Energieerhaltung haben.

Die Energieerhaltung (das wahrscheinlich grundlegendste Gesetz der Wissenschaft, der Erste Hauptsatz der Thermodynamik) sollte eine notwendige Voraussetzung für jedes Modell sein, das für energiepolitische Entscheidungen verwendet wird. Die Notwendigkeit der Modellanpassung ist unvermeidlich, da die grundlegenden physikalischen Prozesse im Klimasystem (insbesondere die Eigenschaften der Wolken) nicht genau genug bekannt sind, um ein stabiles Modell allein aus physikalischen Grundprinzipien zu erstellen. Daher müssen empirische Anpassungen an diesen modellierten Prozessen vorgenommen werden, damit das Modell über Jahrhunderte der Modelllaufzeit nicht ungewollt Erwärmung oder Abkühlung simuliert. Doch selbst auf dieser grundlegenden Ebene versagen viele Modelle.

Die Annahme, dass sich das Klimasystem in einem natürlichen Zustand des Energiegleichgewichts befindet, bedeutet auch, dass die Modelle keine Quellen langfristiger natürlicher Klimaänderungen enthalten. Auch diese Annahme ist ziemlich unvermeidlich, da die Modelle nur Prozesse einbeziehen können, welche die Klimaforscher verstehen und quantifizieren können, und dieses Wissen ist derzeit für natürliche Quellen langfristiger Klimaänderungen nicht vorhanden. Während Wissenschaftler oft davon ausgehen, dass langfristige Veränderungen von einem externen Antrieb ausgehen müssen (wie z.B. steigendes CO₂ oder eine Veränderung der Sonnenaktivität), ist das Erdklima bekanntlich ein „nichtlineares dynamisches System“, das chaotische Schwankungen aufweist, so dass langfristige Veränderungen auch ohne externen Antrieb möglich sind.

Aufgrund der den Klimamodellen zugrundeliegenden Annahmen ist jede Behauptung, sie würden „beweisen“, dass die Erwärmung auf menschliche Aktivitäten zurückzuführen ist, eindeutig zumindest fragwürdig. Es gibt keine „Fingerabdrücke“ einer vom Menschen verursachten Erwärmung, fügt Dr. Spencer hinzu.

Der Betrug mit den Rückkopplungen

Der vertrauensvollen Öffentlichkeit wurde vorgegaukelt, dass die Modelle ziemlich genau angeben, wie viel Erwärmung bei einer Verdoppelung des atmosphärischen Kohlendioxidgehalts eintreten sollte.

Die Theorie der globalen Erwärmung selbst besagt, dass eine Verdoppelung des CO₂-Gehalts nur eine direkte Erwärmung von 1,2 °C verursachen würde, wenn es keine anderen Veränderungen im Klimasystem als die Temperatur gibt.

Es sind jedoch diese anderen, indirekten Veränderungen (die so genannten „Rückkopplungen“), bei denen die Klimamodelle in den Weltraum abheben, wo sie die eher harmlose Erwärmung von 1,2 °C erheblich verstärken und sie auf 1,8 °C bis 5,6 °C steigen lassen – je nach der Stimmung der Alarmisten an diesem Tag.

Die derzeitigen Behauptungen über eine „Klima-Krise“ sind das Ergebnis des Vertrauens in die Modelle, welche die stärkste Erwärmung hervorbringen, und nicht in die tatsächlichen Beobachtungen des Klimasystems, die unauffällige Veränderungen während des letzten Jahrhunderts und darüber hinaus zeigen.

Beobachtungen in der realen Welt

Nun zum Kern der Sache, dem Dämpfer für die Freude der AGW-Partei…

Klimamodelle haben in der Vergangenheit eine stärkere Erwärmung erzeugt als in den letzten Jahrzehnten beobachtet worden ist; dies wird durch die Daten belegt und kann nicht bestritten werden (trotz der vielen Versuche, es doch zu tun – mehr dazu später).

Diese Diskrepanz trifft nicht auf alle Modelle zu, da zwei von ihnen (beide russisch) Erwärmungsraten erzeugen, die relativ nahe an den Beobachtungen liegen, aber diese Modelle sind natürlich nicht die, die zur Förderung der Klimakrisen-Narrative verwendet werden – sie sind russisch.

Nur die Modelle, die die stärkste Erwärmung erzeugen, finden ihren Weg beispielsweise in die Nationale Klimabilanz der USA, die vom Kongress in Auftrag gegebene Bewertung dessen, was globale Klimamodelle für das Klima in den Vereinigten Staaten vorhersagen.

Ein direkter Vergleich zwischen Modellen und Beobachtungen offenbart jedoch die Diskrepanzen:

In der obigen Grafik wird der Durchschnitt von fünf verschiedenen , auf Beobachtungen basierenden Datensätzen (blau) mit dem Durchschnitt von 36 Klimamodellen verglichen, die in den sechsten IPCC Climate Model Intercomparison Project (CMIP6) eingehen.

Die Modelle haben im Durchschnitt eine um 43 % schnellere Erwärmung als die von 1979 bis 2022 beobachtete hervorgebracht – dem Zeitraum des schnellsten Anstiegs der globalen Temperaturen und der anthropogenen Treibhausgas-Emissionen, der auch dem Zeitraum entspricht, für den Satellitenbeobachtungen vorliegen.

Diese Diskrepanz zwischen Modellen und Beobachtungen wird nie erwähnt, obwohl die besagten Modelle verwendet werden, um den Bürgern der westlichen Welt (nicht Russland oder China, wohlgemerkt) zerstörerische politische Veränderungen aufzuzwingen, die über die Beobachtungen hinausgehen – Beobachtungen, die, wie ich hinzufügen möchte, oft von denselben Agenturen vorgelegt werden, die mit der Förderung von CAGW beauftragt sind, um es mal so zu sagen.

Es steht auch fest, dass die regionalen Temperaturen für die nationalen und regionalen Regierungen und ihre Bürger von größerer Bedeutung sind. In den Vereinigten Staaten zum Beispiel könnte ein starker Anstieg der Sommerhitze die menschliche Gesundheit und die Produktivität der landwirtschaftlichen Kulturen beeinträchtigen. Doch wie die nächste Grafik zeigt, weisen die Lufttemperaturen während der Vegetationsperiode (Juni, Juli und August) über dem Corn Belt in 12 Bundesstaaten in den letzten 50 Jahren eine enorme Diskrepanz zwischen den Klimamodellen und den Beobachtungen auf, wobei alle 36 Modelle Erwärmungsraten ergeben, die weit über den beobachteten Werten liegen, wobei das extremste Modell eine siebenmal zu starke Erwärmung erzeugt:

Die Tatsache, dass die weltweite Nahrungsmittelproduktion in den letzten 60 Jahren schneller gestiegen ist als das Bevölkerungswachstum, deutet darauf hin, dass etwaige negative Auswirkungen des Klimawandels gering bis gar nicht vorhanden waren. Tatsächlich ist gut dokumentiert, dass eine „globale Ergrünung“ als Reaktion auf mehr CO₂ in der Atmosphäre stattfindet, was sowohl das natürliche Pflanzenwachstum als auch die landwirtschaftliche Produktivität steigert.

Diese Diskrepanzen zwischen Modellen und Beobachtungen werden auch nie erwähnt, wenn diese Aktivisten-Wissenschaftler in den herkömmlichen Nachrichtenkanälen auftauchen. Stattdessen nutzen sie übertriebene Modellprognosen aus, um apokalyptische Erzählungen über einen „Klima-Notstand“ zusammenzubrauen.

Herausforderungen

Mit den oben genannten Argumenten werden Leute wie Dr. Spencer als „Parias“ und „Verschwörungstheoretiker“ positioniert, obwohl es die Daten sind, die für sich sprechen; sie machen sie zu Feinden des Establishments, zu einer Opposition, die ausgeschaltet werden muss.
Ein Beispiel dafür ist die kürzlich veröffentlichte Analyse von Dr. Spencer, die von Gavin Schmidt, dem Diener der AGW-Partei, angegriffen wurde.

Schmidt wurde wahrscheinlich damit beauftragt, die unbequemen Ergebnisse zu verleumden, was er auch tat, und zwar schnell. Weniger als vier Tage, nachdem Spencer seinen Artikel bei der Heritage Foundation veröffentlicht hatte, veröffentlichte Schmidt, der anscheinend nichts Besseres zu tun hatte, seine Kritik an „Spencers Albernheiten auf realclimate.org.

Seitdem hat Dr. Roy Spencer zurück geschlagen und eine Gegendarstellung zu jedem von Schmidts Punkten veröffentlicht.

„Wenn ich mir seine Kritik durchlese“, schreibt Spencer, „scheint er zu sehr zu versuchen, meine Behauptungen zu widerlegen, während er schwache (und sogar nicht vorhandene) Beweise verwendet.“

SCHMIDT: Der Basiszeitraum des Klimamodells (und der Beobachtung) (1991-2020) ist für die gezeigte Grafik (1. Diagramm oben) falsch. ROYS ANTWORT: Dies scheint ein Tippfehler zu sein, aber der Basiszeitraum ist für die Temperaturtrends irrelevant, um die es in dem Artikel geht.

SCHMIDT: Die einzelnen Modelle, nicht der Modell-Durchschnitt, sollten gezeigt werden. Außerdem werden nicht alle Modelle in die IPCC-Schätzung der künftigen Erwärmung einbezogen, sondern nur die wärmsten Modelle, was die Diskrepanz verringern wird. ROYS ANTWORT: OK, wenn ich mir also nur die Modelle ansehe, die Gleichgewichts-Klimaempfindlichkeiten (ECS) im „sehr wahrscheinlichen“ Bereich des IPCC von 2 bis 5 deg. C für eine Verdopplung des atmosphärischen CO₂ diagnostiziert haben, zeigt die folgende Grafik, dass die beobachteten Erwärmungstrends immer noch am unteren Ende der Modellspanne liegen:

SCHMIDT: Gavin zeigt seinen eigenen Vergleich der Modelle mit den Beobachtungen (nur GISS, aber es ist sehr nah an Roys 5-Datensatz-Durchschnitt) und zeigt, dass die Beobachtungen innerhalb des Rahmens aller Modelle liegen. ROYS ANTWORT: Ich habe nie behauptet, dass die Beobachtungen „außerhalb des Rahmens“ aller Modelle liegen (zumindest für die globalen Durchschnittstemperaturen sind sie es für den Corn Belt). Ich will damit sagen, dass sie nahe dem unteren Ende der Modellspanne der Erwärmungsschätzungen liegen.

SCHMIDT: „Es gibt keine zusätzliche Anpassung, um den Unterschied in den Trends zu übertreiben“, wie es in Spencers Diagramm der Fall ist. ROYS ANTWORT: Ich habe keine Ahnung, warum Gavin glaubt, dass Trends davon beeinflusst werden, wie man zwei Zeitreihen in einem Diagramm vertikal ausrichtet. Sie werden es nicht. Um Trends zu vergleichen, richten John Christy und ich verschiedene Zeitreihen so aus, dass sich ihre linearen Trends am Anfang des Diagramms überschneiden. Wenn man darüber nachdenkt, ist dies die logischste Art, die Unterschiede in den Trends in einem Diagramm darzustellen, und ich weiß nicht, warum das nicht auch alle anderen tun. Jedes „Rennen“ beginnt am Anfang. Es scheint, dass Gavin es nicht mag, weil es die Modelle schlecht aussehen lässt, was wahrscheinlich der Grund ist, warum die Klimamodellierer es nicht so machen. Sie wollen Diskrepanzen verbergen, damit die Modelle besser aussehen.

SCHMIDT: Gavin mag es nicht, dass Dr. Spencer den US-Maisgürtel (2. Diagramm oben) „herauspickt“, wo die Erwärmung in den letzten 50 Jahren geringer war als die, die von ALLEN Klimamodellen erzeugt wurde. ROY’S ANTWORT: Der U.S. Corn Belt ist das größte Maisanbaugebiet der Welt. (Die Sojaproduktion ist ebenfalls sehr groß). Seit langem wird befürchtet, dass die Landwirtschaft dort durch steigende Temperaturen und geringere Niederschläge geschädigt wird. In dieser Publikation wurde beispielsweise behauptet, dass dies bereits so ist. Aber das ist nicht der Fall. Stattdessen ist die Erwärmung seit 1960 (da die Zahlen zur Ernteproduktion gut dokumentiert sind) (oder seit 1973 oder 1979… es spielt keine Rolle, Gavin) so gut wie nicht vorhanden, und die Niederschläge haben einen leichten Aufwärtstrend gezeigt. Warum habe ich mir also den Corn Belt ausgesucht? Weil er weltweit von der Getreideproduktion abhängig ist und weil behauptet wird, dass er unter dem „Klimawandel“ gelitten hat. Das hat er nicht.

SCHMIDT: Gavin wendet sich erneut gegen den Vergleich der globalen troposphärischen Temperaturdaten mit dem Durchschnitt mehrerer Modelle (in dieser Grafik) und nicht mit den einzelnen Modellen. Er zeigt dann ein ähnliches Diagramm, aber mit der Modellspanne. ROYS ANTWORT: Werfen Sie einen Blick auf sein Diagramm die Beobachtungen (Satelliten, Radiosonden und Reanalyse-Daten) liegen ALLE am unteren Ende der Modellspanne. Gavin macht meinen Standpunkt für mich deutlich. UND… ich würde seinem Diagramm sowieso nicht trauen, weil die Trendlinien gezeigt und die Datenplots vertikal ausgerichtet werden sollten, damit sich die Trends am Anfang schneiden. Dies ist der logischste Weg, um die Trendunterschiede zwischen verschiedenen Zeitreihen zu veranschaulichen.

Schmidt geht nicht auf die anderen Punkte von Dr. Spencer ein, z. B. dass die auf Beobachtungen beruhenden Schätzungen der Klimasensitivität viel niedriger sind als die Behauptungen des IPCC, und auch nicht auf den Punkt, dass die kürzlich veröffentlichten Beweise zeigen, dass die Klimamodelle nicht einmal Energie sparen (was eine Notwendigkeit zu sein scheint, da die globale Erwärmung im Grunde eine Frage der Energieeinsparung ist).

Stattdessen schließt Gavin mit folgendem Satz: „Spencers Mätzchen zielen darauf ab, die Leser über die wahrscheinlichen Quellen von Diskrepanzen in die Irre zu führen und ihnen zu unterstellen, dass die Klimamodellierer an solchen Vergleichen nicht interessiert sind – und in beiden Punkten liegt er falsch.“

Man beachte, dass dies derselbe Gavin ist, der sich in der Fernsehsendung von John Stossel strikt geweigert hat, mit Dr. Roy Spencer zu debattieren, indem er aufstand und das Set verließ, bevor Spencer herein kam.

Es scheint, dass Gavin glücklich genug ist, Spencer hinter der Sicherheit seines Computerbildschirms selektiv zu widersprechen, aber eine offene und freie Debatte nicht riskieren kann. Das alles ist „ziemlich aufschlussreich“, schreibt Spencer.

Link: https://electroverse.substack.com/p/vast-dependencies-between-temperature?utm_campaign=email-post&r=320l0n&utm_source=substack&utm_medium=email (Zahlschranke)

Übersetzt von Christian Freuer für das EIKE

 




Der Januar zerlegt den CO₂-Treibhauseffekt – Teil 2

Der Januar ist der Monat mit dem größten Temperatursprung

Von Matthias Baritz, Stefan Kämpfe, Josef Kowatsch

Teil 1 des Beitrags steht hier.

Die Minimum-Maximum-Temperaturen des Januarmonats

Zuverlässig liegen die Minimum- Maximumtemperaturen bei den DWD-Reihen erst seit 1947 vor und natürlich auch nicht bei allen der jetzigen knapp 2500 Stationen, sondern nach Kriegsende bei knapp 550 Stationen

Zum Vergleich nochmals die DWD-Januarmittel seit 1947

Abb. 1: 40 Jahre lang zeigte der Januar eine leichte Abkühlung bis 1987. Dann erfolgte der große Temperatursprung von 2 Grad. Ab 1988 bis heute ein Temperaturstillstand.

Auswertung: Keine Erwärmung vor 1988, dann im Jahre 87/88 ein großer Temperatursprung von 2 Grad, ab 1988 bis heute wieder keine Erwärmung. Damit scheidet das angebliche Treibhausgas Kohlendioxid als Verursacher aus. Solche Gaseigenschaften, die nur plötzlich wirken, gibt es nicht.

Im Teil 1 haben wir weiter gezeigt, dass dieser einmalige Temperatursprung überall in Mittel- West- und Nordeuropa auftritt, aber nicht auf anderen Kontinenten.

Unser Fazit war: Der Januar hat den höchsten Temperatursprung aller 12 Monate in Deutschland. Im Gegensatz dazu stand der Dezember: Der Dezember ist der einzige Monat ohne Temperatursprung. Alle Dezembererwärmung fand erst ab 1988 bis heute statt.

In diesem Teil 2 wollen wir zusätzlich die Maximum- und Minimumtemperaturen mitbetrachten. Da der DWD diese nicht in Form einer Tabelle auflistet, musste M. Baritz sämtliche DWD-Stationen auswerten, die bis Kriegsende zurückgehen und Tmax/Tmin mitgemessen haben. Vor 1945 fällt die Anzahl der Stationen und der Messerfassungen rasch ab, kein Wunder, der Krieg selbst führt zu Unregelmäßigkeiten, und seit 1945 hat Deutschland auch ganz andere Außengrenzen.

Ein Jahrespunkt in den folgenden Grafiken entsteht durch die Addition sämtlicher 535 Stationen zu einem Jahresschnitt, und das jeweils für Tmin (blaue Grafik), Gesamtschnitt (braun) und Tmax (grau). Solche Grafiken findet man beim DWD überhaupt nicht, obwohl alle Beamten und Angestellten im Gegensatz zu uns bezahlt werden.

Jetzt derselbe Zeitraum wie bei Grafik 1 mit den Maximum- und Minimum-Temperaturen:

Abb.2: Die mittleren braunen Grafiklinien entsprechen dem Verlauf von Abb.1. Die Formeln unterscheiden sich ganz leicht, weil hier nur 535 Stationen geführt werden. Es liegen nicht mehr vor, die zugleich auch T-max und T-min erfassen.

Weitere Auswertung – zunächst zum Temperatursprung

Wichtigste Erkenntnis: Der Januar-Temperatursprung von 2 Grad im Jahre 1987auf 1988 tritt bei allen drei Grafikverläufen auf. Es gibt beim Januar keine großen Steigungs-Unterschiede zwischen Tag/Nachttemperaturen, gemessen in T-max/T-min wie etwa bei den Sommermonaten.

Erster Zeitabschnitt, von 1947 bis 1987: Die Tagestemperaturen (T-max) fallen am stärksten, (leichte Abkühlung) die in der Nacht am schwächsten, insgesamt sind das aber keine großen Differenzen, d.h. fast gleich. Deswegen ziehen wir daraus auch keine Rückschlüsse, außer

Die 40 Jahre lang fallenden Temperaturen von 1947 bis 1987 widerlegen den CO₂-Treibhauseffekt als alleinigen Temperaturerwärmungstreiber.

Nach dem Temperatursprung von 1988 bis heute: Steigungsunterschiede wieder bedeutungslos, fast gleich bei allen drei Messungen, nämlich fast nichts.

Insgesamt: Keine großen Ausnahmen bei den Tag/Nachttemperaturen. Sie verlaufen ziemlich parallel zu den Januarmittel der betreffenden Jahre. (Bei den Sommermonaten war es ganz anders)

Merke: Bei allen 6 Regressionslinien der Januartemperaturen seit 1947 bis heute ist keinerlei Wirkung irgendeines Treibhauseffektes erkennbar. Es gibt keinerlei Korrelation mit dem Anstieg der CO₂-Konzentrationen in der Atmosphäre. Anzumerken wäre noch, dass die gemessenen DWD-Daten nicht wärmeinselbereinigt sind.

Abb.3: Die CO₂-Konzentration der Atmosphäre steigt stetig an. Ganz im Gegensatz zu den deutschen Januartemperaturen, es besteht nirgendwo eine Korrelation

Ergebnis: Die Januartemperaturreihen des Deutschen Wetterdienstes widersprechen dem CO₂-Treibhauseffekt. Sie führen ihn ad absurdum.

Rückblick und Vergleich mit dem Dezember: Beim Dezember erfolgte die 2 Grad Erwärmung erst ab 1988 bis heute. Der Dezember hatte vor allem keinen Temperatursprung. Auch nicht bei den T-Max und T-min-Temperaturen.

Abb.4: Nur die nächtlichen T-Min- Temperaturen sind auch vor 1987 schon leicht steigend

Merke: Alle drei DWD-Grafiken kann man nicht mit einem imaginären stetig zunehmendem Treibhausgas CO₂ erklären. Der Begriff „Treibhausgas“ ist somit ein Fantasiebegriff aus der Werbebranche, der uns Angst einflößen soll, genauso wie diese völlig falsche UN-Definition von Klimawandel: Der Begriff „Klimawandel“ bezeichnet langfristige Temperatur- und Wetterveränderungen, die hauptsächlich durch menschliche Aktivitäten verursacht sind, insbesondere durch die Verbrennung fossiler Brennstoffe.

Richtig ist: Klima wandelt sich immer. Nur die Behauptung, dass dieser Wandel auf CO₂ zurückzuführen ist, ist falsch. In Wahrheit gibt es viele Ursachen dieser unterschiedlichen und sich stets wandelnden Temperaturverläufe. Drei haben wir bisher erarbeitet und in den Artikeln der letzten Jahre immer mal wieder näher erklärt.

Die richtige Erklärung für den ständigen Klimawandel

  1. Natürliche Ursachen: Rein statistisch haben die Westwetterlagen im Winter und somit auch im Januar zugenommen und die nördlichen Wetterlagen abgenommen. Diese natürliche Klimaänderung beschreibt stets Stefan Kämpfe in seinen Artikeln. Zuletzt hier: Zuletzt hier
  2. Der Wärmeinseleffekt: Der WI-effekt ist bei den DWD-Wetterstationen vor allem nach der Einheit stark angestiegen. Gründe sind in erster Linie die starke Bebauung und die Zunahme von Heizungen, Autos und Industrie, siehe Versiegelungszähler. Stand: 50 848 km² von 358 000 km².
  3. Eine statistische Erwärmung. Die Erfassung in der Wetterhütte wurde abgeschafft und der Tagesdurchschnitt nach ganz anderen Methoden erfasst.

Zu allen drei Punkten haben wir in den letzten Jahren ausführliche Artikel verfasst.

Die Punkte 2 und 3 sind im Vergleich zu 1 jedoch im Januar schwächer ausgeprägt, da die wenigen Sonnenstunden im Vergleich zum Sommer wegen des niedrigen Sonnenstandes auch noch viel weniger wirksam sind.

Würde man die DWD-Januarreihen um die Punkte 2 und 3 bereinigen, dann würde der 2 Grad Temperatursprung genauso auftreten, nur vor 1987/88 hätten wir in den DWD-Reihen eine etwas stärkere Abkühlung und nach dem Temperatursprung ab 1988 bis heute auch

Die Großwetterlagen und Luftmassen machen den Unterschied – ist die aktuelle Januar-Wärme noch ausbaufähig?

Ob ein Januar kalt oder mild verläuft, hängt von den jeweils dominierenden Großwetterlagen und den bei diesen herangeführten Luftmassen ab. Kalte Januare zeichnen sich meist durch schwachwindige Hochdruck- oder Ostwetterlagen mit den Luftmassen cP, cPs oder cSp aus; milde durch windige, westliche Lagen mit den Luftmassen mP oder mPs, seltener kurzzeitig auch mS oder xS. Nicht selten ist Januar-Kälte bodennah, besonders bei Hochdruckwetterlagen ist es dann in der Höhe milder, während bei zyklonalen Westlagen die Temperatur mit der Höhe rasch abnimmt. Parade-Beispiel für einen besonders in den unteren Luftschichten sehr kalten Jänner ist der von 1996, als es auf dem Brocken milder war als im Thüringer Becken, während der bodennah sehr milde Januar 2018 auf dem Brocken recht winterlich verlief. Gegenwärtig dominieren die milden, westlagen-geprägten Januare – doch die Erwärmung scheint weitgehend ausgereizt. Die folgende Grafik wurde mit Hilfe der Objektiven Wetterlagen-Klassifikation des DWD erstellt. Seit 1988 waren Lagen mit westlichem Strömungsanteil meist dominant, so 1988 (29 Tage), 1994 (27 Tage), 1999 (28 Tage), 2007 (27 Tage) und 2008 (29 Tage). Aber ein Januar hat nur 31 Tage – viel mehr geht da kaum. Die Westlagenhäufigkeit beeinflusste im Betrachtungszeitraum die Temperaturvariabilität zu immerhin fast 52% (Korrelationskoeffizient r=0,72). Kalte Ostwetterlagen hatten Seltenheitswert, wesentliche Trends sind weder bei der Häufigkeitsentwicklung der West- und Ostlagen, noch bei den Januar-Temperaturen erkennbar.

Das heißt: Sollten künftig einmal Westlagen seltener und Ostlagen häufiger werden, würde sich der Januar abkühlen – ob und wann das eintritt, lässt sich aber nicht vorhersehen. Viel wärmer, als der Rekordjanuar von 2007, als im DWD-Mittel fast 5°C erreicht wurden, kann der erste Monat des Jahres aber auch kaum werden.

Abbildung 5: Keine Trends seit 1988 bei den deutschen Januar-Temperaturen (hellblau, zur besseren Einpassung in die Grafik um 10 Kelvin angehoben, der Trend ändert sich dadurch nicht) sowie der West- und Ostlagenhäufigkeiten in Tagen. Westlagen (violett) wirken im Januar stark erwärmend (r=0,72), Ostlagen (grün) deutlich kühlend (r= -0,54).

Anmerkung zum nicht erkennbar wirkenden CO₂-Treibhauseffekt

Grundsätzlich ist die physikalische Absorption und Emission von Gasen physikalische Realität und wird durch die Belege unseres Artikels nicht in Frage gestellt. Aber wie hoch ist die dadurch geglaubte Thermalisierung? Gibt es überhaupt eine? Von uns wird die beängstigende Höhe von 2 bis 4,5 Grad Klimasensitivität (je nach Klimamodell, hierbei handelt es sich um fiktive Modelle, Teilrechnungen und nicht um Realität) wissenschaftlich hinterfragt und anhand der Daten des Deutschen Wetterdienstes widerlegt. Insbesondere zeigt sich, dass keine Grundlage für einen sog. Klimanotstand und darauf aufbauende Verbote und Panikmache besteht. Wir Bürger sollten uns nicht von politischen Laien aus der Politik und gut alimentierten selbst ernannten Klimawissenschaftlern bevormunden lassen.

Unsere Motivation: Alle unsere Arbeiten sind gegen das Geschäftsmodell CO₂-Klimapanik und Klimanotstand gerichtet. Wenn sich hier ein Kommentator oder ein Artikel für eine geringe CO₂-Klimasensitivität in der Größenordnung bis 0,5/0,6 Grad ausspricht, dann widersprechen wir nicht. Für uns hat dem Geschäftsmodell Klimapanik und Klimanotstand in einer gemeinsamen konzertierten Aktion zu widersprechen absoluter Vorrang.

Fazit: Eine teure CO₂-Einsparung (Große Transformation) wie sie die derzeitige Politik in Deutschland anstrebt, ist somit völlig wirkungslos auf das Temperaturverhalten im Januar und auch der anderen Monate. Sie zerstört die Natur und Landschaft Deutschlands, sie schadet unserer Industrie und das Geschäftsmodell Klimahysterie will unser Geld. Ein Abzockemodell, das Deutschland ruiniert, das dem Klima nichts nützt und mit den angeblichen Schutzmaßnahmen wie Freiflächensolaranlagen und Windrädern unsere Natur und Umwelt nachhaltig zerstört.

Grundforderung von uns Natur- und Umweltschützern:

Die werbe- und geschäftsmäßig geplante und regierungsgewollte CO₂-Klimaangstmacherei vor einer angeblichen Erdüberhitzung muss sofort eingestellt werden. Es handelt sich um eine Werbestrategie der großen selbst erfundenen Klimalüge.

Wir sind deshalb gegen teure technische CO₂-Reduzierungsmaßnahmen, die dem Klima nichts nützen, sondern der Natur und Umwelt oft zusätzlich schaden. Wir lehnen auch jede Luftbesprühung aus Flugzeugen mit weißen Chemikalien-Staubwolken ab, um die Sonneneinstrahlung zu reflektieren und die Albedo wieder zu vergrößern. (Vorschlag aus den USA)

Was man gegen heiße Sommertage und gegen die Trockenlegung Deutschlands vorgehen sollte, haben wir hier in 15 Punkten beschrieben.

Aber diese Hilfsmaßnahmen, die tatsächlich helfen würden, würden der CO₂-Treibhaustheorie widersprechen, deshalb entscheidet sich die Politik lieber für die teure CO₂-Bodenverpressung oder CO₂ aus der Luft ausfiltern und andere vollkommen sinnlose und teure CO₂-Reduzierungsmaßnahmen. Unsere Vorschläge im obigen link würden nicht nur helfen, sondern wären zugleich ein Beitrag zum Naturschutz, die Vielfalt der Arten und die Ökologie der Landschaft würde sich verbessern.

Wir brauchen mehr CO₂ in der Atmosphäre

Eine positive Eigenschaft hat die CO₂-Zunahme der Atmosphäre. Es ist das notwendige Wachstums- und Düngemittel aller Pflanzen, mehr CO₂ führt zu einem beschleunigten Wachstum, steigert die Hektarerträge und bekämpft somit den Hunger in der Welt. Ohne Kohlendioxid wäre die Erde kahl wie der Mond. Das Leben auf der Erde braucht Wasser, Sauerstoff, ausreichend Kohlendioxid und eine angenehm milde Temperatur. Der optimale CO₂-gehalt der Atmosphäre liegt etwa bei 800 bis 1000ppm, das sind 0,1%. Das ist auch die Konzentration in den Gewächshäusern für den Gemüseanbau. Nicht nur für das Pflanzenwachstum, also auch für uns eine Art Wohlfühlfaktor. Von dieser Idealkonzentration sind wir derzeit weit entfernt. Das Leben auf der Erde braucht mehr und nicht weniger CO₂ in der Luft. Untersuchungen der NASA bestätigen dies (auch hier) Und vor allem dieser Versuchsbeweis.

Das Leben auf dem Raumschiff Erde ist auf Kohlenstoff aufgebaut und CO₂ ist das gasförmige Transportmittel, um den Wachstumsmotor Kohlenstoff zu transportieren. Wer CO₂ verteufelt und vermindern will, versündigt sich gegen die Schöpfung dieses Planeten.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht das teure Geschäftsmodell Klimaschutz, das keinerlei Klima schützt, sondern über gesteuerte Panik- und Angstmache auf unser Geld zielt. Gegen die Terrorgruppe „letzte Generation“ muss mit allen gesetzlichen Mitteln vorgegangen werden, da die Gruppe keine Natur- und Umweltschützer sind, sondern bezahlte Chaosanstifter. Abzocke ohne Gegenleistung nennt man das Geschäftsmodell, das ähnlich wie das Sündenablassmodell der Kirche im Mittelalter funktioniert. Ausführlich hier beschrieben.

Es wird Zeit, dass endlich Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gestellt werden und nicht das ruinöse Geschäftsmodell Klimaschutz. Letztlich ist unsere demokratische Grundordnung durch dieses Ablasshandelsmodell Klimalüge in höchster Gefahr.

Stefan Kämpfe, unabhängiger Natur- und Klimaforscher

Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher

Matthias Baritz, Naturwissenschaftler und Umweltschützer.

 




Michael Bloombergs 1-Milliarde-Dollar-Angriff auf das Stromnetz

Robert Bryce

Michael Bloomberg kann hier natürlich stellvertretend auch für unsere werte Regierung stehen. A. d. Übers.

Die klimabezogene Philanthropie in Amerika ist von einer radikalen Agenda vereinnahmt worden, die der Bezahlbarkeit, Zuverlässigkeit und Widerstandsfähigkeit des amerikanischen Stromnetzes schaden wird.

Ein weiterer Beweis für diese Vereinnahmung war die Ankündigung des Mega-Milliardärs Michael Bloomberg, dass Bloomberg Philanthropies 500 Millionen Dollar für die Beyond Carbon-Kampagne bereitstellen wird. Ziel dieser Kampagne ist es, den Großteil unserer wichtigsten Kraftwerke abzuschalten – jene, die Kohle und Erdgas verbrennen und daher abschaltbar und wetterbeständig sind – und sie, in Bloombergs Worten, durch „erneuerbare Energien“ zu ersetzen.

In der Ankündigung vom 20. September wird Bloomberg mit den Worten zitiert, dass die 500-Millionen-Dollar-Spende ein „neues Kapitel in der Beyond Carbon-Kampagne darstellt, mit der wir unsere Arbeit zu Ende bringen wollen. Durch die Zusammenarbeit mit unseren Partnern im ganzen Land hoffen wir, die Art und Weise zu verändern, wie wir Amerika mit Energie versorgen, indem wir uns von fossilen Brennstoffen verabschieden und sie durch erneuerbare Energien ersetzen.“ In der Pressemitteilung heißt es weiter, das Ziel sei es, „jedes letzte Kohlekraftwerk in den USA abzuschalten“ und „die Kapazität von Gaskraftwerken zu halbieren und alle neuen Gaskraftwerke zu blockieren“.

Eine radikalere Agenda ist schwer vorstellbar. Die Kohle- und Gaskraftwerke, die Bloomberg und seine Verbündeten in der Anti-Industrie-Industrie abschalten wollen, erzeugten im vergangenen Jahr etwa 40 % des gesamten in den USA verbrauchten Stroms. Hier sind die Zahlen: Im Jahr 2022 belief sich die Stromerzeugung in den USA nach Angaben des Statistical Review of World Energy auf insgesamt 4.550 Terawattstunden (TWh). Etwa 904 TWh stammten aus Kohlekraftwerken, und 1.817 TWh wurden durch die Verbrennung von Erdgas erzeugt. Die Beyond Carbon-Kampagne zielt also darauf ab, bis zum Jahr 2030 etwa 1.813 TWh an abschaltbarer Wärmeerzeugung aus dem US-Stromnetz zu entfernen.

Anders ausgedrückt: Die 1.813 TWh/Jahr Strom, die Bloomberg abschaffen will, entsprechen dem jährlichen Stromverbrauch von neun Bundesstaaten zusammen: Texas, Florida, Kalifornien, Ohio, Pennsylvania, New York, Georgia, North Carolina und Illinois.

Der Zeitpunkt von Bloombergs Ankündigung könnte kaum unpassender sein. Sie erfolgt im Gefolge der wiederholten Warnungen, die in diesem Jahr von Amerikas obersten Regulierungsbehörden, Netzbetreibern und einem Industrieverband ausgesprochen wurden, dass unser Stromnetz zu viel abschaltbare Erzeugungskapazität verliert und zu viel Kapazität hinzufügt, die von den Launen des Wetters abhängig ist. Bloomberg kündigte die 500-Millionen-Dollar-Spende an, kaum einen Monat nachdem die North American Electric Reliability Corporation davor gewarnt hatte, dass eine schlechte Energiepolitik die Zuverlässigkeit des US-Stromnetzes erheblich gefährde. Mehr dazu in Kürze.

Mit der Ankündigung vom 20. September erhöht sich Bloombergs Gesamtfinanzierung der Beyond Carbon-Kampagne auf 1,05 Milliarden Dollar. (Im Jahr 2011 gab er dem Sierra Club 50 Millionen Dollar für seine Beyond Coal-Kampagne. Im Jahr 2019 kündigte er eine Zusage über 500 Millionen Dollar für die Beyond Carbon-Kampagne an.) Der neue Zuschuss in Höhe von 500 Millionen Dollar zeigt einmal mehr, dass die Finanzierung der industriefeindlichen Industrie mit 4,5 Milliarden Dollar pro Jahr die Finanzierung von Nichtregierungsorganisationen und Verbänden, die Kohlenwasserstoffe und Atomenergie fördern, in den Schatten stellt. Außerdem zeigt sie, dass die Anti-Industrie-Industrie jährlich Hunderte von Millionen Dollar von einigen der reichsten Menschen der Welt sammelt, um eine Klimapolitik zu finanzieren, die den Armen und der Mittelklasse regressive Steuern auferlegt und gleichzeitig unser wichtigstes Energienetz, das Stromnetz, schwächt.

Die 500 Millionen Dollar werden laut der Pressemitteilung an einige der reichsten Klima-NGOs des Landes verteilt, darunter die League of Conservation Voters, der Sierra Club, das Rocky Mountain Institute und Earthjustice, die alle ein Betriebsbudget von mehr als 100 Millionen Dollar pro Jahr haben. Andere Gruppen, die Geld von Bloomberg erhalten, sind der Hip Hop Caucus, Advanced Energy United und Coalfield Development, die alle daran arbeiten werden, „die Bemühungen um ein Ende der fossilen Brennstoffe zu beschleunigen und saubere Energien voranzutreiben“.

In der Pressemitteilung wird Ben Jealous, Geschäftsführer des Sierra Club, mit den Worten zitiert: „Wir freuen uns darauf, den Kampf für die Beendigung der fossilen Brennstoffe und den Ausbau sauberer Energie in den USA zu beenden.“ Außerdem wird Abigail Dillen, Präsidentin von Earthjustice, zitiert, die behauptete, dass „der Rückenwind für die Verwirklichung der klimatischen, gesundheitlichen und wirtschaftlichen Vorteile von sauberer Energie noch nie so stark war“.

Die Pressemitteilung enthält keine Definition von „sauberer Energie“ oder „sauberem Strom“. Sie erwähnt auch nicht die Windenergie oder die Solarenergie. Auch die sauberste und sicherste Form der Stromerzeugung, die Kernenergie, wird nicht erwähnt.

Nun zu den Warnungen über die Zuverlässigkeit des Stromnetzes. In den vergangenen fünf Monaten haben hochrangige Regulierungsbehörden und Vertreter der Industrie die politischen Entscheidungsträger wiederholt davor gewarnt, dass das US-Stromnetz am Rande einer Zuverlässigkeitskrise steht. Die sich abzeichnende Krise ist auf genau die Dinge zurückzuführen, die Bloomberg und seine gut betuchten Claqueure fördern: die vorzeitige Stilllegung unserer mit Kohle und Erdgas betriebenen, abschaltbaren Wärmekraftwerke und die massive Ausweitung des Einsatzes von intermittierenden Wind- und Solarenergiequellen.

Im Mai haben Mitglieder der Federal Energy Regulatory Commission (FERC) vor dem Energy and Natural Resources Committee des US-Senats deutliche Warnungen ausgesprochen. Wie ich hier auf Substack berichtet habe, sagte der amtierende Vorsitzende der Behörde Willie Phillips den Senatoren: „Wir stehen vor noch nie dagewesenen Herausforderungen für die Zuverlässigkeit des Stromnetzes unseres Landes.“ FERC-Kommissar Mark Christie schloss sich der Warnung von Phillips an und sagte, das US-Stromnetz steuere „auf eine katastrophale Situation in Bezug auf die Zuverlässigkeit zu“. Kommissar James Danly sprach von einer „drohenden Zuverlässigkeitskrise auf unseren Strommärkten“. Danly fuhr fort, dass die Bundessubventionen, die den Einsatz von nicht disponiblen Wind- und Solarkraftwerken fördern sollen, zu „Zuverlässigkeitsproblemen führen, weil die Subventionen dazu beitragen, dass Erzeuger fossiler Brennstoffe aus dem Geschäft gedrängt werden“.

Am 8. August haben vier der größten regionalen Übertragungsorganisationen des Landes [regional transmission organizations RTO] – der Electric Reliability Council of Texas, Midcontinent Independent System Operator, PJM Interconnection und Southwest Power Pool – eine vernichtende gemeinsame Stellungnahme zu den von der EPA vorgeschlagenen Treibhausgas-Vorschriften für Kraftwerke abgegeben. Die vier RTOs verwalten das große, 154 Millionen Amerikaner versorgende Stromnetz. Ihre Versorgungsgebiete erstrecken sich über etwa zwei Millionen Quadratmeilen. Die RTOs warnten, dass die vorgeschlagene Regelung, die darauf abzielt, die CO₂-Emissionen von Wärmekraftwerken zu senken, die Stromerzeuger lähmen könnte, indem sie sie zwingt, teure, unbewährte Technologien einzusetzen. Die Regelung, so schrieben sie, habe das Potenzial, die „Zuverlässigkeit der Stromversorgung erheblich zu beeinträchtigen“. Sie fuhren fort und stellten Folgendes bzgl. der EPA-Regel fest:

Die vorgeschlagene Regelung könnte den beunruhigenden Trend und das wachsende Risiko verschärfen, dass die Geschwindigkeit der Stilllegung von Erzeugungsanlagen mit Eigenschaften, die für die Netzzuverlässigkeit erforderlich sind, die Kommerzialisierung neuer Ressourcen, die in der Lage sind, diese Zuverlässigkeitsattribute zu liefern, schnell übersteigt … Obwohl jede Region daran arbeitet, eine beträchtliche Zunahme der Erzeugung aus erneuerbaren Energiequellen zu ermöglichen, könnten die Herausforderungen und Risiken für die Netzzuverlässigkeit, die mit einer abnehmenden Menge an einsatzfähiger Erzeugungskapazität verbunden sind, durch die Verabschiedung der vorgeschlagenen Regelung erheblich verschärft werden … Da die Durchdringung mit erneuerbaren Energiequellen weiter zunimmt, wird sich das Netz noch mehr auf die Erzeugung verlassen müssen, die in der Lage ist, kritische Zuverlässigkeitsattribute zu liefern. Mit der fortgesetzten und möglicherweise beschleunigten Stilllegung von abschaltbaren Erzeugungsanlagen wird das Angebot an diesen Zuverlässigkeitsmerkmalen auf ein besorgniserregendes Niveau sinken.

Wie in der obigen Grafik zu sehen ist, bezeichnete die North American Electric Reliability Corporation am 27. August den „sich ändernden Ressourcenmix“ als wichtigstes Risiko für die Zuverlässigkeit des Stromnetzes. Und zum ersten Mal nannte sie die Klimapolitik als einen der wichtigsten Risikofaktoren. Mit dem jüngsten Netzumbau wird der Ressourcenmix „zunehmend zu einem Mix, der empfindlich auf extreme, weit verbreitete und lang anhaltende Temperaturen sowie auf Wind- und Solardürren reagiert“, heißt es in der Mitteilung. Und weiter heißt es:

Die Umsetzung politischer Entscheidungen kann die Zuverlässigkeit und Widerstandsfähigkeit des Massenstromsystems erheblich beeinflussen. Dekarbonisierung, Dezentralisierung und Elektrifizierung sind aktive Politikbereiche. Die Umsetzung politischer Maßnahmen in diesen Bereichen beschleunigt sich, und mit Veränderungen im Ressourcenmix, extremen Wetterereignissen und Herausforderungen im Bereich der physischen und der Cybersicherheit zeichnen sich Auswirkungen auf die Zuverlässigkeit ab.

Am 12. September veröffentlichte America’s Power, ein Wirtschaftsverband, der die Betreiber von Kohlekraftwerken vertritt, einen von Energy Ventures Analysis erstellten Bericht, aus dem hervorgeht, dass Kohle- und Gaskraftwerke während der brutalen Hitzewelle im vergangenen August entscheidend dazu beigetragen haben, die Klimaanlagen am Laufen zu halten. Der Bericht untersuchte SPP, MISO und ERCOT, die alle in hohem Maße auf Wärmekraftwerke angewiesen waren. So wurde beispielsweise festgestellt, dass in SPP die Stromerzeugung aus Kohle und Erdgas während der Hitzewelle um 35 % bzw. 40 % zunahm, während die Winderzeugung um 21 % zurückging. Die Schlussfolgerung des Berichts:

Die Hitzewelle im August, von der die ISOs ERCOT, MISO und SPP betroffen waren, unterstreicht die wiederkehrende Abhängigkeit von der zusätzlichen fossilen Stromerzeugung zur Deckung des Spitzenstrombedarfs bei extremen Wetterereignissen, da diese einsatzbereit und unabhängig vom Wetter ist (d. h. von den Windgeschwindigkeiten oder der Sonneneinstrahlung). Angesichts der Herausforderungen, die sich aus der geringeren Zuverlässigkeit erneuerbarer Energiequellen wie Wind und Sonne bei extremen Wetterereignissen ergeben, ist die Widerstandsfähigkeit des US-Stromnetzes bei solchen Ereignissen unbestreitbar auf den nachhaltigen Beitrag von Kohle- und Erdgaskraftwerken angewiesen.

Acht Tage nach der Veröffentlichung dieses Berichts kündigte Bloomberg seinen 500 Millionen Dollar teuren Plan an, genau die Kohle- und Gaskraftwerke abzuschalten, die während der glühend heißen Tage im August dazu beigetragen hatten, Stromausfälle abzuwenden.

Natürlich kann Bloomberg sein riesiges Vermögen ausgeben, wie er will. Laut Forbes ist er mit einem Vermögen von 96,3 Milliarden Dollar der elftreichste Mensch der Welt. (Bloomberg.com führt Michael Bloomberg nicht in seiner Rangliste der reichsten Menschen der Welt auf.) Und der ehemalige Bürgermeister von New York City lebt nicht gerade bescheiden. Wie ich im März auf diesen Seiten schrieb, besitzt Bloomberg etwa ein Dutzend Häuser. Er ist auch einer der größten Nutzer von Privatjets. Ich habe das erklärt:

Nach Angaben von ClimateJets.org nutzte Bloomberg oder mit ihm verbundene Personen fünf Flugzeuge, die im Jahr 2022 rund 3197 Tonnen CO₂ ausstießen. Mit dieser Zahl liegt Bloomberg unter den Top 10 aller Privatjetbesitzer, was die Emissionen angeht. Zum Vergleich: Der durchschnittliche Amerikaner ist für etwa 16 Tonnen CO₂-Emissionen pro Jahr verantwortlich. Mit anderen Worten: Bloombergs Jet-Flotte stößt pro Jahr etwa 200 Mal mehr CO₂ aus als der Durchschnittsamerikaner.

Zur Erinnerung: Bei der Ankündigung seines 500-Millionen-Dollar-Zuschusses für Beyond Carbon behauptete Bloomberg, er wolle die fossilen Brennstoffe „hinter sich lassen“ und sie durch erneuerbare Energien ersetzen. Im vergangenen Jahr flogen Bloomberg oder Personen, die mit ihm in Verbindung stehen, in seinen Privatjets nach New York, New Jersey, Florida, auf die Bahamas, nach UK, in die Niederlande, auf die Bermudas, in die Schweiz, nach Frankreich, Costa Rica, Brasilien, Israel, Katar und in die Vereinigten Arabischen Emirate. Für all diese Flüge wurden etwa 328.000 Gallonen Kerosin verbraucht. Zum Vergleich: Das ist etwa 670 Mal mehr als die Menge an Benzin, die ein durchschnittlicher amerikanischer Autofahrer in einem Jahr verbraucht.

Denken Sie auch daran, dass Bloomberg im Jahr 2021 sagte: „Wir befinden uns in einem Wettlauf, um die Erde vor dem Klimawandel zu retten“. Es ist unklar, auf wen sich Bloomberg bezog, als er das königliche „wir“ benutzte, aber angesichts seiner Vorliebe für weit entfernte Häuser und Privatjets scheint es, dass der Medienmogul und Beinahe-Zentimilliardär in Bezug auf den Verbrauch von Kohlenwasserstoffen dem Rest von uns sehr ähnlich ist.

Diese Haltung erinnert mich an den heiligen Augustinus, der bekanntlich betete: „Oh Herr, hilf mir, rein zu sein, aber jetzt noch nicht.“

This piece originally appeared at Robertbryce.substack.com and has been republished here with permission.

Link: https://cornwallalliance.org/2024/01/michael-bloombergs-1-billion-assault-on-the-electric-grid/

Übersetzt von Christian Freuer für das EIKE