Gehen Sie lieber noch mal einkaufen. Wir befinden uns im Übergang zur Dritten Welt

von Jo Nova

Australien ist zu arm, um an einem warmen Tag Klimaanlagen und Geschirrspüler zu benutzen

Willkommen in Bananaaustralia.

Der Premierminister von New South Wales sprach Warnungen wegen der Stromrechnung aus, um Aufmerksamkeit zu erregen:

„Wenn Sie heute Nachmittag Strom verbrauchen, werden Sie im Hinblick auf die Kosten erschlagen; die Summe (für den Betrieb der Geräte) wird heute Nachmittag durch die Decke gehen“.

Die Ministerin von New South Wales, Penny Sharpe, forderte acht Millionen Menschen auf, zwischen 15 und 20 Uhr keine Spülmaschinen oder Poolpumpen zu benutzen, Türen und Jalousien zu schließen und die Klimaanlage auf eine höhere Innentemperatur zu stellen.

„Sorgen Sie für ausreichende Flüssigkeitszufuhr und vermeiden Sie es, in den heißeren Tageszeiten nach Möglichkeit nach draußen zu gehen“, so spricht man mit Vierjährigen.

In ganz New South Wales und in Canberra verbrachten die Menschen den Tag damit, nicht unbedingt notwendige Lichter und Geräte auszuschalten und ihre Pläne umzustellen. Beamte wurden gebeten, die Jalousien herunterzulassen und Computer bei der Arbeit auszuschalten. Die vier Wasserversorger: Staudämme und Wasserwirtschaft, wurden ebenfalls um Hilfe gebeten. Außerdem wurde die Bedingung des Reliability and Emergency Reserve Trader (RERT) eingeführt, was bedeutet, dass einige Unternehmen dafür bezahlt wurden, weniger Strom zu verbrauchen. Vermutlich musste die Schmelzhütte von Tomago auf Elektronendiät gehen – da sie 10 % des gesamten Stroms des Staates verbraucht. Aber wer braucht schon Aluminium, oder?

Daher versuchte der größte Teil des Staates, im Halbdunkel etwas Nützliches zu tun, damit er den Rest des Staates dafür bezahlen konnte, nichts zu tun.

Aber das ist ok, denn bis 15 Uhr konntest du machen, was du wolltest?

Vor 15 Uhr sollte Energie wie gewohnt verbraucht werden, da die Solarmodule auf den Dächern einen Großteil des Staates mit Strom versorgen. Während der Spitzenzeit zwischen 15 und 20 Uhr macht jeder kleine Schritt zur Reduzierung der Nachfrage einen Unterschied.

Sie können Ihre Produktivität stoppen.

Das menschliche Gehirn ist das komplexeste bekannte Ding im Universum, und diese Woche wurden Millionen dieser biologischen Kraftwerke von dem abgelenkt, was sie am besten können. Die Komplexität des Lebens in einer Welt der grünen Hexerei zu verstehen, die versucht, das Wetter im nächsten Jahrhundert perfekt zu machen. Der Produktivitätsverlust mag diesmal gering gewesen sein, aber der langfristige Trend ist ein Zusammenbruch in Zeitlupe. Je mehr wetterabhängige Generatoren wir haben, desto mehr Zeit verschwenden wir damit, über Elektrizität nachzudenken. Sollen wir erst gegen 22 Uhr Abendessen kochen? Die Kinder werden hungrig sein.

Trotzdem kam es zu Killer-Strompreisen – 17.500 Dollar pro MWh für eine ganze Stunde

All diese Bemühungen verhinderten die Stromausfälle, aber den Raub unseres Geldes konnten sie nicht verhindern. Die Großhandelspreise für Strom erreichten am Dienstag und Mittwoch eine Höchstgrenze.

Trotz all der Solarenergie, in der die Australier schwimmen, begann das Preisfeuer um 14:30 Uhr und dauerte eine ganze Stunde lang. Auch wenn viele Preise auf dem Großhandelsmarkt abgesichert sind, steht diese Rechteckwelle in einem 11-Gigawatt-Netz für ein Preissignal von 200 Millionen Dollar. Die Leute, die Terminkontrakte für das nächste Jahr abschließen, haben die Botschaft verstanden, dass sie ihre Terminkontrakte erhöhen müssen. Die Preisspitzen, die wir heute sehen, werden sich bald in unseren Stromrechnungen niederschlagen.

AEMO (Aktuelle Strompreise in den angeschlossenen Bundesstaaten)

Wie bitte? Sie waren überrascht, dass es im November in Sydney 38 Grad erreichte?

Der Sommer kam früh, sagen alle, die nach einem Schuldigen suchen. Am Mittwoch erreichte die Temperatur am Flughafen von Sydney 38 °C . Vor knapp fünf Jahren, im Jahr 2019, gab es im November neun Tage mit Temperaturen über 30 °C. 30 Prozent des gesamten Monats lagen über 30 °C.

Im November 2006 wurden am Flughafen von Sydney 40 ° C erreicht. In diesem Monat gab es sechs Tage mit über 30 °C. Irgendwie blieben die Lichter dank Kohlekraft an, obwohl es kaum erneuerbare Energien und überhaupt keine Batterien gab. Paul McArdle stellte damals fest, dass das gesamte nationale Stromnetz während der 40 °C-Hitze 29 GW Strom verbrauchte, aber 6 GW Strom in Reserve und einsatzbereit waren. Als Strom billig war und sich niemand hinter die Jalousien schließen oder nach 21 Uhr Abendessen kochen musste, hatte das Kohlekraftwerk eine Reserve von 21 %.

Wenn die erneuerbaren Energien versagen, müssen wir mehr erneuerbare Energien einsetzen:

Experten sind sich uneinig über Energieprobleme des Staates nach Angst vor Stromausfällen

Von Alex Dimitriadi und Robert White, The Australian

Herr Bowen machte Kohlekraftwerke für die Volatilität im Stromnetz verantwortlich und sagte am Donnerstag, dass diese die „größte Bedrohung“ des Landes seien. Damit machte er Werbung für den Plan der Labour-Regierung in ihrer zweiten Amtszeit, erneuerbare Energien zu bevorzugen und dabei auf Gas zu setzen.

„Der unzuverlässigste Teil unseres Energienetzes ist die Kohleverstromung“, sagte er. „In den letzten 18 Monaten gab es keinen Tag, an dem es nicht zu einer Störung in einem Kohlekraftwerk kam.“

Jemand muss unserem Energieminister sagen, dass es in den letzten 18 Monaten keinen Tag gab, an dem die Kohlekraftwerke ausgefallen waren, sondern es war die Solarenergie die ausgefallen war.

Es gab keinen einzigen Tag, an dem wir den Wind auf Befehl um 18 Uhr wehen lassen konnten, wie wir es jeden Tag mit Brennstoff tun.

Es gab keinen einzigen Tag, an dem die Strompreise für Endverbraucher günstig waren.

„Der australische Energiemarktbetreiber sagte mir, dass Batterien unerlässlich seien, um NSW gestern durchzubringen.“

https://anero.id/energy/2024/november/27#google_vignette

Was die AEMO Ihnen hätte zeigen sollen, war obiges Diagramm.

Wo sind die Batterien? Nicht sichtbar. Was das Licht anhielt: Steinkohle, Braunkohle, und als die Solarenergie aufgrund der aufziehenden Wolken ausfiel, kam Erdgas zur Rettung.

Der Energieversorger will voraussichtlich langfristige Reserven sichern, um weitere Warnungen vor Stromausfall zu verhindern

Offenbar waren die Leute bei der AEMO diese Woche in großer Aufregung, denn sie beeilen sich, neue Reserveverträge zu unterzeichnen .

Es wird erwartet, dass der australische Energiemarktbetreiber in Kürze neuen Verträgen zustimmt, die der Agentur nach ihrer Vereinbarung zusätzliche Kapazitäten vor einer kritischen Sommerperiode verschaffen werden.

Die Verträge, die innerhalb weniger Tage unterzeichnet werden könnten, kommen zu einem Zeitpunkt zustande, an dem sich die Behörden auf einen Sommer mit einer sprunghaft ansteigenden Nachfrage nach Elektrizität vorbereiten. Aber die Branche bleibt besorgt, nach dem brenzligen Mittwoch in New South Wales, als das Stromnetz Mühe hatte, die Nachfrage zu decken.

— Colin Packham, The Australian

Warum haben die das nicht kommen sehen?

https://joannenova.com.au/2024/11/pull-down-the-blinds-were-in-a-transition-to-the-third-world/




Noch weitere Anhaltspunkte für vorsichtigen Optimismus bzgl. des Endes der grünen Energie-Phantasterei

Francis Menton, MANHATTAN CONTRARIAN

In meinem vorigen Beitrag [in deutscher Übersetzung hier] habe ich auf einen wichtigen Grund für den Optimismus hingewiesen, dass sich die grüne Energie-Phantasterei dem Ende zuneigt: Das erste Land, Deutschland, hat offenbar begonnen, gegen die grüne Energie-„Wand“ zu stoßen. Obwohl Deutschland nie auch nur 50 % seiner Stromerzeugung aus Wind- und Sonnenenergie erreicht hat, ist seine Fähigkeit, seine grünen Energieträume fortzusetzen, ins Stocken geraten: Die Strompreise sind in die Höhe geschnellt, das verarbeitende Gewerbe wurde ernsthaft geschwächt, die Wirtschaft befindet sich in der Rezession, und vor kurzem ist die Regierung gestürzt, welche die grüne Energie propagiert. Das gescheiterte Beispiel dieses Landes steht nun für andere zur Nachahmung und zur Vermeidung.

[Hervorhebungen vom Übersetzer. Wann werden unsere werten Medien diesen Tatsachen Rechnung tragen?]

Und wenn ich mir die Entwicklungen seit der Wahl [in den USA] anschaue, sehe ich eine Reihe anderer Gründe, die meinen vorsichtigen Optimismus bestärken. Vielleicht liegt es daran, dass sich das politische Umfeld verändert hat, vielleicht aber auch daran, dass einige Menschen zu erkennen beginnen, dass man die Gesetze der Physik nicht überlisten kann; und vielleicht ist es auch beides. Hier einige Beispiele:

Banken und Investmenthäuser verlassen „Netto-Null-Allianzen“

In einem Beitrag vom Sonnabend fragte William Bell: „Wer genau hindert die Bewohner der Dritten Welt daran, Holz, Holzkohle, Kohle, Erdölderivate und/oder Erdgas als Brennstoff zu verwenden und mit welchen Mitteln?“ Offensichtlich sind Herrn Bell und vielleicht auch vielen anderen die vielen „Allianzen“ von Banken und Investoren nicht bekannt, die versuchen, fossile Brennstoffe mit Investitionskapital auszuhungern und so die Länder der Dritten Welt (und alle anderen) daran zu hindern, sie weiterhin zu nutzen. Die meisten dieser Gruppen werden in irgendeiner Weise von der UNO geleitet und beaufsichtigt. Beispiele für diese Gruppen sind die Net Zero Banking Alliance („Bank-led, UN-convened“), die Net Zero Asset Managers Initiative und Climate Action 100+. Ich bin sicher, dass ich sie nicht alle aufgezählt habe. Die Mitglieder sind oder waren ein „Who’s who“ der größten Banken und Investmentfirmen der Welt.

The Center Square berichtet am 20. Dezember, dass zwei ziemlich bedeutende Banken, Goldman Sachs und Wells Fargo, gerade aus der NZBA ausgetreten sind:

Nicht lange nach den Parlamentswahlen und innerhalb von zwei Wochen haben zwei große Finanzinstitute die Net Zero Banking Alliance (NZBA) der Vereinten Nationen verlassen. Dies, nachdem sie vor drei Jahren beigetreten waren und sich verpflichtet hatten, für ihre Plattformen, Produkte und Systeme ESG-Standards (Environmental Social Governance) zu fordern.

Justizausschuss des Repräsentantenhauses veröffentlicht Bericht, in dem große Vermögensverwalter beschuldigt werden, ein „Klimakartell“ zu betreiben

Am 13. Dezember veröffentlichte der Justizausschuss des Repräsentantenhauses einen Bericht mit dem Titel „Sustainability Shakedown: How a Climate Cartel of Money Managers Colluded to Take Over the Board of America’s Largest Energy Company“ [etwa: Erpressung in Sachen Nachhaltigkeit: Wie ein Klimakartell von Geldmanagern zusammenarbeitete, um den Vorstand von Amerikas größtem Energieunternehmen zu übernehmen]. Der Bericht dokumentiert den Prozess, durch den das Bündnis Climate Action 100+, „ermutigt“ durch die Ermutigung der Biden/Harris- Regierung, die Ersetzung von drei Vorstandsmitgliedern von Exxon im Mai 2021 orchestrierte. Die geheimen Absprachen der größten Investmentfirmen und deren Bevollmächtigter werden als „Kartell“ beschrieben, das eindeutig gegen die Kartellgesetze verstößt.

Staatsanwälte roter Bundesstaaten* verklagen Investmentfirmen wegen Kartellrechtsverstößen, weil sie sich in „Klimafragen“ abgesprochen haben

[*rot = von den Republikanern regierte US-Staaten]

Vielleicht ist es Zufall, aber kurz vor der Veröffentlichung des Berichts des Justizausschusses wurde am 27. November von elf Staatsanwälten roter Bundesstaaten unter der Leitung von Ken Paxton aus Texas eine Kartellklage eingereicht, in der den Akteuren der Investmentbranche ein abgestimmtes Verhalten bei der Durchsetzung von „Klima“- und anderen „ESG“-Zielen vorgeworfen wird. Zu den Angeklagten gehören die drei größten Vermögensverwalter, Vanguard, BlackRock und State Street. Aus Bloomberg Law, 27. November:

BlackRock Inc., Vanguard Group Inc. und State Street Corp. wurden von einer Gruppe von Bundesstaaten unter der Führung von Texas verklagt, weil sie angeblich gegen das Kartellrecht verstoßen haben, indem sie durch ihre Investitionen die Strompreise in die Höhe getrieben haben. Dies ist die bisher aufsehenerregendste Klage gegen die angeschlagene ESG-Branche. Der texanische Generalstaatsanwalt Ken Paxton und 10 weitere Staaten behaupten, dass die Geldmanager im Rahmen ihrer grünen Agenda ihre Marktmacht und ihre Mitgliedschaft in Klimagruppen kombiniert haben, um die Kohleproduzenten unter Druck zu setzen, ihre Produktion zu drosseln.

TotalEnergies unterbricht [die Errichtung eines] großen Windparks in den Gewässern vor New York und New Jersey

Ebenfalls am 27. November gab der französische Energieriese TotalEnergies bekannt, dass er sein großes Offshore-Windprojekt Attentive Energy im Atlantik vor New York und New Jersey „auf Eis legt“. In seiner Ankündigung der „Pause“ führte der Vorstandsvorsitzende von TotalEnergies die Maßnahme ausdrücklich auf die zu erwartende Politik der neuen Trump-Regierung zurück. Aus Offshore, 27. November:

TotalEnergies hat Berichten zufolge die Entwicklung des Windparks Attentive Energy, den es vor der Küste von New York und New Jersey bauen wollte, pausiert, sagte CEO Patrick Pouyanne am Dienstag auf einer Konferenz der Energiebranche in London. „Ich habe beschlossen, das Projekt auf Eis zu legen“, sagte Patrick Pouyanne, CEO von TotalEnergies, laut Berichten von Bloomberg und Reuters auf dem Energy Intelligence Forum. Die Entscheidung ist eines der ersten greifbaren Anzeichen für einen Investitionsstopp in erneuerbare Energiequellen aufgrund der zu erwartenden Politik der neuen Trump-Regierung. Trump hat versprochen, die Entwicklung der Offshore-Windenergie „am ersten Tag“ seiner nächsten Amtszeit ab Januar 2025 zu stoppen.

Die neue Trump- Regierung ist noch fast einen Monat von ihrem Amtsantritt entfernt, aber schon jetzt hat die Hoffnung auf ihre Ankunft den positiven Effekt, dass einige der Parasiten in ihr Versteck getrieben werden.

Es gibt noch viele weitere solche positiven Entwicklungen da draußen. Ich werde sehen, ob ich bis zum Jahresende noch ein paar mehr zusammenstellen kann. In der Zwischenzeit bin ich so hoffnungsvoll wie nie zuvor, dass der Grüne-Energie-Wahnsinn nachlässt.

Link: https://wattsupwiththat.com/2024/12/25/more-reasons-for-cautious-optimism-about-the-demise-of-the-green-energy-fantasy/

Übersetzt von Christian Freuer für das EIKE

 




Was sie schon immer über das Klima wissen wollten

«Deutschland ist das dümmste Land in der Klimadebatte»: Wissenschafts-Journalist Axel Bojanowski über Forschung, Fakten, Fa«Deutschland ist das dümmste Land in der Klimadebatte»: Wissenschafts-Journalist Axel Bojanowski über Forschung, Fakten, Fake News.

Wissenschafts-Journalist Bojanowski: «Deutschland ist das dümmste Land in der Klimadebatte»




Wissenschafts-Schock: Mehrere neue Studie belegen, dass CO₂ das Beste für den Planeten ist!

Chris Morrison, THE DAILY SCEPTIChrer

In einer Reihe neuerer wissenschaftlicher Arbeiten wurden eindeutige Beweise dafür veröffentlicht, dass der Kohlendioxidgehalt bereits „gesättigt“ ist, was bedeutet, dass nur eine geringe oder gar keine weitere Erwärmung zu erwarten ist und steigende CO₂-Werte nur von Vorteil sind.

Die Hälfte der menschlichen Emissionen, so die Wissenschaftler, wird schnell in die Biosphäre zurückgedrängt und verursacht dort ein starkes, den Hunger bekämpfendes Pflanzenwachstum, während der Rest in eine „gesättigte“ Atmosphäre gelangt und nur minimale Auswirkungen auf die globalen Temperaturen hat. Eine der Studien, welche die Beteiligung des Menschen am Anstieg des CO₂ akzeptiert, wurde von der CO₂ Coalition veröffentlicht, die feststellt: „We like CO₂, so should you!“ [wir mögen CO₂, und das sollten Sie auch!]

Über keine dieser Arbeiten wird im Mainstream berichtet werden, da sie die „gefestigte“ Darstellung der Klimawissenschaft stören, die mit der politischen Netto-Null-Phantasterei verbunden ist. Aber die Meinung, dass der Mensch den Klimathermostat durch die Freisetzung von CO₂ steuert, was zu ausufernden Temperaturen führt, gehört zu einer dunklen Periode in der Wissenschaft, wurde diese doch zur Förderung politischer Ziele gekapert. In skeptischen Klimakreisen wird jedoch weiter daran gearbeitet zu verstehen, wie sich eine Reihe von Gasen mit wärmenden Eigenschaften in einer chaotischen, nichtlinearen Atmosphäre verhalten. In zwei kürzlich veröffentlichten Studien wurde festgestellt, dass eine Verdoppelung des CO₂-Gehalts in der Atmosphäre nur zu einem minimalen Temperaturanstieg führt. Die berechneten Werte liegen im Bereich der Fehlermarge und stellen nach den bisherigen Beobachtungen keine Bedrohung für das Klima auf der Erde dar. Sie zerschlagen auch das wackelige wissenschaftliche Fundament, auf dem Net Zero ruht.

Acht taiwanesische Wissenschaftler unter der Leitung von Professor Peng-Sheng Wei kamen zu dem Ergebnis, dass die Empfindlichkeit des Klimas gegenüber einem Anstieg der CO₂-Konzentration in der Atmosphäre von 100 auf 400 Teile pro Million (ppm) mit 0,3°C vernachlässigbar gering“ ist. Die Studie ist komplex und untersucht den Wärmetransfer in Abhängigkeit von Länge, Breite und Höhe „sowie die diffuse Strahlung, die durch Absorptionsbanden auf der Grundlage von Wellenlänge, Temperatur und der Konzentration oder dem Druck von Kohlendioxiddampf bestimmt wird“. Was die Wissenschaftler hier betrachten, sind die schmalen Absorptionsbanden innerhalb des Infrarotspektrums (IR), die es den „Treibhausgasen“ ermöglichen, Wärme zu speichern und den Planeten zu erwärmen. Viele argumentieren, dass die Gase ab einem bestimmten Niveau „gesättigt“ sind und den größten Teil ihrer wärmenden Eigenschaften verlieren. Eine einfache Möglichkeit, dies zu verstehen, ist die Beobachtung, dass die Verdoppelung der Isolierung eines Dachbodens nicht doppelt so viel Wärme einschließt. Die Sättigungshypothese scheint zu erklären, warum der CO₂-Gehalt in der Vergangenheit 10-15 Mal höher war, ohne dass die Temperaturen in die Höhe schossen, während die Meinung von der anthropogenen Erwärmung kaum mehr als ein wissenschaftlicher Deckmantel für eine fragwürdige, aber modische extreme Öko-Angst ist.

Der IPCC gibt die Klimasensitivität bei einer Verdopplung des CO₂-Gehalts mit etwa 3°C an. Viele Klimamodelle heizen jedoch die öffentliche Hysterie an, indem sie „Pfade“ mit viel höheren und höchst unwahrscheinlichen Schätzungen verwenden. Letztere bilden die Grundlage zahlreicher „Wissenschaftler sagen“-Geschichten, die von den nichts hinterfragenden Mainstream-Medien nachgeplappert werden. Die taiwanesischen Wissenschaftler fanden heraus, dass eine Erwärmung der Bodentemperatur um 0,3 °C mit dem Anstieg von 100 ppm auf 350 ppm verbunden war und dass es bei einem weiteren Anstieg des CO₂-Gehalts von 350 ppm auf 400 ppm überhaupt keine zusätzliche Erwärmung gab. Der derzeitige CO₂-Gehalt in der Atmosphäre beträgt 420 ppm.

Sieben österreichische Wissenschaftler haben sich kürzlich ebenfalls mit CO₂ und dem Infrarotspektrum beschäftigt und festgestellt, dass eine künftige Verdoppelung des Gases auf 800 ppm „keine Zunahme der IR-Absorption für den 15 u-zentralen Peak“ zeigt. Daraus wird gefolgert, dass dies zu einer Erwärmung von höchstens 0,5 °C führen kann. Die Wissenschaftler argumentieren, dass Klimamodelle und ihre CO₂-Einflüsse überarbeitet werden sollten. Es sollten viel mehr experimentelle Beweise über die IR-Strahlung gesammelt werden, „bevor man die derzeitigen Erwärmungstrends und die Prozesse des Klimawandels monokausal auf die Theorien über Treibhausgase zurückführt“.

Die jüngsten Studien zur CO₂-Sättigung sind nicht die einzigen, die in letzter Zeit veröffentlicht wurden. Anfang dieses Jahres legte eine Gruppe polnischer Wissenschaftler unter der Leitung von Dr. Jan Kubicki drei Studien vor, in denen sie argumentierten, dass oberhalb von 400 ppm „die CO₂-Konzentration keinen Temperaturanstieg mehr verursachen kann“. Im Jahr 2023 erklärten drei Wissenschaftler, darunter der Atmosphären-Professor Yi Huang von der McGill University, dass: „die Transmission im CO₂-Bandzentrum durch erhöhtes CO₂ nicht verändert wird, da die Absorption bereits gesättigt ist.“ In Chen et al. 2023 wird berichtet, dass der Erwärmungseffekt von CO₂ im Vergleich zu vorindustriellen Konzentrationen stark reduziert ist. Es wurde auch festgestellt, dass sich die Einflüsse von Wasserdampf und Wolken überschneiden und somit die Absorption im CO₂-IR-Band dominieren. Im Jahr 2022 legte der deutsche Physikprofessor Dieter Schildnecht die CO₂-Sättigungsgrenze auf nur 300 ppm fest.

Die CO₂ Coalition ist eine Bildungsstiftung, die nach eigenen Angaben Fakten, Ressourcen und Informationen über die „entscheidende Rolle“ von CO₂ in der Umwelt bereitstellt. Kürzlich veröffentlichte sie eine ausführliche Studie, in der angenommen wird, dass der Mensch den größten Teil des CO₂ verursacht hat, das im Laufe der Industrialisierung in die Atmosphäre gelangt ist. Die Studie trägt den Untertitel [übersetzt]: „Wie menschliche Emissionen das lebenswichtige atmosphärische CO₂ wiederherstellen.“ Die CO₂ Coalition setzt sich seit langem für die Rolle ein, welche die Sättigung bei der Abschwächung der Wirkung einer Reihe von Gasen mit wärmenden Eigenschaften spielt. In ihrer Arbeit wird häufig auf die Rolle des Wasserdampfes hingewiesen, der zu etwa 4 % in der Atmosphäre enthalten ist und bis zu 80 % zur lebenswichtigen Erwärmung der Erde beiträgt. Wasserdampf sättigt große Teile des IR-Spektrums und reduziert die Wirkung anderer Gase in ihren eigenen spezifischen Spektralbereichen. Dem Vorstand der CO₂ Coalition gehört der angesehene Professor William Happer an, der seit langem die Vorzüge der Sättigungshypothese vertritt, und vor kurzem wurde er durch den Physik-Nobelpreisträger von 2022 Dr. John Clauser ergänzt.

Die CO₂-Werte waren in der Vergangenheit viel höher, und es gibt Beweise für eine rege Tier- und Pflanzenwelt. Viele Pflanzen haben sich so entwickelt, dass sie bei höheren Werten als den heutigen gedeihen können. In ihrer kürzlich veröffentlichten Studie stellt die Koalition fest, dass je höher der CO₂-Gehalt in der Atmosphäre ist, desto größer ist der Druck durch physikalische Prozesse, CO₂ in die Ozeane zu bringen und die Vegetation zu fördern.

Dafür gibt es zahlreiche Belege, auch wenn die jüngste erhebliche „Ökologisierung“ des Planeten den Lesern der Mainstream-Medien weitgehend verborgen bleibt. In der Tat ernährt die neue „grüne Revolution“ die Welt. Die Autoren einer aktuellen wissenschaftlichen Studie, Charles Taylor und Wolfram Schlenker, stellen fest: „Wir stellen durchweg einen großen Düngeeffekt fest; ein Anstieg von 1 ppm CO₂ entspricht einer Ertragssteigerung von 0,4 %, 0,6 % bzw. 1 % bei Mais, Sojabohnen und Weizen.“ Die starke Begrünung der Erde zeigt sich in einer Karte, die zuerst in Donohue/CSIRO 2015 veröffentlicht wurde und in einer weiteren aktuellen Studie der CO₂-Coalition wiederveröffentlicht wurde. Darin wurde der Nährwert von Pflanzen untersucht, die unter erhöhten CO₂-Konzentrationen wachsen:

Die Karte wurde anhand von Satellitendaten bzgl. des Laubs erstellt und zeigt, dass die Ergrünung zwischen 1982 und 2012 in Indien, Westaustralien, der Sahelzone und dem anatolischen Hochland um 20-30 % zunahm. Eine neuere Studie von Chen et al. 2024 ergab, dass sich die Ergrünung in den letzten zwei Jahrzehnten sogar beschleunigt hat. Der Anstieg des CO₂-Gehalts erwies sich als Hauptursache für den positiven Trend des Blattflächenindex‘ auf dem größten Teil der globalen Landoberfläche.

Chris Morrison is the Daily Sceptic’s Environment Editor.

Link: https://wattsupwiththat.com/2024/12/24/science-shock-CO₂-is-good-for-the-planet-peer-reviewed-studies-suggest/

Übersetzt von Christian Freuer für das EIKE

 




Generisches Statement zum Stand der Klimaforschung in Hinblick auf die Belastbarkeit der CO2-Modellierungsvorhersagen und der daraus gezogenen wissenschaftlichen und politischen Schlussfolgerungen[1]“

Dr. rer nat Philipp Lengsfeld, re:look climate gGmbH

Dipl-Ing Michael Limburg, EIKE

Hauptproblem: Die wissenschaftliche Begründung für die Forderung nach Dekarbonisierung – CO2-These basiert nur auf Modellierungen und ist als Haupterklärung vermutlich falsch

Die wissenschaftliche Großkontroverse „Klima“ fängt schon bei der Bezeichnung an: Durch die Bezeichnung als „menschgemachter Klimawandel“ (anthropogenic global warming, AGW) wird die hier in Rede stehende CO2-Hypothese schon inhaltlich vorgeprägt. Eigentlich müsste sie gemäß des wissenschaftlichen Kerns im Deutschen korrekterweise „Durch von Menschen eingebrachte zusätzliche Treibhausgase verursachte zusätzliche Erderwärmung“ heißen – zur wissenschaftlich-argumentativen Vereinfachung benutzen wir in diesem Papier den Terminus CO2-Erdwärmungs-These.

Die CO2-Erdwärmungs-These ist ein rein Modell-basiertes Konstrukt. Die Modelle fußen auf Annahmen, die im Kern von den komplizierten, mindestens 18 Grob-Prozessen, die an einem Energiegleichgewicht der Atmosphäre beteiligt sind und die alle mit und untereinander in Wechselwirkung stehen, überdies in Zeitskalen von wenigen Tagen bis > 100.000 Jahren (im Anhang befindet sich in Abb. 1 eine Übersicht), nur einen einzigen, nämlich die atmosphärische Zusammensetzung und darin wieder den CO2 Anteil[2] als Hauptmechanismus (Treibhausgas-Annahme) voraussetzen, der dann in den komplexen mathematischen Klimamodellen zu Erwärmungsszenarien gerechnet wird.

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. Automatisch generierte Beschreibung

Abb. 1: Qualitative Darstellen der Hauptprozesse der atmosphärischen Energiebilanz nach W.Soon

Alle momentanen Modelle leiden aus unserer Sicht an dieser fundamentalen Schwäche: Der angenommene zentrale Einfluss des CO2 geht als Hauptmechanismus in die Modellierung ein und damit wird über die Annahme der Modellierung schon deren Ergebnis vorweggenommen. Das ist ein Zirkelschluss.

Und das auch unabhängig von der Frage, ob der zu Grunde liegenden Mechanismus „Treibhaus-Effekt“ und dessen abgeleitete Konsequenz „Zunahme des Treibhaus-Effekts bei Zunahme der Treibhausgaskonzentration“ im Kern korrekt ist oder nicht. Wir können für die hier vorgelegte Argumentation durchaus annehmen, dass ein merkbarer temperature forcing effect bei Verdoppelung des CO2-Gehalts in der Luft existiert, obwohl wir schon anmerken, dass es ernstzunehmende wissenschaftliche Positionen gibt, die sagen, dass ein Treibhaus-Effekt für die Erklärung der Grunddaten des Weltklimas, insbesondere der globalen Mitteltemperatur nicht notwendig ist.

Unser Hauptkritikpunkt ist ganz eindeutig, dass während der Einfluss des CO2 über verschiedene diverse Szenarien (RCP2.6-RCP8.5) variiert wird, mit teilweise hanebüchenen sozio-ökonomischen Annahmen, werden andere (meist natürliche) Klimamechanismen wenig oder gar nicht in der momentanen Modellierung beachtet. Auf diese Weise entsteht zu einem komplexen Thema eine total verengte Diskussion, die sich praktisch nur noch um CO2-Anteile dreht.

CO2-Thesen Dramatik zerfällt bei normaler Verweildauer von CO2 in der Atmosphäre

Aus unserer Sicht ist darüber hinaus eine der zentralen Kernschwächen der CO2-Modellierungen die angenommene lange Retentionszeit für CO2 in der Atmosphäre – die momentan akzeptierte Denkschule ist das sogenannte Berner Modell. Durch eine angeblich sehr lange Verweildauer von Teilen des CO2 in der Atmosphäre (in der Kommunikation werden gerne drastische Vokabeln, wie „Endlagerung“ oder „Verklappung“ von CO2 in der Atmosphäre bemüht) ergibt sich bei konstanter weiterer Emission ein exponentieller Anstieg des CO2 in der Atmosphäre – je nach Feintuning prognostizierten die Wissenschaftler vom „Berner Modell“ eine CO2-Konzentration von 1000ppm in der Atmosphäre im Jahr 2100. Das wäre ein 2.5-fach höherer Wert als heute (420 ppm) und der dreifache Wert des CO2-Niveaus der Nachkriegszeit. Die Retentionsannahmen des Berner Modell werden in der Wissenschaft kontrovers diskutiert – die entgegengesetzte, einfache Annahme, die sich auch mit Messdaten aus französischen Atomtests deckt, geht von einer Halbwertszeit des CO2 in der Atmosphäre von 25-40 Jahren aus – in diesen Rechnungen sättigt sich die CO2-Konzentration bei gleicher anthropogener Emission im Jahre 2100 bei z.B. 500 ppm (Abb. 2 im Anhang verdeutlicht diesen Effekt im direkten Vergleich).

Zwischen diesen beiden Extremannahmen gibt es diverse Schattierungen gemäß Annahmen der Senken und ihrer Leistungen, deren prognostizierte CO2-Anstiege dann natürlich ebenfalls zwischen diesen beiden Extremvarianten liegen.

Selbstredend verändern sich die Erwärmungsprognosen der Modellierungen in den unterschiedlichen Szenarien drastisch, selbst wenn alles andere unverändert bleibt.

Erstes Fazit:

Die CO2-These ist ein Ergebnis von Modellierungen, deren Output schon über den Input festgelegt wurde. Das ist ein Zirkelschluss. Und für Modellierung von Klima absolut unterkomplex.

Abb. 2: CO2-Projektionen gemäß verschiedener Modellannahmen führen im Jahr 2100 zu völlig unterschiedlichen Ergebnissen.

Aber selbst, wenn man alle anderen Annahmen akzeptiert (was wir definitiv nicht tun), bleibt von der CO2-Erwärmung wenig bis nichts, wenn die „Endlagerung“s-Annahme des Berner Modells sich als falsch erweisen sollte (wovon wir fest überzeugt sind). Die CO2-Thesen Dramatik fällt bei normaler Verweildauer von CO2 in der Atmosphäre praktisch in sich zusammen.

Unteraspekt: Anteil des menschlichen CO2 am Anstieg der Keeling-Kurve

Ein großer Verdienst der Klimaforschung der letzten Jahrzehnte ist die systematische Erhebung des CO2-Gehalts in der Atmosphäre vor allem durch die Messstation in Mauna Loa, Hawai, die sogenannte Keeling-Kurve – seit Beginn der Messung 1958 ist der CO2-Gehalt in der Atmosphäre von 315 ppm auf momentan 425 ppm gestiegen – ein ca. 100 ppm-Anstieg in 70 Jahren.

Gemäß der momentan akzeptierten Lehrmeinung wird angenommen, dass praktisch der gesamte Anstieg der Keeling-Kurve seit Start der Messungen menschengemacht sei (also durch die Verbrennung fossiler Brennstoffe verursacht wird). Auch diese These wird aber in Frage gestellt. So vermutet unter anderem der deutsche Wissenschaftler Hermann Harde, dass der Anteil des durch die Menschen in die Atmosphäre eingebrachten CO2 am Anstieg der Keeling-Kurve maximal bei 5 Prozent liegt.

Dass sich der unbestrittene Einbruch in der CO2-Emission im Zuge der globalen Covid-Krise nicht wirklich in der Keeling-Kurve abbildet, ist ein weiterer Hinweis, dass der Anteil der anthropogenen Emission am Keeling-Kurven-Verlauf überschaubar sein dürfte.

Ein Bild, das Text, Zeitung, Papier, Zeitungspapier enthält. Automatisch generierte Beschreibung

Abb. 3: Meyers Konversationslexikon 4. Auflage, 1885-1890. 2. Band: Atlantis – Blatthornkäfer, S.12

Und wie sehr viele Lehrsätze in der momentanen Klimaforschung ist auch diese vermeintliche Gewissheit überhaupt nicht gesichert: Sind die CO2-Werte der Neuzeit (310-450 ppm) im Vergleich zum z.B. dem 19 Jahrhundert überhaupt erhöht? Die Enceclopedia Britannica, aber auch Meyers Konversationslexikon listeten Ende des 19. Jahrhunderts bereits CO2 Anteile von rd. 400 ppm auf mit einer Schwankungsbreite von 370 bis 620 ppm (ein entsprechender Beleg ist im Anhang als Abbildung 3 angefügt).

Die momentane Lehrmeinung postuliert stattdessen, dass der Neuzeit-CO2-Wert drastisch oberhalb eines CO2-Korridors der letzten 800 tausend Jahre läge und versucht die CO2-These mit einer konstruierten CO2-Hockeyschlägerkurve glaubhafter zu machen. Dabei handelt es sich um eine Aneinanderreihung von Datensätzen aus Eisbohrkernen für die Paleodaten, Übergangsdaten und aktuellen Messdaten. Wir beschäftigen uns mit dieser Hockeyschlägerkurve weiter unten etwas ausführlicher, postulieren aber, dass deren Belastbarkeit massiv angezweifelt werden muss.

Zweites Zwischenfazit:

Obwohl sich alles um CO2 dreht ist, sind viele fundamentale Fragen, wie die Retentionszeit, der Vergleich zu Paleodaten oder auch der Anteil der fossilen Verbrennung an dem in den letzten 70 Jahren gemessenen CO2-Anstieg in der Atmosphäre überraschend unklar.

Echte CO2-Thesen Dramatik entsteht durch Kopplung mit feedback und Kipppunkten

Die wahre Dramatik der CO2-Szenarien ergibt sich durch die Hinzunahme von diversen feed back-Verstärkungsmechanismen (vor allem über Wasserdampf, einem wesentlich potenteren Treibhausgas, als das CO2) und durch die Kombination mit den sogenannten Klima-Kipppunkten.

Ein zentraler Beitrag der deutschen Klimaforschung, insbesondere des eigens für die Thematik gegründeten PIK, dem Potsdamer Institut für Klimafolgenforschung ist die Einbringung des Konzepts „Kipppunkte“ in die internationale Klimadiskussion – „Kipppunkte“ sind hier irreversible dramatische Prozesse, die theoretisch durch steigenden Global- Temperaturen ausgelöst werden könnten. Diese Kipppunktszenarien haben dramatische Wirkung. Zum Beispiel im Szenario „Schmelzen des Grönland-Eises“ oder „Schmelzen signifikanter Teile des antarktischen Eisschilds“ führt zu bekannten Meeresanstiegs-Schreckensszenarien – 1986 „prophezeite“ der Spiegel basierend auf einem vermutlich fehlinterpretierten Thesenpapier des Arbeitskreises Energie der Deutschen Physikalischen Gesellschaft: Im Jahr 2040 sind wichtige Metropolen, wie New York, Rom, Hamburg vom Meer verschlungen.

Wir haben also eine Dreifach-Steigerung in den Modeliierungs-Schreckensszenarien: Mit extremen sozio-ökonomischen Maßnahmen wird der Treibhausausstoß hochgerechnet, durch Schärfung der feedback-Effekte wird der Temperaturanstieg der Modelle forciert und schlussendlich wird mit der Kombination mit Kipppunkt-Szenarien eine absolut düsteres Zukunftsbild gemalt. „hot house earth“/“Heißzeit“ nennen das PIK und ihre engsten Miststreiter diese Art Endzeitszenarien.

Zum Glück gibt es auch in der deutschen Wissenschaft besonnenere Stimmen: Prof. Jochem Marotzke, Direktor des Hamburger Max-Planck-Institut für Meteorologie und in dieser Position einer der wichtigsten Klimaforscher des Landes hat sich jedenfalls mehrfach deutlich gegen die Überbetonung des Themas Kipppunkte positioniert.

Aus unserer Sicht handelt es sich bei den Klima-Kipppunkten um sehr geschickte Wissenschaftsangstmache praktisch ohne Relevanz, ganz sicher nicht für einen sinnvollen wissenschafts-politischen Referenzrahmen von 75 Jahren, also bis 2100.

Zwischenfazit CO2-These:

Die CO2-These ist eine rein Modell gestützte Konstruktion, die ein Zirkelschluss ist (es wird das als Voraussetzung in die Modellierung reingesteckt, was dann als Ergebnis rausmodelliert wird). Trotz jahrelanger Forschungen sind fundamentale Basics (z.B. Retentionszeit, Anteil des Menschen am Anstieg der Neuzeit, Vergleich zu Paleodaten) viel unklarer, als in der Öffentlichkeit angenommen.

Die eh schon aufgebauschte Dramatik der CO2-Szenarien entsteht vor allem durch die Kipppunkte- Ergänzung (die nicht Teil der Modellierungen sind) – letztlich ist die CO2-Weltungergangs-These ein Angst-Modellierungs-Turm auf extrem wackeligen Grundbausteinen – auch nur ein loser Stein darin lässt alles in sich zusammenfallen. Und das ist im Kern eine sehr gute Nachricht.

Schlussfolgerung für „Dekarbonisierung“s-Strategien: Mitigation hinfällig

Es gibt aus unserer Sicht keine Rechtfertigung für eine Dekarbonisierungspolitik. Die sogenannte „Mitigation“s-Strategie ist insgesamt hinfällig.

Konkret ist das Konzept der „Carbon-Budgets“ (angeblich noch verbleibenden Restmenge an CO2, die noch in die Atmosphäre kommen kann damit die politisch vorgegebenen Erwärmungswerte nicht überschritten werden) hinfällig. Die dazugehörigen Doomsday-Uhren, welche die verbleibende Zeit bis zur Erschöpfung des „Carbon-Budgets“ runterzählen („time left until CO2 budget is depleted“, z.B. des MCC Berlin) und Stand Dezember 2024 für das sogenannte 1.5°C-Ziel momentan noch ca. 4,5 Jahre ausweisen, können getrost abgestellt werden.

CO2-Senkungsziele, CO2-Steuern, CO2-Zertifikatsmodelle sind ohne wissenschaftlichen und damit letztlich auch politischen Gegenwert und müssen umgehend eingestampft werden.

Die technisch schon ausgereifte CCS-Technik (CO2-Abscheidung z.B. bei Kohleverbrennung und deren „Endlagerung“) ist weder notwendig noch zielführend und darf politisch nicht weiterverfolgt werden.

Attributionsforschung ohne Basis

Eine aktuelle Spielwiese der Klimamodellierung und der Klimawissenschaftspolitik ist die sogenannte Attributionsforschung, in welcher versucht wird, den Anteil von CO2 (und damit z.B. eine historische Schuld von Hauptemittenten der letzten 100 Jahre) an regionalen Wetterkatastrophen zu extrahieren – selbstredend bleibt von einer Attribution in der Jetztzeit nichts übrig, wenn sich die CO2-Modell-Katastrophenszenarien der Zukunft in Luft auflösen.

Intervention/Geoengineering ungerechtfertigt und brandgefährlich

Wenn es für „Dekarbonisierung“ und Mitigation keine Rechtfertigung gibt, dann sind die noch viel extremeren „Intervention“s-Strategien („Geoengineering“), insbesondere die Entnahme von CO2 aus der Luft und jegliche Abscheide- und Einlagerungstechniken unnötig und falsch. Alle diese Konzepte sind nicht nur unbezahlbar, sondern bergen massive Risiken für nicht intendierte negative Effekte.

Anpassung, „Adaptation“ ist die richtige Klima-Strategie

Anpassung, „Adaptation“, eine kluge „wait-and-see-and-better-understand-and-prepare-where-necessary“-Strategie ist dagegen absolut sinnvoll und zeitgemäß. Anpassun, „Adaptation“ ist die richtige „Klima“-Strategie – in jedem Land, in jeder Region.

Nebenaspekt-Probleme:

T-Hockeyschlägerkurve ohne Substanz

Michael Mann und Mitarbeiter sind die Urheber der wohl bekanntesten Klima-Hockeyschlägerkurve – über den Zeitraum der vergangenen 1000 Jahre (später 2000 Jahre) wurden Temperaturproxies von dieser Arbeitsgruppe so zusammengestellt und mit aktuellen Messdaten kombiniert, so dass der Eindruck eines dramatischen Hockeyschlägerverlaufs entsteht – der T-Verlauf ist über Hunderte Jahre konstant (bzw. sogar leicht fallend), um dann mit der Industrialisierung dramatisch anzusteigen – quasi die Visualisierung der CO2-Erwärmungsthese – die zwischenzeitlich sehr berühmte Grafik zierte auch mal das Deckblatt eines IPCC-Berichts (TAR 2001).

Mittlerweile ist diese aus der Club-of-Rome-Schule übernommene Mann-Hockeyschlägerkurve völlig entzaubert – ohne aktuelle Temperaturmessungen würde es überhaupt keinen auffälligen Verlauf geben.

Nebennebenaspekt: Mit der Hinfälligkeit der Hockeyschläger-Originalkurven entfällt natürlich auch jegliche Dramatik bei den einige Jahre sehr beliebten Kult-T-Stripes (ein solcher T-Stripe ziert wohl immer noch den Hauptbahnhof von Cottbus). Auch die Temperaturstreifen auf Straßenbahnen und Kaffeetassen können getrost eingemottet werden.

CO2-Hockeyschlägerkurve unüberprüft

Es gibt eine ähnlich dramatisch aussehende Hockeyschlägerkurve für den CO2-Anstieg, allerdings basierend auf ganz anderen Daten und von Auswertungen anderer Gruppen – auch hier ergibt sich der Hockeyschlägerverlauf nur durch die Kombination verschiedener Datensätze aus völlig unterschiedlichen Quellen (Eisbohrkernen, kombiniert mit Firneis, kombiniert mit Atmosphärendaten) – diese CO2-Kurve ist aus unserer Sicht unzulässig, weil hier die Datensätze verschiedener Herkunft zusammengespleist wurden.

Es gibt aber auch an den Eisbohrkernmessungen aus der Antarktis (und in Grönland) massive wissenschaftliche Kritik, die aber, vielleicht weil sie schon länger zurück liegt, aus der momentanen Diskussion fast komplett verschwunden zu sein scheint. So zeigte bspw. Jaworowski um 1992, dass ca. 20 Prozesse biologischer, chemischer und physikalischer Art den CO2 Gehalt in den Eisbohrkern-Proben dauerhaft beeinträchtigen. Jaworowski äußert gut unterlegte Zweifel an den grundsätzlichen Charakteristika der CO2-Eisbohrkerndaten, insbesondere an den Absolutwerten (Schwankungen in den letzten 800.000 Jahren immer nur zwischen 180 und 280 ppm) und anderen Kerncharakteristika.

Es ist mehr als unwahrscheinlich, dass der dramatische CO2-Kurven-Hockeyschlägerverlauf einer kritischen Überprüfung Stand hält.

Klima hat sich immer gewandelt

Was wie eine Banalität klingt und deshalb angstkommunikatorisch leicht skandalisiert werden kann, ist aus unserer Sicht die wissenschaftliche Wahrheit: Das Klima auf der Erde hat sich immer verändert, es gab Temperatur- und CO2-Veränderungen. Es ist nicht nur alles andere als eindeutig, sondern aus unserer Sicht sogar ziemlich wahrscheinlich, dass wir in den letzten 100 Jahren überhaupt keine irgendwie ungewöhnliche Entwicklung von Temperatur oder CO2 beobachten.

Für die Zahl der Extremwetterereignisse ist dies ja längst belegt – es hat hier keinen signifikanten Trend in den letzten Jahrzehnten gegeben.

Es gibt keinen Klima-„Konsens“ in der Wissenschaft

Eine geschickt konstruierte Fata Morgana ist der sogenannte Klima-„Konsens“.

Braucht Wissenschaft für den Erkenntnisfortschritt überhaupt einen „Konsens“? Eher im Gegenteil, etablierte Lehrmeinungen werden von disruptiver wissenschaftlicher Erkenntnisgewinnung immer wieder in Frage gestellt und müssen sich immer wieder neu bewähren – deshalb ist die Konstruierung eines vermeintlichen „Konsens“ aus unserer Sicht eine wissenschafts-kommunikative und wissenschafts-politisch ziemlich fragwürdige Aktion.

Eine Wissenschaft im „Konsens“ ist für uns eine tote Wissenschaft. Die Lehrmeinung verkommt zu einer Dogmatik und Ideologie oder im extremsten Falle zu einer (Ersatz-)Religion. Wir scheinen davon bei „Klima“ nicht mehr weit entfernt: Die Öffentlichkeit und die Wissenschaft sollen die CO2-Thesen „glauben“, Wissenschaftler, die einer normalen wissenschaftlichen Aufgabe nachgehen, nämlich der konstanten Herausforderung der jeweils etablierten Lehrmeinung, werden als „Leugner“ diffamiert. Wer als Wissenschaftler echte Fakten und Daten „leugnet“, ist kein Wissenschaftler – der Vorwurf der „Leugnung“ ist letztlich ein Anschlag auf die Wissenschafts- und Forschungsfreiheit.

Aber egal ob man einen „Konsens“ überhaupt braucht: In jedem Falle gibt es einen Klima-„Konsens“ in der Wissenschaft nicht: Sowohl der geschickt über die Analyse von Abstrakts wissenschaftlicher Veröffentlichungen konstruierte Oreskes-Cook-Konsens (das ist der berühmte 97.1%, mittlerweile 99%-Konsens) ist substanzlos, als auch der eher uninspirierte „Konsens“ der mittels Suggestivfragen-„Surveys“ und geschickter Filterung daneben gestellt wurde.

Dass der IPCC als politisch kreiertes Gremium von selektiv berufenen Wissenschaftlern keinen „Konsens“ ermitteln kann, ist dagegen selbsterklärend. Wer trotzdem darauf besteht, dass der IPCC einen „Konsens“ repräsentiert erliegt dem nächsten Zirkelschluss, denn das explizite Mandat des IPCC war und ist es, den anthropogenen Klimawandel zu analysieren.[3]

Rolle der Industrie heillos überzogen (Behauptung systematischer Desinformationskampagnen)

Auch die angebliche jahrzehntelange Desinformationskampagne der Ölindustrie ist im Kern eine geschickte Konstruktion der gleichen Arbeitsgruppe, die auch Urheber des Klima-„Konsens“-Claims ist („#exxonknew“). Diese konstruierte Kampagne gab es so nicht.

Eine Zögerlichkeit und Unsicherheit von Industrie im Umgang mit NGO-Vorwürfen und Kampagnen und einem sich plötzlich massiv gegen sie wendenden gesellschaftlichen und politischen Klima und ein gerade in der Vergangenheit stark ausgeprägter Hang zur Intransparenz und Schönfärberei ist dagegen ein Charakteristikum von Industrie alter Prägung und triff sicherlich auch auf die „fossile“ Industrie der Vergangenheit zu. Leider kann dieser Mechanismus momentan auch wieder massiv bei der PV- und Windindustrie beobachtet werden. Moderne Industrie ist transparent, compliant, unterstützt und fördert gute Wissenschaft und hoffentlich auch vernünftige Regulatorik.

Was es aber auf jeden Fall gab, war der Club of Rome und sein sehr wirkmächtiger „Grenzen des Wachstums“-Angst-Untergangs-Modellierungen-Klassiker (Träger des Friedenspreises des Deutschen Buchhandels 1973).

Und es gab und gibt jahrzehntelangen, systematischen Aktivismus von Teilen der Wissenschaft (ein prominentes Beispiel sind die Professoren Schellnhuber und Rahmstorf vom PIK) und massive, mittlerweile gesamtgesellschaftliche kommunikative Propaganda, insbesondere von Seiten der Grünen/Linken und der Wind und Solarindustrie.

Es gibt anthropogene Einflüsse auf Wetter und Klima, die aber regional wirken

Es ist völlig unstrittig, dass es anthropogene, lokale, regionale Klima- und Wetteränderungen gibt und gab. Eine berühmtes Lernbeispiel ist die Katastrophe durch die Zerstörung des Aralsees (eines Binnenmeers) durch exzessive Wasserbewirtschaftung der anliegenden Wüstengebiete in Usbekistan (Baumwolle) und Kasachstan (Reis) in der Sowjetzeit, die auch zu einer massiven Änderung des regionalen Klimas führte.

Auch in Mitteleuropa haben wir durch massive Änderungen in Luftverschmutzung Einflüsse auf das Wetter: Waren die 50-80iger Jahren durch massive Smogereignisse gekennzeichnet, so hat die Reduzierung der Luftverschmutzung zu einem massiven Anstieg der Sonnenstunden geführt – dies in Kombination mit massiver Landnutzung (z.B. urbane Räume, Straßen- und Autobahninfrastruktur, aber neuerdings auch riesige Solarfelder) hat durchaus erheblichen Anteil daran, dass es in Deutschland in den letzten Jahren lokal wärmer geworden ist.

Wichtig ist auch der Urban Heat Island Effekt, der recht gut erforscht ist. Auf Grund des globalen Bevölkerungsanstiegs und der starken Urbanisierung kam es zu einem massiven Anstieg der Zahl lokaler Wärmeinseln in deren Zentren teilweise deutlich erhöhte Temperaturen herrschen. Da inzwischen ca. 50 % der heute mehr als 8 Mrd Menschen in urbanen Räumen leben, beeinflusst, bzw. erschwert dieser Effekt auch massiv die systematische Dokumentation der Temperatur in der nicht vom Menschen massiv überformten Natur der jeweiligen Region.

Einfluss auf regionales Wetter- und Klima durch massiven Windkraftaufbau?

Keine Energieerzeugung ist ohne Nebeneffekt („keine Wirkung ohne Nebenwirkung“) – es gibt deshalb keine „grüne“ Energie.

Auch die sehr flächenintensiven, ineffizienten PV- und Windkraftanlagen haben Einfluss auf die lokale Umgebung – im Falle von Wind ist dieser Effekt in Europa aus unserer Sicht noch völlig unterbewertet – das massive Ernten von Wind führt zu lokalen und regionalen Windabnahmen, deren Wetter- und Klimafolgen (z.B. lokale, regionale Dürre oder auch Starkregenereignisse) momentan noch viel zu wenig beachtet werden – aber mit relativ wenig Aufwand modelliert werden könnten.

Für ganz besonders Ängstliche: „Adaptation“ ist anderes Wort für klugen Katastrophenschutz

Für Staaten oder Staatengemeinschaften, die immer noch an ein Restrisiko „Erderwärmung“ „glauben“ empfiehlt sich die konsequente Anwendung der generische Strategie der Anpassung, die folgende fundamentale Aspekte aufweist: Adaptation ist (nach S. Koonin)

  • Effektiv (weil auf die jeweilige Situation -örtlich u zeitlich- angepasst)
  • Agnostisch (es ist egal ob Klimaänderung menschgemacht oder natürlich ist)
  • Proportional (z.B. höhere Dämme in konkret gefährdeten Gebieten)
  • Lokal
  • Autonom (es kann unabhängig von anderen Maßnahmen passieren)

Klimaforschung sollte sich fokussieren

Klimaforschung ist momentan massiv überfördert. Wirklich gute regionale und lokale Wettervorhersagemodelle sind wissenschaftlich und gesellschaftlich relevant, müssen aber alle natürlichen und anthropogenen Einflüsse abbilden (z.B. exzessiven Windausbau). Grundlagenforschung zu Klimafragen ist genauso interessant und relevant wie jede andere Grundlagenforschung.

Anhang:

Ein Bild, das Text, Screenshot, Diagramm, Kreis enthält. Automatisch generierte Beschreibung

Abb. 1: Qualitative Darstellen der Hauptprozesse der atmosphärischen Energiebilanz nach W.Soon

Abb. 2: CO2-Projektionen gemäß verschiedener Modellannahmen führen im Jahr 2100 zu völlig unterschiedlichen Ergebnissen.

Ein Bild, das Text, Zeitung, Papier, Zeitungspapier enthält. Automatisch generierte Beschreibung

Abb. 3: Meyers Konversationslexikon 4. Auflage, 1885-1890. 2. Band: Atlantis – Blatthornkäfer, S.12

  1. Dieses Papier ist ein forschungspolitisches Thesenpapier und verzichtet bewusst auf komplette Referenzen – alle Quellen sind für die Fachleute identifizierbar und überprüfbar
  2. Weitere Treibhausgase werden in dieser Diskussion als CO2-Äquivalent behandelt und nicht in Tiefe separat diskutiert.
  3. “The role of the IPCC is to assess on a comprehensive, objective, open and transparent basis the scientific, technical and socio-economic information relevant to understanding the scientific basis of risk of human-induced climate change, its potential impacts and options for adaptation and mitigation.” (PRINCIPLES GOVERNING IPCC WORK, approved 1998, last amended 2013)