Die Klima-Bewegung verstehen Teil 3: Man folge dem Geld!

Einige Zahlen für die Schlagzeile: Die Kapitalausstattung der Erneuerbare-Energie-Industrie beträgt über 1 Billion Dollar; die Finanzierung von NGOs, welche als Publicity- und Lobby-Agenturen für Alarmismus benutzt werden, beläuft sich auf über 2 Milliarden Dollar, und die Summe der Forschungsförderung seitens der Regierung zu diesem Komplex geht über 1 Milliarde Dollar hinaus. Kann man da erwarten, dass eine Resolution von wissenschaftlicher Bedeutung diese Einrichtungen dazu bewegen wird einzuräumen, dass ihre Geschäfte eine Lüge zur Grundlage haben und dass sie stillschweigend schnell vergehen werden – oder dass sie zumindest auf eine Größenordnung zurückgestutzt werden, die mehr den Bedürfnissen des realen Markts entspricht?

Eine Schwäche muss ich gleich am Anfang ansprechen: Die von mir genannten Zahlen stammen aus den Quellen, welche öffentlich zugänglich sind in Gestalt von Büchern, Websites sowie jährliche Finanzberichte. Ich bin kein Ökonom und freue mich auf Beiträge kompetenterer Leser zu diesem Artikel. Alle im Folgenden genannten Zahlen gelten allgemein für das Finanzjahr 2017/18.

1. Erneuerbare-Energie-Industrie: Der Klima-industrielle Komplex

Im Jahre 2009 schrieb Björn Lomborg:

Einige führende Geschäftsleute machen sich an Politiker und Wissenschaftler heran, damit diese rasche und drastische Maßnahmen bzgl. globaler Erwärmung auf den Weg bringen. Dies ist ein neuer Dreh einer sehr alten Praxis: Unternehmen nutzen die Politik, um sich die eigenen Taschen zu füllen.

Die enge Beziehung zwischen den Gruppen wurde schon im Kalten Krieg deutlich, und zwar zwischen Waffen-Herstellern, Forschern und dem US-Militär. Präsident Dwight Eisenhowers Warnung vor der Macht des „Militär-industriellen Komplexes“ ist allgemein bekannt. Er sagte: „das Potential für einen katastrophalen Anstieg von Machtmissbrauch besteht und wird immer bestehen“. Er machte sich Sorgen über eine wiederkehrende Versuchung anzunehmen, dass einige spektakuläre und kostspielige Maßnahmen auf wunderbare Weise die Lösung aller gegenwärtigen Schwierigkeiten sind.

Bzgl. Klimawandel gilt das auf jeden Fall. Man hämmert uns ein, dass sehr teure Vorschriften bzgl. Kohlenstoff der einzige Weg sind, der globalen Erwärmung zu begegnen – trotz vieler Belege, dass dies eine grundlegende Kosten-Nutzen-Analyse nicht bestehen würde. Wir müssen fragen, ob sich ein „Klima-industrieller Komplex“ bildet, welcher den Steuerzahler drängt, Geld locker zu machen, um jenen zu gefallen, die daran verdienen wollen.

Natürlich sind viele Direktoren wirklich besorgt bzgl. globaler Erwärmung. Aber die, die am lautesten schreien, profitieren am meisten von den Kohlenstoff-Vorschriften. Der von Ökonomen für ihr Verhalten verwendete Terminus lautet „rent seeking“.

(Quelle)

[Da dieser Beitrag sehr lang ist, wird im Folgenden an manchen Stellen gekürzt übersetzt, markiert mit „…“. Hauptsächlich handelt es sich da um die Propaganda der im Einzelnen angesprochenen Einrichtungen. Anm. d. Übers.]

Allied Market Research schreibt dazu (hier):

Der Markt der erneuerbaren Energie wurde im Jahre 2017 auf 928,0 Milliarden Dollar taxiert. Bis 2025 dürfte er 1.512,3 Milliarden erreichen, was einer durchschnittlichen jährlichen Steigerungsrate (CAGR) von 6,1% entspricht (2018 bis 2025).

Hier eine weitere Prognose, von Acconia (hier):

Einer von acht Menschen auf dem Planeten hat nach wie vor keinen Zugang zu Strom. Will man erreichen, dass jedermann garantiert Zugang zu bezahlbarem, zuverlässigem, nachhaltigem und modernen Strom hat, muss der Gebrauch erneuerbarer Energie von gegenwärtig 25% bis 2025 auf 38% zunehmen. Dazu wären Investitionen in Höhe von 441 Milliarden Dollar erforderlich.

Weiterführende Projektionen bis zum Jahr 2050 haben bzgl. der Idiotie eines „Null Kohlenstoff“-Zieles viele Diskussionen ausgelöst. Eine Analyse aus jüngerer Zeit von Roger Pielke zeigte, dass es der Errichtung eines Kernkraftwerkes pro Tag bedarf, von heute bis 2050! Das brauche ich hier nicht noch mehr auszuwalzen. (Hier)

Es kann schwierig sein, die Bedeutung von Zahlen im Billionen Dollar-Bereich vollständig zu erfassen. Daher dachte ich mir, es ist am besten, diese Summen herunterzubrechen zumindest bis auf das Niveau von Unternehmen, um sie leichter fassbar zu machen. Hierzu nutzte ich Daten aus einer Vielfalt von Berichten, aber man sollte es als indikativ ansehen, weil einige Unternehmen Eigeninteressen haben, und es ist nicht immer eindeutig, ob die Daten sich auf das ganze Unternehmen oder lediglich den Bereich Erneuerbare beziehen.

Windturbinen-Hersteller und -Installateure

Windenergie ist weiterhin eine der am meisten genutzten erneuerbaren Energiequellen auf dem globalen Markt. Es wird prognostiziert, dass die während der nächsten 10 Jahre hinzugefügte Kapazität etwa 689 GW ausmacht. Das bedeutet, dass Ende 2027 1.160 GW Windkapazität installiert sind – heute sind es 541 GW. Das bedeutet weiterhin, dass der Bedarf an Windturbinen höher denn je sein wird. Daher schauen die obersten 10 Windturbinen-Hersteller der Welt sehr positiv in die Zukunft.

Einige der größten Windturbinen-Hersteller sind (Quelle)

Vestas Wind Systems A/S (Denmark), Market capitalisation $75billion, Sales $14.94billion, world’s largest producer with over 60,000 turbines in total, 112GW in 76 countries

United power (Guodian United Power technology Co Ltd), 100GW.

Enel Spa (Italy), Market capitalisation 67.8billion Euro, 97GW (probably includes some non-renewable activity)

General Electric (US), Market capitalisation $74.3billion. 25,000 turbines in total, 92GW

Other significant companies in the billion dollar range include NextEra Energy, Inc , Suzlon, Envision, Senvion S.A., Goldwind, ENERCON GmbH, Orsted A/S (Denmark), Nordex and Acciona Windpower.

Hersteller von Solarpaneelen

Die globale Solarenergie-Industrie wird im Jahre 2022 422 Milliarden Dollar erreichen von 86 Milliarden im Jahre 2015. Das ist eine Zuwachsrate pro Jahr um 24% von 2016 bis 2022. Solarenergie ist die Strahlungsenergie, welche von der Sonne ausgesandt wird. Sie wird abgegriffen durch verschiedene Technologien wie Solarheizung, Photovoltaik-Zellen und andere. Es ist eine effiziente Form unkonventioneller Energie und eine bequeme Lösung bzgl. Erneuerbarer gegen zunehmende Treibhausgas-Emissionen und globale Erwärmung.

Einige führende Hersteller sind (Quelle):

First Solar, Market capitalisation $4.5 billion

Canadian Solar Inc., Market capitalisation $3.6 billion

JA Solar Market capitalisation $2.6 billion

Yingli Solar (China), 20 GW shipped to 90 countries’ annual revenue $1.25billion

Other significant manufacturers include Jinko , Qcells, Winiaco, REC, LG energy, Trina Solar, SunPower and Panasonic

Energie-Zulieferer mit großem Gehalt an Erneuerbaren:

Avangrid, Assets $32billion, 32GW, wind

Innergex, Assets C$6.5billion, revenue C$57.6billion, hydro, wind, solar

Boralex Market capitalisation $2billion, wind, hydro, thermal, solar

Berkshire Hathaway Energy, 32GW, wind, solar, biomass, geothermal.

Others include Transalta (wind, solar, hydro, coal, gas), Invenergy, (solar, wind), The Tata Power Company Limited (hydro, solar, wind, biomass), Geronimo Energy (wind and solar), EDF energy (Nuclear, wind, solar, gas),

Other technologies.

Ocean Power Technologies, Inc (US) (wave), On Power (geothermal), Tocardo BV (tidal river and ocean water turbine manufacturer), SynTech Bioenergy LLC (power from biomass feedstocks).

Jeder große Hersteller beschäftigt normalerweise rund 5000 Mitarbeiter, und Zehntausende sind in der Zuliefer-Industrie beschäftigt.

Zusätzlich zu den Unternehmen, die direkt in die Herstellung und die Unterstützung von Produkten aus erneuerbarer Energie involviert sind, gibt es noch all die Unternehmen, welche Güter und Materialien anliefern, die für die Herstellung der Produkte benötigt werden, ebenso wie Gesetz- und Finanzdienstleister (z. B. hier)

Dazu noch einmal Björn Lomborg:

Sogar Unternehmen, die nicht stark im grünen Geschäftsbereich aktiv sind, verdienen noch gut. Europäische Energie-Unternehmen erzielten Profite im Bereich von Zehnermillionen Euros im Verlauf der ersten Jahre des Europäischen Handelssystems, als sie gratis Kohlenstoff-Emissions-Zuteilungen erhielten.

Angesichts der gewaltigen Investitionen von Kapital und Arbeit in den Mythos, dass anthropogenes CO2 eine Bedrohung der Zukunft unseres Planeten ist, ist es kein Wunder, dass es auch gewaltige Lobby-Arbeit gibt, um diesen Mythos immer neu anzufachen: das ist der Klima-industrielle Komplex bis zum Anschlag: während sich ein großer Teil des Lobbyismus pro-Erneuerbare befasst, wäre es naiv zu glauben, dass es nicht auch einen bedeutenden anti-nuklearen Aspekt gibt.

Noch einmal Björn Lomborg:

In Klimawandel involvierte US-Unternehmen und Interessenverbände stellten allein im vorigen Jahr 2430 Lobbyisten ein, das sind 300% mehr als vor fünf Jahren. 50 der größten US-Stromversorger wandten 51 Millionen Dollar für Lobbyisten auf – in nur sechs Monaten.

Der weltgrößte Hersteller von Windturbinen, Vestas mit Sitz in Kopenhagen, drängt die Regierungen, noch viel mehr in den Windmarkt zu investieren. Die Firma sponsert die Sendung „Climate in Peril“ von CNN sowie Unterstützung für politische Maßnahmen, welche die Einkünfte von Vestas erhöhen. Ein Mitglied des Vorstands der Investment-Firma Generation Investment Management (Eigentümer ist Al Gore) warnt vor einem großen Risiko für die US-Wirtschaft, wenn nicht rasch ein Preis für Kohlenstoff eingeführt wird.

Weiteres zum Klima-industriellen Komplex findet sich in dem Buch Green Tyrranny von Rupert Darwall.

2. Forschungsagenturen, welche den CAGW-Mythos vorantreiben

Es gibt eine ganze Reihe von seitens der Regierungen finanzierten Forschungsagenturen, entweder als Einzelagentur oder als ein Konsortium mehrerer Mitglieder. Viele davon haben Programme aufgelegt, welche die Auswirkung des Klimawandels auf die Umwelt untersuchen, aber alle (soweit ich das beurteilen kann) akzeptieren das Mantra einer anthropogenen Ursache der Änderung, üblicherweise auf der Grundlage der IPCC-Berichte, und damit sind ihre Projektionen in die Zukunft vorgegeben. Bevor wir einige Beispiele im Einzelnen beleuchten, möchte ich klarstellen, dass ich nicht die Qualität ihrer Wissenschaft kritisiere, sondern lediglich ihren inhärenten Interessenkonflikt darlegen möchte: sie sind von Finanzierung der Regierung abhängig, weshalb es einen Imperativ gibt, eine wissenschaftliche Meinung zu äußern, die mit der Politik der Regierung auf einer Linie liegt.

[Es werden jetzt verschiedene Institutionen mit ihrer Finanz-Ausstattung vorgestellt. Der Autor beschreibt detailliert, wie alle genannten Agenturen immer wieder mittels Druck des Geldes auf Regierungslinie gebracht werden, obwohl es bei Einigen Versuche gab, unabhängige Forschung zu betreiben.

Das ist ziemlich langatmig und immer im gleichen Tenor. Daher werden diese Agenturen hier nur genannt. Anm. d. Übers.]

NOAA (USA), 5,5 Milliarden Dollar (Quelle)

Australian Institute of Marine Science (Australien), 67,9 Millionen Dollar

CSIRO (Australien) – CSIRO Climate Science Centre, 100 Mitarbeiter, 20 Millionen australische Dollar

Australian Universities centres of excellence

Der Australian Research Council (ARC) ist einer der Hauptfinanzierer der Universitäts-Forschung in Australien. …

Das ARC Centre for Climate Extremes erhält 4,4 Millionen australische Dollar vom ARC und 6,7 Millionen australische Dollar von Partnern.

Enthalten ist auch ein Programm zur globalen Klima-Sensitivität, welches sich auf Klimamodell-Ensembles in genau der gleichen Weise stützt wie die IPCC-Modellierungen. Auch hier keinerlei Akzeptanz natürlicher Ursachen, obwohl einige der experimentellen Programme mit dem Anschein daherkommen, offeneren Geistes zu sein.

Das ARC Centre of Excellence in Coral Reef Studies 11,2 Millionen australische Dollars

Die Mission desselben ist es, das „wissenschaftliche Verständnis der Entwicklung von Korallenriffen zu vertiefen während einer Zeit beispielloser Umweltveränderungen“.

Einer der Partner dieses Centres ist die James Cook University, die für breites Aufsehen sorgte mit der Entlassung von Dr. Peter Ridd, weil dieser die Qualität der Forschung zum Barriere-Riff hinterfragt hatte (und damit die Finanzierung gefährdet hatte).

Tyndall Centre for Climate Change Research (UK, finanzielle Daten sind nicht verfügbar).

Fazit: Bei keiner dieser Agenturen besteht Hoffnung, das natürliche Ursachen des Klimawandels in Betracht gezogen werden.

3. NGOs

Nicht-Regierungs-Organisationen (NGOs) sind non-profit-Oganisationen, die von einer ganzen Reihe von Fördertöpfen finanziert werden, darunter individuelle Spenden, philantropische Trusts, regierungsamtliche Zuwendungen, Forschungsaufträge von Industriebereichen, Gewerkschaften und Nicht-Regierungs-Organisationen sowie Verkäufe von Waren. Einige sind hinsichtlich ihrer Finanzierung offener als andere (so akzeptieren Einige beispielsweise keine regierungsamtlichen Zuwendungen außer zum Vorantreiben einer einseitigen politischen Agenda). Oftmals werden private Spender auch nicht namentlich genannt. Das kann es schwierig machen, der Spur des Geldes zu folgen.

Es wäre ein schwerer Fehler, NGOs als eine halb-organisierte Versammlung alternder Hippies anzusehen. Sie sind bestens organisiert, normalerweise mit einem hohen Erfahrungs-Niveau und oft auch mit leitenden öffentlichen Persönlichkeiten in den Führungsgremien. Die größeren NGOs beschäftigen einen ganzen Stab in Forschung, Publicity und Marketing; die Zahl der Mitglieder geht in die Millionen. Kleinere NGOs mit bescheidenerer Ausstattung neigen dazu, sich mehr auf freiwillige Unterstützung zu verlassen. Alle jedoch repräsentieren eine Hauptkraft beim Vorantreiben des Mythos‘ einer katastrophalen anthropogenen globalen Erwärmung/Klimawandel.

Climate Action Network International

NGOs mit Interesse am Klimawandel werden international koordiniert durch das Climate Action Network International (CAN), einer in Deutschland ansässigen Institution, welchem 1300 NGO-Mitgliedsorganisationen in über 120 Ländern angehören. Auf der Homepage werden Links zu allen Mitglieds-NGOs gesetzt.

Auszüge aus den von der CAN selbst auferlegten Aufgaben und aus Presseerklärungen:

Das Leben auf der Erde ist ernsthaft bedroht durch einen katastrophalen Klimawandel, welcher verursacht wird von den Menschen mittels deren konstanter Erzeugung von Treibhausgasen.

CAN arbeitet daran, Maßnahmen der Regierung und von Individuen zu fördern, welche den vom Menschen induzierten Klimawandel auf ein ökologisch nachhaltiges Niveau zu begrenzen.

CAN-Mitglieder arbeiten an der Erreichung dieses Zieles mittels Austausch von Informationen und der koordinierten Entwicklung von NGO-Strategien bzgl. Klimawandel. Das CAN hat regionale Netzwerke, welche diese Bemühungen weltweit koordinieren.

Maßnahmen gegen Klimawandel sind also lokal und international koordiniert und üppig finanziell sowie mit vielen Mitarbeitern und Fußtruppen in Höhe von Millionen williger Mitläufer ausgestattet.

Die Anzahl der Mitglieds-NGOs nach Ländern:

  • USA 193
  • Kanada 103
  • Australien 69
  • Indien 46
  • UK 30
  • Dänemark 25
  • Frankreich 23
  • Neuseeland 16
  • China 9
  • Russland 9
  • Norwegen 9
  • Schweden 5
  • Deutschland 7
  • Finnland 7
  • Ungarn 4
  • Österreich 3
  • Italien 3

(Grönland, Nordkorea, Somalia 0)

Nicht bei allen NGOs steht Klimawandel an vorderster Stelle. Bei den meisten jedoch geht es um Umweltbedenken bzgl. Klimawandel (rettet die Krokodile, die Korallenriffe, die Regenwälder usw.), oder sie stellen die Verhinderung des Klimawandels an die erste Stelle und in den Mittelpunkt ihrer Mission. Allesamt wenden sie sich gegen den Verbrauch fossiler Treibstoffe und Kernkraft.

In allen Fällen ist die IPCC-Klimawissenschaft der Dreh- und Angelpunkt. Noch einmal aus den CAN-Dokumenten:

[Es folgen wieder endlose Auszüge dieser schlimmen Propaganda, die man eigentlich nicht mit übersetzen muss.]

Und so weiter. Diese totale Stützung auf die IPCC-Berichte zieht sich wie ein roter Faden durch alle individuellen NGOs. Deutlich wird dies, wenn im Folgenden einige der größeren NGOs betrachtet werden. Nicht alle sind in jedem Land präsent, aber einige der Großen sind aktiv in Australien und den USA: Greenpeace, World Wildlife Fund (WWF), Friends of the Earth (FoE)

Union of Concerned Scientists (USA), 39,8 Millionen Dollar

350.org (international), 19 Millionen Dollar

Greenpeace Australien, 19,7 Millionen Dollar

Greenpeace USA, gesamt 39,7 Millionen Dollar, davon 28,2 Millionen Dollar von 2500 Mitgliedern.

The Australia Institute, 4 Millionen australische Dollar, davon 3 Millionen an Spenden.

Das Australia Institute hat die Anwaltschaft bzgl. Klimawandel übernommen vom ehemaligen Climate Institute of Australia, welche im Jahre 2017 alle Aktionen eingestellt hatte. Es ist aktiv bei der Propagierung von Maßnahmen zur Abschwächung der globalen Erwärmung (hier) und ist kritisch gegenüber der von ihnen so empfundenen Inaktivität der Regierung in dieser Hinsicht.

Das Institut führte eine Umfrage durch bzgl. der Haltung der Australier bzgl. Klimawandel, dessen Auswirkungen, der Wissenschaft, potentielle Reaktionen, die Gelegenheiten, die sich dadurch bieten sowie das Verhalten der Führer in dieser Beziehung. Die Ergebnisse zeigten starke Unterstützung für Klima-Maßnahmen und wurden veröffentlicht im The Climate of the Nation in 2018, vermutlich in der Hoffnung, die Wahlen im Mai 2019 zu beeinflussen. Glücklicherweise war das nicht der Fall, und die Labor Party, die sich voll auf die Klimawandel-Plattform stellte, verlor die „unverlierbare“ Wahl.

(Mehr)

Wilderness Society (Australien), 13 Millionen australische Dollar insgesamt, davon 10 Millionen an Spenden und 2 Millionen aus Nachlässen.

World Wildlife Fund USA (Hauptquartier)

Gesamt 335,1 Millionen Dollar, davon 69,6 Millionen an Beiträgen, 46,8 Millionen an Zuwendungen von Regierungen, Vergütungen von 1,8 Millionen Dollar in den USA und 53,3 Millionen international.

Das Führungsgremium besteht aus 17 Mitgliedern, hauptsächlich Rechtsanwälte und Finanziers. 66 Experten, 1 Million Mitglieder, 8 Millionen Aktivisten.

… [Und wieder die übliche Propaganda]

World Wildlife Fund Australia, 28 Millionen australische Dollar, davon 20 Millionen an Spenden und 6 Millionen aus der Industrie und von der Regierung.

[Propaganda…]

World Wildlife Fund Canada 24,2 Millionen kanadische Dollar, davon 70% Spenden und 16% von Stiftungen

Friends of the Earth Australia, 1,4 Millionen Dollar, 850.000 Dollar an Spenden

[Propaganda…]

Friends of the Earth USA, gesamt 10,9 Millionen US-Dollar, davon 6,7 Millionen an Zuwendungen, aus Nachlässe und Beiträgen. 45 bezahlte Mitarbeiter.

Wir haben die letzten zwei Jahre damit zugebracht, in tiefer Solidarität gegen die gefährliche Agenda der Trump-Regierung vorzugehen.

[Und wieder Propaganda…]

Environmental Defence Fund Inc., 223 Millionen Dollar aus Beiträgen und von Stiftungen.

[Und wieder Propaganda sowie eine Beschreibung der Haupt-Aktionen gegen die Politik der Trump-Regierung]

Alle oben genannten Gruppen sind lediglich eine kleine Auswahl von Aktivistengruppen bzgl. Klimawandel. Es gibt vergleichsweise nur sehr wenige Gruppen oder Organisationen, welche einen entgegen gesetzten Standpunkt vertreten, nämlich dass der Klimawandel hauptsächlich natürlichen Gründen geschuldet ist und dass jedwede „Dekarbonisierungs“-Maßnahmen nutzlos und eine gewaltige Geldverschwendung sind.

Opportunisten und Globalisten

Im September 2018 haben 29 Philantropen 4 Milliarden Dollar über die nächsten fünf Jahre versprochen, um den Klimawandel zu bekämpfen – das ist das größte philantropische Investment mit Schwerpunkt auf der Abschwächung des Klimawandels jemals. Die Ankündigung, abgegeben auf dem globalen Klimagipfel GCAS in San Francisco repräsentiert eine breite globale Verpflichtung, bezahlbare Low- und Zero-Kohlenstoff-Lösungen voranzubringen, um die schädlichen Emissionen zu reduzieren, welche den Klimawandel verursachen. Der größte Teil dieses Geldes soll NGOs zugute kommen, die an vorderster Front bzgl. Klimawandel stehen: …

[noch einmal immer die gleiche Propaganda…]

Quelle

Es gibt auch Stiftungen, welche Finanzmittel für individuelle Projekte im Bereich Erneuerbare/Klima/Nachhaltigkeit gewährt haben. Darunter sind: Rockefeller Brothers Fund (1,1 Milliarden Dollar Kapitalvermögen, 34 Millionen Dollar Zuwendungen, 7,5 Millionen Dollar für Klimaprojekte). William and Flora Hewlett Foundation (9,8 Milliarden Kapital, 465 Millionen a Zuwendungen, 30 Millionen für Klimaprojekte). Elon Musk Foundation (keine Fnanzdaten verfügbar) und die David and Lucille Packard Foundation (7,6 Milliarden Dollar Kapital, 288 Millionen an Zuwendungen, 2 Millionen für Naturschutz und Wissenschaft).

Und am Ende des endlosen Geld-Zuges finden sich noch Einzelpersonen, die große Summen für Erneuerbare/Grünen-Programme locker machten, wie Al Gore, dessen persönliches Vermögen derzeit auf etwa 350 Millionen Dollar geschätzt wird (Quelle)

Andere Stiftungen sind weniger offen, z. B. George Soros und die Open Society Foundations (rund 15 Milliarden Dollar (Quelle)

Fazit:

Die Gesamtsumme des investierten Geldes, welches abhängig ist von dem Mythos, dass CO2-Emissionen aus der Verbrennung fossiler Treibstoffe eine gefährliche globale Erwärmung verursacht (und allem, was daraus folgt), bewegt sich wahrscheinlich zwischen 1 und 2 Billionen Dollar. Das ist die gleiche Größenordnung wie das Gesamt-BIP von Australien oder Kanada. Damit bestehen gewaltige Anreize, den Mythos immer weiter zu treiben, um Lobbyarbeit bei Regierungen zu betreiben und jedwede Standpunkte bzgl. des Gegenteils zu verunglimpfen und zu zerschlagen. Viele der Gruppen, welche das ganze schäbige Gebäude stützen, sind bestens koordiniert, was man aufgrund ihrer sozialistischen Wurzeln auch erwarten kann, und sehr effektiv bzgl. der Erregung von Emotionen in der Öffentlichkeit und der Lobbyarbeit bei Regierungen. Man füge diesem Mix noch die Besessenheit der UN zu Globalisierung und Umverteilung von Wohlstand von erfolgreichen industrialisierten Ländern hin zum Rest der Welt hinzu, und man bekommt das, was Patrick Moore als The Perfect Storm beschrieben hat. Im Gegensatz dazu neigen die wenigen oppositionellen Stimmen dazu, hauptsächlich von der Ethik sich verpflichtet fühlenden Einzelpersonen und konservative Denkfabriken, deutlich weniger koordiniert zu sein – und sie scheinen weniger erfolgreich, Aufmerksamkeit und Gefühle in der Öffentlichkeit zu erregen.

Es kommt mir so vor, als ob diese „Wissenschaft“ nur settled (oder vergessen) wird, wenn Mutter Natur genau das tut, was sie will: Wenn die Temperaturen steigen, werden die Alarmisten sich freuen, weil sie den Alarm geschürt haben (selbst wenn die Erwärmung kaum etwas mit CO2 zu tun hat). Oder die Temperatur wird gleich bleiben oder sinken. Dann werden sie entweder für sich den Erfolg beanspruchen, das Monster gezähmt zu haben oder sich klammheimlich davon stehlen und etwas anderes finden, was man der schon lange leidenden Bevölkerung überstülpen könnte. Wohin auch immer die Entwicklung geht, der Klima-industrielle Komplex und alles, was er stützt, ist inzwischen zu dick, um scheitern zu können.

Link: https://wattsupwiththat.com/2019/10/06/understanding-the-climate-movement-part-3-follow-the-money/

Übersetzt von Chris Frey EIKE




Merkel, das IPCC und die Geister, die sie rief: Teil 6 – beim Schummeln erwischt

Nachdem wir uns im vorigen Kapitel mit der Frage der Speicherung der Strommengen befasst haben, die bei jedem Auf und Ab der Stromproduktion aus Wind und Sonne zwangsläufig anfallen, betrachten wir hier zunächst die Anforderungen an den Kraftwerkspark, der Deutschland im Jahre 2038 mithilfe von gespeichertem „Windgas“ bei Dunkelflaute vor kalten und dunklen Wohnungen und Fabriken bewahren soll. Hierfür schauen wir zunächst auf den Jahresverlauf des Bedarfs an Strom aus „Windgas“, Bild 2.

Bild 2. Simulation: Jahresverlauf der erforderlichen Stromerzeugung aus „Windgas“ im Jahr 2038 (Berechnungen und Grafik: Autor, Daten)

Die Grafik in Bild 2 zeigt das bereits bekannte Muster von wilden Ausschlägen, wie sie für Stromerzeugungssysteme auf Basis der „erneuerbaren“ Energien aus Wind und Sonne typisch sind. Auffällig ist die Häufung in den Monaten Juni bis September. In diesem Zeitraum wird die Stromerzeugung der Windgas-Kraftwerke offenkundig häufiger angefordert als in den übrigen Monaten des Jahres.

Entscheidend für die Zahl der vorzuhaltenden Gaskraftwerke ist zunächst der Spitzenbedarf. Dieser läge am 19.2.2038 bei mehr als 55,9 GW. Dies bedeutet, dass mindestens 112-113 Gaskraftwerke mit je ca. 0,5 GW gleichzeitig zum Einsatz gebracht werden müssten. Im Unterschied zu Kohle- oder Kernkraftwerken, die für hohe Kapazitätsfaktoren (= Anteil Volllaststunden pro Jahr) von 85 bis über 90 % ausgelegt sind, liegen diese bei reinen Gaskraftwerken bei nur 30 %, was etwa 2.700 bis 3.000 Betriebsstunden pro Jahr entspricht. Zwar ist zu berücksichtigen, dass man im Mix auch GuD-Kraftwerke (GuD = Gas-und-Dampf) vorsehen wird, doch gibt es gewichtige Argumente, die es wahrscheinlich machen, dass ihr Einsatz eher begrenzt sein dürfte. Um das zu verstehen, müssen wir uns zunächst die Anforderungen ansehen, die an diese Kraftwerksflotte gestellt werden, Bild 3.

Bild 3. Simulation: Anzahl der Startvorgänge und durchschnittliche Laufzeit pro Einsatz für 113 Gaskraftwerke zu je 0,5 GW, welche 2038 das Netz bei Dunkelflaute stabilisieren sollen (Berechnungen und Grafik: Autor, Daten)

Eine genauere Untersuchung der Feinstruktur des Bedarfs in viertelstündlicher Auflösung zeigt, dass es im simulierten Jahr 2038 insgesamt 228 Situationen gäbe, in denen der Einsatz von Gaskraftwerken zur Netzstützung angefordert werden muss. Da die Veränderungen (Gradienten) des Strombedarfs mit bis zu ±15 Gigawatt pro Stunde (GW/h) sehr abrupt sind, muss das Zu- und Abschalten der einzelnen Kraftwerke sehr schnell erfolgen: Um einen Gradienten von 15 GW/h auszugleichen, müssten innerhalb von einer Stunde 30 (!) Gaskraftwerke zu je 0,5 GW zugeschaltet und auf volle Leistung hochgefahren werden. Für solche Schnellstarts sind GuD-Kraftwerke deutlich weniger geeignet, da sie wegen des zusätzlichen Dampfgenerators wesentlich träger reagieren als die reinen Gaskraftwerke, die hierfür konzipiert sind. Gaskraftwerke haben jedoch geringere Leistungen von typischerweise weniger als 400-500 MW, während moderne GuD-Kraftwerke wie Irsching 5 Leistungen bis zu ca. 850 MW erreichen. Bei den hier angestellten Berechnungen wurde deshalb zur Vereinfachung von einer durchschnittlichen Kraftwerksleistung von 0,5 GW ausgegangen.

Für die Simulationen wurde davon ausgegangen, dass auf die jeweiligen Bedarfsspitzen so reagiert wird, dass mit steigendem Bedarf eine entsprechende Anzahl von Kraftwerken sequentiell eingeschaltet und bei Absinken des Bedarfs dann jeweils in der Reihenfolge ihres Einschaltens auch wieder abgeschaltet werden (first on, last out-Prinzip). Zugleich wurde unterstellt, dass diese Rangfolge bei jedem Bedarfsereignis in gleicher Weise eingehalten wird, was sich auf die Anzahl der Einschaltvorgänge (rote Kurve) sowie die durchschnittliche Dauer des Einsatzes (blaue Kurve) auswirkt. Natürlich kann davon ausgegangen werden, dass die Betreiber sich im Endeffekt so einigen werden, dass den einzelnen Kraftwerken eine gleichmäßige Teilhabe an den hereinkommenden Aufträgen ermöglicht wird. Die grundlegenden Fakten bleiben davon jedoch unberührt und dürften die Betreiber keinesfalls erfreuen: Es gibt keine ausreichende Zahl an Aufträgen, ausgedrückt in Starts pro Jahr, und zu kurze Laufzeiten. Bei gleichmäßiger Auftragsverteilung käme man rechnerisch auf jährlich 100 Starts sowie eine mittlere Laufzeit pro Einsatz von lediglich 11 Stunden, was im Jahr somit 1.100 Einsatzstunden entspräche. Von der Auslegung her sind beispielsweise GuD-Kraftwerke wie Irsching 4 oder Irsching 5 für 200-250 Starts und 4.500 Einsatzstunden im Jahr ausgelegt. Reine Gaskraftwerke haben dagegen, wie bereits oben erwähnt, typische Jahres-Einsatzdauern von 2.700 – 3.000 Stunden. Beide Kraftwerkstypen würden daher bei den oben ermittelten Betriebsbedingungen deutlich unter ihrem Optimum arbeiten müssen, wobei die GuD-Kraftwerke mit ihrem besseren Wirkungsgrad sogar noch schlechter dastünden als einfache Gasturbinenkraftwerke. Grundsätzlich gilt jedoch für beide, dass der mit ihnen produzierte Strom wegen der ungünstigen Einsatzbedingungen erheblich teurer würde als unter normalen Umständen. (Noch außen vorgelassen wurde bei diesen Betrachtungen die Tatsache, dass selbst die schnellsten Gaskraftwerke immerhin einige Minuten brauchen, um nach einem Kaltstart auf volle Leistung zu kommen. Das dürfte für die Bewältigung solcher Gradienten, wie sie 2038 auftreten werden, längst nicht ausreichend sein).

Die Stunde der Kostenwahrheit schlägt…

Im Zusammenhang mit Betrachtungen zur Stromerzeugung mithilfe von Gaskraftwerken interessiert natürlich auch, wie viele Kraftwerke dieses Typs neu gebaut werden müssten und welche Investitions- und Betriebskosten dies erfordern würde. Die zu fordernde Kapazität kann angesichts des Spitzenbedarfs von 56 GW im Februar abgeschätzt werden. Hinzu kämen ein Sicherheitspuffer von mindestens 30 % sowie eine zusätzliche Marge von voraussichtlich 15-20 % wegen der häufig erforderlichen Revisionsstillstände. Grund hierfür ist, dass Gaskraftwerke wegen der hohen Betriebstemperaturen und aufgrund der ständig erforderlichen Schnellstarts thermisch und mechanisch enorm beansprucht werden. Somit müsste eine Gasturbinenkapazität von insgesamt rund 87 GW vorgehalten werden. Der aktuell vorhandene Gasturbinenpark in Deutschland hat eine Erzeugungskapazität von rund 27 GW, so dass noch etwa 60 GW neu zu errichten wären. Die Errichtungskosten können mit etwa 1 Mrd. €/GW veranschlagt werden, was rund 60 Mrd. € bedingen würde. Das größte Problem dürfte zunächst darin liegen, dafür überhaupt Investoren zu finden, nachdem die Kapitalgeber von Irsching 4 und Irsching 5 vom Staat übel im Regen stehengelassen wurden.

Weiterer wichtiger Kostenfaktor sind die Betriebskosten, zu denen neben den Brennstoffkosten auch die Personalkosten zählen. Kraftwerke dieser Größenordnung können nicht vollautomatisch betrieben werden, sondern benötigen eine nennenswerte Belegschaft, die in vier Schichten zur Verfügung stehen muss, auch wenn das Kraftwerk nur an 1.100 von 8.760 Jahresstunden im Einsatz ist. Nach Einschätzung von Fachleuten können z.B. bei Irsching 5 mit seinen 850 MW die jährlichen Stillstandskosten auf rund 95 Mio. € geschätzt werden. Rechnet man dies auf den gesamten Kraftwerkspark von 87 GW hoch, so landet man schon allein für diese Bilanzposition bei jährlichen Gesamt-Stillstandskosten von rund 10 Mrd. €. Das ist mehr als ein Drittel dessen, was dem Bürger aktuell über den EEG-Zuschlag aus der Tasche gezogen wird.

Zu einem entscheidenden weiteren Kostenpunkt, nämlich dem Preis des als Brennstoff eingesetzten Windgases, gibt es keine belastbaren Zahlen. Es erscheint angesichts der hier dargelegten Fakten jedoch gerechtfertigt, hier – schon äußerst wohlwollend-konservativ gerechnet – einen Arbeitspreis von 50 €-ct pro kWh anzusetzen. Bei einem Kraftwerks-Wirkungsgrad von vielleicht 40 % – wegen des voraussichtlich geringen Anteils von GuD-Kraftwerken im Mix – käme die kWh aus den Speichern somit auf brennstoffbedingte Gestehungskosten von etwa 1,25 €. Zuzüglich der sonstigen Kosten der Kraftwerke, zuzüglich Netzgebühren, Stromsteuer und nicht zu vergessen der Mehrwertsteuer.

wenn das Schmarotzen an den „Konventionellen“ endet

Das bisherige Problem der konventionellen Stromerzeuger und der Vorteil der angeblich „erneuerbaren“ Stromerzeuger bestand darin, dass die Betreiber von Wind- und Solarstromanlagen einseitigen Nutzen aus einer Infrastruktur ziehen konnten, die von den „konventionellen“ Kraftwerken auf deren Kosten aufgebaut worden war und allein unterhalten werden musste. Die Stunde der Wahrheit kommt dann, wenn diese Situation spätestens 2038 mit dem Abschalten der letzten kohle- und erdgasbefeuerten Kraftwerke endet. Bis dahin muss eine weitgehend neue, gänzlich andere und erheblich aufwendigere Infrastruktur geschaffen werden, und das Geld dazu wird man nicht mehr von den in den Untergang getriebenen konventionellen Erzeugern eintreiben können.

Schon ohne diese unabdingbar erforderliche Infrastruktur würden sich die Kosten nur allein für den forcierten weiteren Ausbau der Wind- und Solarstromerzeugung von bisher rund 1 Billion € mindestens vervierfachen. Für die neue Infrastruktur aus Netzausbau, Speicherung und Netzstützung durch Einsatz von „Windgas“-Kraftwerken kämen dann selbst bei sehr wohlwollender Betrachtung auf Deutschland vermutlich mindestens weitere 4-10 Billionen € an Kosten hinzu. Wobei die Unsicherheit nach oben sehr groß ist. Um einen bekannten Spruch unseres Ex-Umweltministers Trittin abzuwandeln: Die Kilowattstunde dürfte den Bürger in Zukunft möglicherweise noch deutlich teurer kommen als ein Maxi-Eisbecher mit Früchten, Sahne, Waffel und Schnaps. Oder darf es noch ein bisschen mehr sein?

Armageddon: Wohin mit den Windrädern?

In Deutschland befinden sich die besten Windstandorte an den Küsten sowie in den küstennahen nördlichen Bundesländern. Dort ist die Landschaft jedoch schon seit langem weitgehend mit Windkraftanlagen zugepflastert. Aber auch in den daran nach Süden anschließenden Bundesländern wird das Panorama bereits durch unzählige Windenergieanlagen verschandelt, so z.B. entlang der Autobahn A 44 (Dortmund-Kassel). Noch weiter südlich – also in Rheinland-Pfalz, im Saarland, in Bayern oder Baden-Württemberg – weht der Wind so schwach, dass sich hier die Aufstellung von WEA-Anlagen trotz zusätzlicher Förderungen für „windschwache Standorte“ einfach nicht mehr rechnet, Bild 4.

Bild 4. Eine schlechte Standortqualität kann die mittleren Stromgestehungskosten einer Windenergieanlagen gegenüber einem optimalen Standort fast verdoppeln (Grafik: Deutsche Windguard)

Insgesamt gab es 2018 in Deutschland Onshore – d.h. an Land – rund 29.000 Windenergieanlagen, die eine Nennkapazität von 52.014 GW aufwiesen und zusammen 89 TWh Strom produzierten. Da die Gesamtfläche Deutschlands bei rund 357.000 km2 liegt, stand somit rechnerisch auf jeder 12-km2 – Parzelle eine WEA.

Um bei gleichbleibendem Verbrauch 2038 eine „fossilfreie“ Stromproduktion sicherzustellen, müsste nach dem hier verwendeten Modell allein die Onshore-Kapazität auf 250.000 GW gesteigert werden, die dann 430 TWh zu liefern hätten. Da die „windhöffigsten“ Standorte jedoch besetzt sind, müssten neue Anlagen auch in windschwächeren Gebieten errichtet werden. Für unsere Betrachtung unterstellen wir deshalb, dass die zusätzlichen WEA trotz möglicher technologischer Fortschritte pro Anlage im Jahr 2038 nur die gleiche Menge an Strom liefern wie auch im Jahr 2018. Demnach müssten auf der Fläche der Bundesrepublik dann statt wie bisher 29.000 künftig 139.490 WEA aufgestellt werden, so dass die verfügbare Parzellengröße rein rechnerisch von 12 km2 auf nur noch 2,6 km2 schrumpfen würde. Die jeweilige Parzelle hätte demnach eine Kantenlänge von nur 1,6 km, was auch dem mittleren Abstand zwischen zwei WEA-Anlagen entsprechen würde. Flächendeckend über ganz Deutschland, in Seen und im Gebirge ebenso wie auch in Städten. Anders ausgedrückt: Ein Alptraum, der schon lange vor seiner Vollendung zu einem Volksaufstand führen dürfte. Doch dazu wird es gar nicht erst kommen, weil….

Die Regierung weiß seit längerer Zeit, dass die „Energiewende“ nicht machbar ist

Als dreistestes Täuschungsmanöver im Zusammenhang mit der „Dekarbonisierung“ und der damit untrennbar verknüpften „Energiewende“ kann man die Tatsache werten, dass der Politik spätestens seit März 2019 Schwarz auf Weiß bekannt ist, dass die für eine vollständige „Energiewende“ erforderlichen Ausbaumöglichkeiten gar nicht zur Verfügung stehen. In einem Dokument über die Grenzen einer Ausweitung der Onshore-Windstromproduktion in Deutschland des Umweltbundesamts (UBA) ist belegt, dass Deutschland keine Möglichkeit hat, seine Windstrom-Produktion auch nur näherungsweise auf das in Teil 5 dieser Artikelserie skizzierte Niveau von 450 TWh anzuheben. Dazu fehlt es schlicht an verfügbaren Flächen, Bild 5.

Bild 5. Das weitere Ausbaupotenzial für die Onshore-Windenergie beläuft sich selbst bei brutalster Platzierung von Anlagen direkt an Wohnhäusern auf nur noch ca. 80 GW (mit Bayern 86 GW) (Grafik: Umweltbundesamt)

Das Potenzial der Onshore-Windenergie ist in Deutschland demnach wie folgt begrenzt: Zu den per 1.1.2019 vorhandenen 53 GW kommen noch maximal 86 GW Ausbaupotenzial sowie weitere 14 GW Repoweringpotenzial. Hinzu kämen nach aktuellen Unterlagen des UBA noch bis zu 25 GW Offshore-Kapazität. Zusammen sind dies 178 GW an Windenergiekapazität. Man vergleiche dies mit den 277.748 GW, die schon allein dafür erforderlich wären, um nach dem Abschalten aller konventionellen Kraftwerke die Stromproduktion des Jahres 2018 aufrechtzuerhalten.

Umweltbundeamt: Zum Teufel mit den Menschen, retten wir lieber das Klima!

Wie man sieht, wäre es nach den Untersuchungen des UBA – das als Bundesbehörde zum Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz und nukleare Sicherheit (BMU) gehört – gar nicht möglich, auch nur die bescheidenen Ziele der vorliegenden Simulation für das Jahr 2038 zu erreichen. Selbst dann, wenn man die Abstandsregelungen, die dem Schutz der Bewohner dienen sollen, restlos missachten würde. Von den Belangen des Naturschutzes für Vögel, Fledermäuse und Insekten, denen das das Amt (Motto: „Für Mensch und Umwelt“) eigentlich auch dienen sollte, noch gar nicht zu reden. Eigentlich heißt es auf der Homepage des Amtes vollmundig: „Als Deutschlands zentrale Umweltbehörde kümmern wir uns darum, dass es in Deutschland eine gesunde Umwelt gibt, in der Menschen so weit wie möglich vor schädlichen Umwelteinwirkungen, wie Schadstoffen in Luft oder Wasser, geschützt leben können“. Wie stellt man sich beim UBA eigentlich eine „gesunde Umwelt“ vor, wenn der Artenschutz nicht gewährleistet wird, Bild 6?

Bild 6. Von einer „klimarettenden“ WEA der Windfarm Goldener Steinrück bei Ulrichstein-Helpershain hingeschlachteter Graukranich (Foto: Rüdiger von dem Borne)

Tatsache ist leider, dass man dort die Prioritäten ganz anders sieht, sobald es um „die Rettung des Klimas“ geht: Beim Thema „Schädigung der menschlichen Gesundheit durch Infraschall“, ein Gebiet, auf dem ungeachtet stark vernachlässigter Forschung eindeutige Organschädigungen beim Menschen klinisch dokumentiert wurden, scheint man beim UBA den Schutz des Menschen zu vergessen. Dabei wird ignoriert, dass die teils regelrecht beängstigenden negativen Effekte von Infraschall auf den Menschen längst bekannt und bewiesen sind. So gibt es im Bereich von Militär und Polizeien bereits seit Jahren konkrete Bestrebungen, durch den Einsatz von Infraschallwaffen z.B. Aufstände „zu bekämpfen“. Die zynische Ignoranz des UBA gegenüber den aus dem WEA-Infraschall herrührenden gesundheitlichen Risiken dokumentiert sich in der folgenden Stellungnahme:

Aus Sicht des Umweltbundesamts stellen pauschale Siedlungsabstände daher nicht nur ein ungeeignetes Instrument zur Steigerung der Akzeptanz gegenüber der Windenergienutzung dar, sondern sie gefährden eine erfolgreiche, die Belange von Mensch und Umwelt gleichermaßen berücksichtigende Umsetzung der Energiewende in substantieller Weise“.

Auf gut Deutsch ausgedrückt: Der Mensch – also die eigene Bevölkerung – gilt dem UBA weniger als der vorgebliche „Klimaschutz“. Da kann einem nur noch die Spucke wegbleiben. Diese Behörde, deren neuer Chef mit dem Ziel antritt, den Deutschen eine Erziehung weg von Fleischkonsum, Fernreisen oder „tonnenschweren PKW“ zu verpassen, sollte schnellstens aufgelöst werden.

Wohin mit neuen WEA?

In einem Punkt hält der Autor die Vorstellungen des UBA zur Verkürzung des Abstandes neuer WEA von Wohngebäuden für sehr interessant: So wäre es für eine Klimakanzlerin doch sehr symbolträchtig und vorbildlich, je eine 7-MW-WEA direkt vor dem Bundeskanzleramt, dem Bundestag und sämtlichen Ministerien zu platzieren. Warum eigentlich nicht, da die eigene Behörde dies ja für zulässig hält? Da sollte die Politik doch mit gutem Beispiel vorangehen, oder? Vor allem in Großstädten wie Berlin, München, Hamburg oder Düsseldorf gibt es reichlich Platz und Grünflächen, wo sich ein solches Symbol des heldenhaften Kampfes gegen den Klimawandel wirklich schick machen würde. Besonders in der Pflicht sähe der Autor speziell solche Gemeinden, welche den Klimanotstand beschlossen haben. Dort bitte wenn irgend möglich direkt auf dem Rathausvorplatz installieren. Und eigentlich sollten Villenviertel, die sich durch einen besonders hohen Anteil an „grünen“ Wählern auszeichnen, um die Ehre wetteifern dürfen, sich ein solches Symbol des Klimaheldentums direkt in Windrichtung vor die Nase zu setzen. Statt wie bisher nur die Landbevölkerung damit zu beglücken.

Trotz Unmöglichkeit – Was wäre wenn?

Obwohl es ja bereits anhand amtlicher Zahlenwerke nachgewiesen ist, dass eine auf Wind- und Sonnenstrom aufbauende „Energiewende“ oder gar „Dekarbonisierung“ nicht durchführbar wäre, wollen wir der Vollständigkeit halber hier doch noch versuchen abzuschätzen, wie viele WEA nötig wären, um die in Teil 1 der Artikelserie berechneten 1.548 TWh/a zu erreichen. Mit der hier für das Jahr 2038 durchgerechneten Simulation wären wir bei 539 TWh/a und 139.490 WEA bei einem Kostenaufwand, der bereits oberhalb von 10 Bio. € liegen dürfte. Eine weitere Steigerung der Offshore-Installationen wäre aus den bereits genannten Gründen nicht mehr möglich, und auch die Fotovoltaik dürfte bereits an ihren Ausbaugrenzen angelangt sein. Somit wäre die gesamte Steigerung ausschließlich durch WEA an Land zu erbringen. Die Rechnung ginge dann wie folgt:

Noch Fragen dazu? Ach ja, die Kosten. Die Kosten dürften im Prinzip dem gleichen Multiplikator unterliegen wie die Zahl der WEA. D.h., aus den bereits für 2038 geschätzten mehr als 10 Billionen € würden somit vermutlich 25 Billionen €. Mindestens. Macht pro Nase der Bevölkerung ca. 300.000 €. Dafür bekäme man je nach Lage möglicherweise gleich die gesamte Eisdiele samt Eintragung im Grundbuch.

Die neue deutsche Klimapolitik: Schluss mit dem Blindflug…

Das Ergebnis der bis hierher durchgeführten Analyse lässt im Prinzip nur einen Schluss zu: Die Bundesregierung und die sogenannten Altparteien ignorieren die Realitäten ihrer „Dekarbonisierungs“-Politik in einem Maße, dass man dahinter mehr als nur Unfähigkeit vermuten darf. Mit einem „Klimapaket“ von 54 Mrd. € bis 2023 bzw. von 100 Mrd. € bis 2030 ist eine „Energiewende“ nicht einmal ansatzweise zu finanzieren, zwischen Anspruch und Wirklichkeit liegt ein Faktor von bis zu 100 oder mehr. Und dabei haben wir uns hier nur mit dem Thema „Stromerzeugung“ beschäftigt. Für eine wirkliche „Dekarbonisierung“ der Volkswirtschaft müssten wir uns noch mit den Aspekten Verkehr, Gebäudeheizung und Warmwasser, industrielle Prozesse (CO2-freie Herstellung von Stahl, Aluminium, Beton, Kunststoffen, Chemikalien, Pharmazeutika usw.) sowie der vollständigen Umstellung der Landwirtschaft auf biologische Erzeugung hauptsächlich veganer Produkte beschäftigen. Auch das wäre alles nicht zum Nulltarif zu haben, und auch hier wäre die Billion die neue Milliarde. Was also ist davon zu halten, wenn unsere Bundeschefin die Fridays-for-Future-Kinder lobt und Greta in der UNO hofiert, während ihr „Klimakabinett“ Taten folgen lässt, die ihren Worten so gar nicht entsprechen? Tatsache ist nämlich, dass in den „Eckpunkten für das Klimaschutzprogramm 2030“ die „Energiewende“ eher nebenher erwähnt wird. Zur „Fotovoltaik“ findet sich lediglich der Vermerk, dass der bisherige Deckel von 52 GW aufgehoben wird. Für Offshore-Windenergie wird das schon seit längerem bekannte Ausbauziel von 20 GW proklamiert. Bei Onshore-WEA werden Mindestabstände zur Wohnbebauung von 1.000 m befürwortet, was den Empfehlungen des UBA widerspricht. Damit sinkt das Ausbaupotenzial bei Neuanlagen von rund 80 GW auf nur noch 63 GW (Abstand zu reiner Wohnbebauung) bzw. 43 GW (Abstand zu Wohnbauflächen und Flächen gemischter Nutzung), siehe Bild 5. Ähnlich deutlich wird auch das Repowering-Potenzial von 14 GW auf nur noch 9,3 GW bzw. 5,6 GW verringert. Trotz allen Geredes über „Klimaschutz“ und „Dekarbonisierung“ beinhaltet dieses Papier bezüglich des weiteren Ausbaus der „erneuerbaren Energien“ aus Wind und Sonne keinerlei Visionen und lässt daher nur einen Schluss zu:

lieber gleich mit Schwung vor die Wand

Die Regierungsparteien können nicht so dumm sein, nicht zu erkennen, dass ihre Maßnahmen nicht die geringste Aussicht haben, irgendwie die vorgeblichen Ziele zu erreichen. Das ganze Maßnahmenpaket ist nichts weiter als eine Sammlung von Beruhigungspillen. Man weiß, was man nichts von dem erreichen kann, was die von der Kanzlerin selbst herbeigerufenen Quälgeister vor dem Kanzleramt mitsamt etlicher völlig durchgeknallter Medienvertreter verlangen, und versucht einfach nur noch, sich über die Rest-Regierungszeit zu retten. An dieser Situation trägt Fr. Merkel die Hauptschuld, hat sie doch selbst über ihre gesamte Amtszeit hinweg alles getan, um die Klimahysterie national wie auch international zu fördern. Jetzt nimmt das Ganze endgültig überhand, die bisherigen Klimaaktivisten entpuppen sich immer mehr als Klima-Jihadisten, und Merkel müsste jetzt eigentlich nach dem Zaubermeister rufen:

Die ich rief, die Geister, werd ich nun nicht los“

Stattdessen versucht sie, sich wegzuducken. In zwei Jahren haben sie und viele der anderen Verantwortlichen die Rente durch und werden das sinkende Schiff verlassen. Mögen Habeck und Baerbock dann zusehen, wie sie den rauchenden Trümmerhaufen wieder ans Laufen bekommen.

Und der Bürger? Wird wie üblich die Zeche begleichen müssen. Vielleicht – aber auch nur vielleicht – wird der eine oder andere bei unseren westlichen Nachbarn dann doch mal anfragen, bei welchem Versandhandel denn gelbe Warnwesten günstig zu haben sind.

Hintergrundliteratur

Limburg, M.; Mueller, F.: Strom ist nicht gleich Strom TvR Medienverlag, Jena, ISBN 978-3-940431-54-7




Die Klima-Bewegung verstehen, Teil 2: Noble Cause Corruption

Zunächst etwas zum Hintergrund. Der Terminus Korruption aus edlen Gründen [Noble Cause Corruption, der im Folgenden unübersetzt beibehalten wird, Anm. d. Übers.] wurde von Edwin Delattre im Jahre 1989 geprägt in Relation zu Polizisten, welche unethische Mittel anwenden, um etwas zu erreichen, was sie als gut für die Öffentlichkeit einschätzten. Derartige Maßnahmen stellen also das Ergebnis über alles andere. Es war okay zu lügen oder das Gesetz zu brechen im Namen des Nutzens für die Öffentlichkeit, und derartige Maßnahmen waren alles von falschen Bestätigungen [confirmation bias] bis hin zu direkt unehrlichem Verhalten wie erzwungene Bekenntnisse und Manipulation von Belegen. Der „Nobel“-Aspekt ergibt sich dabei aus einer moralischen Verpflichtung, die Welt zu einem sichereren Ort zu machen.

In diesem Zusammenhang steht das Verhalten unter zwei miteinander konkurrierenden Gedanken in der Welt der Ethik (www.policeone.com):

Das deontologische ethische System

Dieses wurzelt in dem Glauben, dass das, was man tut, und warum man es tut, wichtiger ist als die Folgen dieses Verhaltens.

Das teleologische System

Dieses System umfasst die entgegen gesetzte Perspektive. Diesem Gedanken zufolge sind die Folgen des Handelns von größter Bedeutung, und nicht, ob die Maßnahmen dahin inhärent positiv oder negativ waren.

Keiner dieser Gedanken hat irgendeine besondere Vormachtstellung. Falls die Mittel zum Erreichen des Ergebnisses im teleologischen System unethisch oder illegal sind, wird dieses Verhalten als Noble Cause Corruption klassifiziert.

Die Vorläufer der gegenwärtigen globalen Umweltbewegung datieren vielleicht schon im Jahre 1962 aufgrund des Artikels von Rachael Carson mit dem Titel Silent Spring. Beim Betrachten ihrer Kampagne gegen den weit verbreiteten Gebrauch von Insektiziden wurde argumentiert, dass „ihre Wissenschaft zweifelhaft war, dass sie nur Daten heranzog, die ihre Thesen stützten, dass Insektizide schlecht waren, dass die Industrie schlecht war und dass jedweder nicht hinter ihrem Anliegen stehende Wissenschaftler schlecht war“ (hier). Ich überlasse es anderen abzuschätzen, wie viele Todesopfer das Verbot von DDT allein in den USA im Jahre 1972 und danach auch weltweit gefordert hat, aber der eindeutige Sieger war die aufkeimende Umweltbewegung, der Environmental Defense Fund EDF und ultimativ die Gründung der EPA im Jahre 1970.

Ebenfalls im Jahre 1970 hieß es in einer Konferenz über die Study of Critical Environmental Problems (SCEP), dass Emissionen aus den Triebwerken des geplanten Überschall-Verkehrsflugzeugs die Ozonschicht zerstören würden, was alle möglichen menschlichen Katastrophen zur Folge hätte. Diese Behauptung wurde in keiner Weise durch Wissenschaft gestützt, führte jedoch zur Gründung des CIAP-Forschungsprogramms, ausgestattet mit 21 Millionen Dollar. Im Jahre 1971 lehnte der US-Kongress jede weitere staatliche Förderung des Überschallflugzeuges ab, wobei aber vielleicht auch andere, ökonomische Überlegungen eine Rolle gespielt haben.

Das Thema Ozon wurde im Jahre 1974 hochgespült mit der Behauptung von Molina und Rowlands, dass Fluor-Chlor-Kohlenwasserstoffe (CFCs) die Ozonschicht zerstören. Dies führte zu einer steigenden Anzahl experimenteller Studien durchweg bis Mitte der 1980-er Jahre mit der Entdeckung des Ozonlochs über dem Südpol und Befürchtungen eines ähnlichen Ereignisses auf der Nordhemisphäre. Allerdings – wie es später zur Norm werden sollte – wurde die Wissenschaft hinter diesen Behauptungen niemals verifiziert; einige Daten waren fragwürdig, die Modellierung brachte andere Ergebnisse als die Beobachtungen, und natürliche Fluktuationen waren nicht berücksichtigt. Es führte jedoch zum Montreal-Protokoll des Jahres 1987 und zum Verbot von CFCs.

Andere Themen folgten auf ähnlichem Wege, darunter der nukleare Winter, saurer Regen, genmanipulierte Nahrungsmittel (GM), Impfschutz und jüngst Glyphosat. Hinter allen steht die gleiche fragwürdige Wissenschaft, die Furcht um die menschliche Existenz und schließlich politische Festlegungen. Ich möchte nicht in das Für und Wider dieser Politik einsteigen, sondern vielmehr zeitlich etwas zurückgehen und einigen der Ereignisse parallel zu Obigem auf die Spur kommen, was ultimativ in Kombination zusammenkam beim gegenwärtigen Aufkommen des globalen Umweltaktivismus‘ als mächtige soziale und politische Kraft. Hierzu muss man im Hinterkopf behalten, dass auch andere Ereignisse oftmals Maßnahmen und Folgen beeinflussten. Im Einzelnen war es der Wettbewerb zwischen Kernkraft- und Kohle-Lobby in Europa und den USA sowie das OPEC-Ölembargo der Jahre 1973 und 1979, welche die öffentliche und politische Wahrnehmung dieser vitalen Energiequellen maßgeblich beeinflusste. Dabei hoffe ich zum Ausdruck bringen zu können, dass Noble Cause Corruption ganz offensichtlich zu einem akzeptierten Modus Operandi geworden ist.

Um einige der Ursprünge der globalistischen Bewegung zu verfolgen, muss man zum Club of Rome zurückgehen, welcher im Jahre 1968 gegründet worden war von Mitgliedern der Original Morgenthau-Gruppe auf einem Treffen im Privathaus von Rockefeller in Bellagio, Italien. Jenes Treffen ist organisiert worden von Aurelio Peccei, einem italienischen Industriellen, der enge Beziehungen zur Olivetti Corporation und Fiat pflegte. Er behauptete, Lösungen zu haben für Frieden und Wohlstand in der Welt. Am besten könne man dies erreichen mittels einer „New World Order“.

Man initiierte eine Anzahl primitiver Computer-Modellierungen, um vermeintlich zu demonstrieren, dass Ressourcen demnächst zu Ende gehen werden, was zu einer Prophezeiung eines totalen sozialen Zusammenbruchs führte. Die Ergebnisse wurden im Jahre 1972 in einem Report veröffentlicht mit dem Titel [übersetzt] „Die Grenzen des Wachstums“. Von dem Report wurden 30 Millionen Ausgaben in der Welt verteilt.

Ebenfalls im Jahre 1968 schlug der Schwede Bert Bolin dem United Nations Economic and Social Council (ECOSOC) vor, eine UN-Konferenz abzuhalten, welche sich auf Wechselwirkungen zwischen Mensch und Umwelt konzentrieren sollte. Der ECOSOC verabschiedete eine diesen Gedanken stützende Resolution, der zufolge eine Konferenz im Jahre 1972 anzuberaumen sei. Gefordert wurde dafür eine Anzahl von Berichten vom UN-Generalsekretär und dass sich die Konferenz mit „Förderung und der Verabschiedung von Leitlinien für Maßnahmen seitens nationaler Regierungen und internationaler Organisationen bzgl. Umweltthemen“ befassen sollte. Die Vorbereitungen für die Konferenz waren extensiv, dauerten 4 Jahre unter Beteiligung von 115 Regierungen und kosteten über 30 Millionen Dollar.

UN-Generalsekretär U Thant lud in der Folge den Kanadier Maurice Strong ein, als Generalsekretär der Konferenz zu fungieren. Das war die Anerkennung dafür, dass der kanadische Diplomat (unter Pierre Trudeau) ein solches Projekt angestoßen und bereits zwei Jahre damit gearbeitet hatte. Begleitend dazu hatte er einen Report über den Zustand des Planeten in Auftrag gegeben mit dem Titel Only One Earth: The Care and Maintenance of a Small Planet unter Mitarbeit von Barbara Ward und Rene Dubos. In dem Report wurden die Ergebnisse von 152 „Experten“ aus 58 Ländern zusammengefasst als Vorbereitung auf die Konferenz in Stockholm. Das war der erste „State of the Environment“-Report der Welt.

Die UN-Konferenz zu Umwelt und Mensch wurde schließlich vom 5. bis zum 16. Juni in Stockholm abgehalten. Eingebettet i die zahlreichen Proklamationen waren Bemerkungen zu Umwelt und der Rolle des Menschen dabei, darunter:

Wir sehen um uns herum immer mehr Belege einer vom Menschen verursachten Schädigung in vielen Regionen der Erde: gefährliche Niveaus von Verschmutzung in Wasser, Luft, Boden und Lebewesen; große und unerwünschte Störungen des ökologischen Gleichgewichts der Biosphäre; Zerstörung und Ausbeutung unersetzlicher Rohstoffe sowie erhebliche Defizite, welche schädlich sind für die physische, mentale und soziale Gesundheit des Menschen in der vom Menschen beeinflussten Umwelt, besonders in der Umwelt von Leben und Arbeit“.

Es gab Präzisierungen (Prinzip 6): „Die Freisetzung giftiger Substanzen oder anderer Substanzen sowie das Freisetzen von Wärme in solcher Menge oder Konzentrationen, dass die Kapazität der Umwelt nicht mehr ausreicht, sie zu neutralisieren, muss beendet werden um sicherzustellen, dass Ökosysteme nicht unter ernsten und irreversiblen Schäden leiden“.

Schließlich setzte die Stockholm-Konferenz das Thema Umwelt auf eine internationale Umwelt-Entwicklungs-Agenda. Dies führte im Dezember 1972 seitens der UN-Vollversammlung zur Gründung des United Nations Environment Programme (UNEP) mit dem Hauptquartier in Nairobi. Strong wurde zum Geschäftsführenden Direktor des UNEP gewählt. Als Leiter des UNEP berief Strong das erste internationale Experten-Treffen zum Thema Klimawandel ein.

Das IPCC wurde dann im Jahre 1988 von zwei UN-Organisationen ins Leben gerufen, nämlich dem UNEP und der WMO. Das IPCC erhielt den Auftrag, „der Welt eine objektive, wissenschaftliche Sicht des Klimawandels zu vermitteln sowie dessen politische und ökonomische Auswirkungen“.

Das klingt wie ein lobenswertes Ziel, aber in Wirklichkeit war die UNEP-Agenda bereits klar umrissen, und bis zum Jahr 2003 wurde dieser Auftrag geändert zu „Verständnis der wissenschaftlichen Basis des Risikos eines vom Menschen induzierten Klimawandels, dessen potentielle Auswirkungen sowie Optionen für Anpassung und Abschwächung“. Damit verschob sich der Schwerpunkt vollständig zu einem „vom Menschen induzierten Klimawandel“.

Das IPCC war die ideale Plattform für NGOs wie Greenpeace, den World Wildlife Fund, Friends of the Earth, die Davis Suzuki Foundation und den Environmental Defense Fund, um ihre grün/linken Agenden voranzutreiben – entweder durch Lobbyismus oder direkte Einwirkung auf das Personal. Der erste Zustandsbericht wurde im Jahre 1990 fertig gestellt, und in der darin vorgestellten Summary for Policymakers hieß es, dass man sich „sicher sei, dass Emissionen aufgrund menschlicher Aktivitäten die atmosphärische Konzentration von Treibhausgasen substantiell steigen lassen, was im Mittel zu einer zusätzlichen Erwärmung der Erde führt“.

Ebenfalls im Jahre 1988 hielt das US-Senatskomitee für Energie und nationale Ressourcen eine Anhörung ab unter Leitung des Senators der Demokraten Al Gore. Star-Zeuge James Hansen (welcher danach zum Wissenschaftsberater von Al Gore wurde) sagte unmissverständlich, dass „die globale Erwärmung ein Niveau erreicht habe, dass wir sie mit einem hohen Grad an Vertrauen als eine Relation von Ursache und Wirkung zwischen Treibhauseffekt und beobachteter Erwärmung beschreiben können … Sie ist bereits im Gange“ und „Der Treibhauseffekt ist erkannt und ändert unser Klima jetzt schon … wir haben den Punkt erreicht, an dem der Treibhauseffekt bedeutsam ist“. Hansen sagte weiter, dass sich die NASA „zu 99% sicher war, dass die Erwärmung verursacht worden ist durch die Akkumulation von Treibhausgasen in der Atmosphäre und nicht einer zufälligen Fluktuation geschuldet ist“.

Bislang scheint sich – oberflächlich zumindest – alles immer noch ausschließlich um die Umwelt und die Rettung des Planeten zu drehen.

Allerdings veröffentlichte der Club of Rome im Jahre 1991 seinen zweiten Bericht mit dem Titel The First Global Revolution von Alexander King und Bertrand Schneider. Erklärtes Ziel des Berichtes war es, „eine Strategie zu umreißen, um die Regierungen der Welt zu mobilisieren, für die Umweltsicherheit und für saubere Energie einzutreten, indem die Welt von einer militärischen zu einer zivilen Ökonomie geändert wird, um der globalen Erwärmung zu begegnen und das Energieproblem zu lösen. Außerdem sollte gegen Armut und Ungleichheiten zwischen der nördlichen und der südlichen Hemisphäre vorgegangen werden“.

Während der Bericht viele Bedrohungen der Umwelt abdeckte, wurde die Erwärmung infolge CO2 besonders erwähnt. Aber schließlich wurde die wahre Strategie der Globalisierung, versteckt unter dem Banner des Umweltaktivismus, ganz klar benannt:

Es sieht so aus, als bräuchte die Menschheit eine gemeinsame Motivation, nämlich einen gemeinsamen Gegner, damit alle zusammenarbeiten in dem Vakuum. Eine solche Motivation muss gefunden werden, um die uneinigen Nationen zusammenzubringen, um gegen einen äußeren Feind zu kämpfen, sei es nun ein realer Feind oder einer, der nur zu diesem Zweck erfunden worden ist“.

Der gemeinsame Feind der Menschheit ist der Mensch“.

Auf der Suche nach einem neuen Feind, der uns einigen könnte, kamen wir auf die Idee, dass Verschmutzung, der Gedanke der globalen Erwärmung, Wasserknappheit, Hunger und so weiter hierfür vortrefflich geeignet seien. Alle diese Gefahren werden durch menschliche Eingriffe verursacht, und nur mit geändertem Verhalten kann diesen Gefahren begegnet werden. Der wirkliche Feind ist folglich die Menschheit selbst“.

Die bisherigen Demokratien haben während der letzten 200 Jahre gut funktioniert, aber jetzt scheinen sie sich in einer Phase der kompletten Stagnation zu befinden ohne wesentliche Anzeichen für reale Führung und Innovation“.

Demokratie ist kein Patentrezept. Sie kann nicht alles organisieren und ist sich ihrer eigenen Grenzen nicht bewusst. Diese Fakten müssen direkt angegangen werden. So blasphemisch das klingen mag: die Demokratie ist nicht länger geeignet, um die vor uns liegenden Aufgaben zu bewältigen. Die Komplexität und die technische Natur vieler der heutigen Probleme erlaubt es gewählten Repräsentanten nicht immer, kompetente Entscheidungen zur rechten Zeit zu treffen“.

Inzwischen hat Stephen Schneider das Dilemma für die Wissenschaftler erkannt. Im Discover Magazine (Oktober 1989, Band 10 Nr. 10) wird er mit den bekannten Worten zitiert:

Einerseits sind wir als Wissenschaftler dem wissenschaftlichen Verfahren verpflichtet, das heißt wir sind verpflichtet, die Wahrheit zu sagen, die ganze Wahrheit und nichts als die Wahrheit – was bedeutet, dass wir alle Zweifel und Schwächen, jedwedes wenn und aber nennen müssen.

Andererseits sind wir aber nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen wollen wir die Welt zu einem besseren Ort machen, was in diesem Zusammenhang bedeutet, dass wir das Risiko eines potentiell gefährliche Klimawandels reduzieren müssen. Um das zu tun, brauchen wir einige umfassende Unterstützung, um die Vorstellungen der Öffentlichkeit zu gewinnen. Das umfasst natürlich eine umfangreiche Medien-Berichterstattung. Also müssen wir ängstigende Szenarien verbreiten, vereinfachte dramatische Erklärungen abgeben und irgendwelche Zweifel, die wir vielleicht haben, unter den Teppich kehren. Diese ,doppelte ethische Bindung‘, in der wir uns häufig wiederfinden, kann nicht durch irgendwelche Formeln gelöst werden. Jeder von uns muss für sich selbst entscheiden, welches das richtige Gleichgewicht ist, entweder ehrlich oder effektiv zu sein. Ich hoffe, dass beides zugleich möglich ist“.

Im Jahre 1992 organisierten die UN dann eine Conference on Environment and Development (den Rio-Gipfel, welcher dann zur Gründung des United Nations Framework Convention on Climate Change UNFCCC führte). Maurice Strong wurde zum Generalsekretär berufen. Der Tenor der gesamten Konferenz kommt am deutlichsten in seiner Eröffnungsrede zum Ausdruck:

Was ist, falls eine Gruppe von Führern der Welt beschließt, dass das wesentliche Risiko für die Erde die Aktivitäten der reichen Länder sind? … Um den Planeten zu retten, beschließt die Gruppe: Besteht nicht die einzige Hoffnung des Planeten darin, dass die industrialisierten Nationen kollabieren? Liegt es nicht in unserer Verantwortung, genau das zuwege zu bringen? (Quelle)

Das Kyoto-Protokoll – aufgebaut auf dem UNFCCC-Rahmenwerk von Rio – sollte im Jahre 1997 die Staaten zu Reduktionen von Treibhausgas-Emissionen (hauptsächlich CO2) verpflichten. Leiter der US-Delegation war Timothy Wirth, der sagte:

Wir müssen weiter auf dem Thema globale Erwärmung herumreiten! Selbst falls die Theorie der globalen Erwärmung falsch sein sollte, tun wir das Richtige hinsichtlich Wirtschafts- und Umweltpolitik“.

Das ist Noble Corruption vom Feinsten, ebenso wie Folgendes:

Im Jahre 2010 sagte Ottmar Edenhofer, Vizevorsitzender der IPCC-Arbeitsgruppe III:

Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist. Stattdessen geht es bei der Klimapolitik nur darum, wir wir de facto das Weltvermögen umverteilen“

und

Klimapolitik hat fast nichts mehr mit Umweltschutz zu tun. Der nächste Welt-Klimagipfel in Cancun ist in Wirklichkeit ein Wirtschaftsgipfel, auf welchem die Umverteilung der Ressourcen der Welt verhandelt wird“. (Quelle)

Die Chefin des UNFCCC Christina Figueires gab Ähnliches zu Protokoll:

Dies ist das erste Mal in der Menschheitsgeschichte, dass wir uns zur Aufgabe machen, absichtlich innerhalb eines bestimmten Zeitraumes das Modell der Wirtschaftsentwicklung zu verändern, welches seit mindestens 150 Jahren vorherrschend war, seit der industriellen Revolution. Das wird nicht über Nacht gehen und auch nicht auf einer einzelnen Klimawandel-Konferenz. So wird es einfach nicht laufen. Es ist ein Prozess wegen der Tiefe der Transformation“. (Quelle)

In diesem Jahr 2019 wurde noch unverhohlener der Link zu einer globalen sozialistischen Agenda hervorgehoben, und zwar von Richard Lachmann von den Democratic Socialists of America:

Klimawandel ist ein Thema, um welches Menschen sich über Grenzen hinweg vereinigen können in Opposition sowohl gegen Faschisten als auch gegen Linke. Es bietet einen Rahmen, in dem Sozialisten Innen- und Außenpolitik zusammenführen können, die ideologische und die praktische, und lauthals alle herausfordern, denen es egal ist.

Klimawandel wird eine Öffnung erzeugen für sozialistische Politik, welche den Link zwischen kapitalistischem Wachstum und politischer Legitimität aufbricht“ (Quelle)

Die UN fordern nach wie vor, den Wohlstand der entwickelten Länder diesen wegzunehmen und den Ländern der Dritten Welt zukommen zu lassen unter dem Vorwand des Klimawandels. Im Jahre 2019 wurde in einem Report der United Nations Conference on Trade and Development (UNCTAD) das Mantra weitergesponnen:

Die Bedrohung durch globale Erwärmung erfordert sofortige Maßnahmen, um Treibhausgas-Emissionen zu reduzieren und das Erdklima zu stabilisieren. Jüngsten Studien des IPCC haben neben anderen klar gemacht, dass falls wir damit scheitern, wir nur noch wenige Jahrzehnte haben bis zum Eintreten katastrophaler, vom Klima verursachter Verluste“.

Dieses Problem kann den Studien zufolge nur gelöst werden unter einem neuen Global Green New Deal mit folgenden Bedingungen: Neue Kontrolle über Geldbewegungen; mehr Maßnahmen von entwickelten Ländern, auf souveräne Welt-Fonds zielen und einer Minimum-Steuerrate für Multi-Nationale. Das ist Globalisierung nach UN-Lesart.

George Orwell war sehr weitsichtig in seinem Buch 1984:

Macht ist kein Mittel, sie ist ein Endpunkt. Man errichtet keine Diktatur, um eine Revolution abzusichern; sondern man macht die Revolution, um die Diktatur zu etablieren“.

Was die Kohle betrifft: das unehrliche Verhalten zum Vorantreiben des Molochs um globale Erwärmung/Klimawandel erfolgte zum größten Teil durch Appelle an die Gefühle: Angstkampagnen wie das Aussterben der Eisbären, im Meer versinkenden Inseln, extreme Hitze und Dürren, Verschwinden von Gletschern und Eiskappen, Hurrikane, Tornados, sich in einem sauren Ozean auflösende Korallen nebst allen Arten von Pestilenz und Verdammung. In den wenigen Fällen, in denen irgendwelche Daten zur Stützung der Behauptungen angeführt werden, sind diese Daten entweder cherry-picked oder basieren einfach auf Modellierungen, die in der Modellwelt hohe Glaubwürdigkeit haben, aber nachweislich kaum Relevanz für die hoch komplexe reale Welt. Dieses Verhalten und das unehrliche Manipulieren von Daten im Sinne der katastrophalen globalen Erwärmung/Klimawandel-Agenda durch Einzelpersonen (man denke an Klimagate 2009), durch Universitäten und Organisationen wie das IPCC, NOAA, NASA oder dem australischen BOM, um nur einige wenige zu nennen (alle sind auf Websites u. A. bei WUWT gut dokumentiert) sind weitere Beispiele der Noble Corruption im lokalen Rahmen: Man prostituiert die Wissenschaft, um fortgesetzte Finanzierung sicherzustellen, alles für den Noble Cause der Rettung des Planeten.

Es ist klar, dass alle oben zitierten führenden Akteure allesamt den „Noble Cause“ der Globalisierung teilen, entweder unter dem sozialistischen Banner oder irgendwelcher spezifischer Autoritäts-Institutionen wie den UN, mittels Einreißen erfolgreicher industrieller Ökonomien und Umverteilung von deren Wohlstand. Die betrügerische Grundlage zum Erreichen dieses Zieles ist die Behauptung, die Umwelt zu retten mittels Brandmarkung von CO2 als Verschmutzer und Implementierung von Strategien, um die vermeintlichen katastrophalen Konsequenzen von globaler Erwärmung/Klimawandel abzuschwächen. Der augenblicklich auftretende Kollateralschaden, der um der größeren Sache willen hingenommen wird, enthält u. A. das Schüren von Öko-Angst, vor allem bei Kindern, die Beendigung der Beschäftigung von Whistleblowern und die Wegnahme von Wohlstand von ehrenwerten menschlichen Beweggründen hin zu grünen Fabrikanten und Kohlenstoff-Händlern. Längerfristig besteht dieser Kollateralschaden in der Zerschlagung der Integrität der Wissenschaft. Ultimativ ist der Kollateralschaden bzgl. Demokratie und dem Wohlergehen des größten Teiles der Weltbevölkerung.

Alle dem Umweltschutz treu bleibende Agenturen haben sich oftmals nur an den Angelhaken der Förderung geklammert, womit sie ein hilfsbereites virtuoses „Schaufenster“ geschaffen haben, um die Aufmerksamkeit von der größeren Agenda abzulenken. Jene, die sich in politische Organisationen verwandelt haben, sind einfach zum Bestandteil der gesamten Bewegung geworden. Das unethische Kolportieren der Unterstützung der „Wissenschaft“ war lediglich das betrügerische Mittel zum Zweck.

Jeder Polizeibeamte, der sich in so krass korrupter Manier verhält, würde sofort degradiert und wahrscheinlich sogar verklagt werden. Es ist überfällig für Individuen, Organisationen, Politiker und Regierungen, endlich Rückgrat zu gewinnen, sich zu erheben und das korrupte Verhalten als genau das zu bezeichnen, was es ist.

——————————-

My background:

PhD in Physics from Monash University.

Over 60 scientific publications in refereed journals, 4 book chapters in scientific tomes and a book for Cambridge Press.

Was Head of the Department of Materials Engineering at Monash, then Deputy Vice-Chancellor in charge of Research and Development at Curtin University of Technology. I have run my own consulting company and also a small manufacturing business.

Was Fellow of The Australian Institute of Physics and Fellow of the Institution of Engineers, Australia.

Now retired.

Link: https://wattsupwiththat.com/2019/10/02/understanding-the-climate-movement-part-2-noble-cause-corruption/

Übersetzt von Chris Frey EIKE




Gerade jetzt schlägt der Klimawandel noch viel schlimmer zu

Noch nie sah die Zukunft so düster aus

Tagesschau.de 25.09.2019: IPCC-Bericht vorgestellt Weltklimarat stellt düstere Prognose
Der Weltklimarat IPCC warnt in einem neuen Bericht vor einem weiteren Anstieg des Meeresspiegels. Wenn der Ausstoß von Treibhausgasen nicht drastisch reduziert werde, drohten Küsten und Inseln unterzugehen.
Der Weltklimarat IPCC hat der Politik in seinem Report zur Eisschmelze und den Ozeanen ein verheerendes Zeugnis ausgestellt.

Eine besondere Gefahr könne die beschleunigte Eisschmelze in der Antarktis werden, falls das Eis einmal dauerhaft instabil werde. Das könnte den Meeresspiegel innerhalb von Jahrhunderten um mehrere Meter steigen lassen. Es sei noch unklar, ob und wann dies beginne. Nur eine starke Reduzierung der Treibhausgase …
Über die Formulierungen dieses Berichts hatten Delegierte der 195 IPCC-Mitgliedsstaaten in Monaco mehrere Tage lang bei der Konferenz des Weltklimarates debattiert und abgestimmt …
In Zeitungsmeldungen steht es nicht ganz so alarmistisch, wie im Zwangs-GEZ-finanziertem Fernsehen. Aber ein zusätzlicher Meter Meerespegel ist ja auch noch ganz schön hoch.
Zeit Online 25. Sept. 2019: Um bis zu 110 Zentimeter könnte das Wasser bis zum Jahr 2100 im globalen Durchschnitt ansteigen. Zumindest laut eines Szenarios ...

Die vielen, schönen, aber doch so verletzlich niedrigen Atolle der Südsee – alle werden sie wohl bald endgültig für unsere Nachkommen verschwunden sein. Und haben die GRÜNEN dies nicht schon genau so, nur viel früher in einem geradezu epochalem Manifest verkündet (nach ausschließlich persönlicher Ansicht des Autors, mit eines der blödesten Dokumente der GRÜNEN, ist inzwischen auch von deren Homepage verschwunden):
[14] Wahlbrief von Bündnis 90/ Die Grünen „an die Bewohner der Carteret Inseln“ (Auszüge):

… Ihre Heimat ist ein Ort, von dem wir Deutschen träumen. Eine Südseeidylle mit weißen Palmenstränden, umgeben von türkisfarbenem Wasser, das funkelnde Unterwasserlandschaften birgt. Welche Wunder die Natur schaffen kann, das wussten Sie schon, als Sie Kinder waren.
Sie leben in diesem Paradies seit vielen Jahrhunderten. Doch nach der Landung der Europäer begann der Niedergang Ihres Landes. Hungersnöte, Übervölkerung und monokulturelle Landwirtschaft zwangen viele Ihrer Landsleute schon vor Jahren zur Flucht.
… Wir tragen die Verantwortung für diese Katastrophe. Nicht nur bei Ihnen, überall auf der Welt sind die Vorboten der Klimakatastrophe sichtbar: Eisberge schmelzen, der Meeresspiegel steigt, die Unwetter werden schwerer, ganze Landstriche werden verwüstet. Am schlimmsten trifft es die Menschen in den Ländern, die am wenigsten zum Klimawandel beitragen. Wie Sie …
Wir, der Norden, sind in der Pflicht, endlich zu handeln.
…. Ob Sie es glauben oder nicht: Während bei Ihnen der Meeresspiegel steigt, wollen eben diese beiden bei uns regierenden Parteien neue Kohlekraftwerke bauen – obwohl jeder weiß, dass nichts klimaschädlicher ist …
Nun wird bei uns ein neues Parlament gewählt. Wir Grüne versprechen Ihnen: Egal ob wir nach dieser Wahl regieren oder in der Opposition landen; wir werden mit allen uns zur Verfügung stehenden Mitteln dafür kämpfen, dass unser Land wieder Vorreiter beim Klimaschutz wird.

Geradezu ein Glück, dass die Flugscham es sowieso verbietet, wie bisher üblich, einfach dorthin zu fliegen. Man muss den GRÜNEN aber doch eine große, hellseherische Fähigkeit zugestehen: Das mit dem „Vorreiter beim Klimaschutz“ ist eingetroffen.

Tidenpegel-Messstationen können ja nichts von der schlimmen Zukunft wissen

Vor wenigen Monaten war erst eine „wissenschaftliche“ Delegation unseres Bundestags vor Ort und hat genau das erfahren, was sie erzählt haben wollten (für wichtige Information, auch wenn sie sich leicht googeln lässt, kennen Bundestags-Abgeordnete – sofern sie es nicht selbst bezahlen müssen – keine Flugscham, vor allem, wenn man auf einer solchen Reise in exotische und schöne Gegenden vor Ort als potenter „Dukatenesel“ so herrlich „bauchgepinselt“ wird). Nur sahen sie vor Ort keine Belege für den schlimmen Einfluss des Klimawandels:
EIKE 30. April 2019: [3] Claudia Roth auf Forschungsreise zum Klimawandel

Aber der IPCC hat selbstverständlich eine völlig andere Qualität und die (IPCC-)Meldung der Tagesschau verheißt ja wirklich Schlimmstes.

Was macht man am Besten in einem solchen Fall? Direkt am Tatort der schlimmsten Klimawandel-Einschläge nachsehen. Also schnell die aktuelle Pegelgrafik einer der als besonders gefährdet gemeldeten Atolle vom Pegel-Monitoringprogramm auf der Homepage der Australischen Regierung „geholt“.
Und ein erster Stein fällt vom Herzen: Die realen, ganz aktuellen Pegelmesswerte haben den gerade über den Ticker gemeldeten Untergang ebenfalls übersehen …

Bild 2 Tages-aktueller Verlauf des Seepegels von Fidji. Quelle: Australisches Sea-level Monitoring-Projekt. Grafik vom Autor um die horizontalen Linien ergänzt

Nun können Tidenpegel auch nach 30 Jahren Verlauf einen Laien immer noch täuschen. Also zusätzlich eine Fachperson befragen. Und zwar eine, die nicht im Studierstübchen historische und zukünftige Pegel simuliert, sondern zur Ermittlung wirklich vor Ort war. Solche gibt es. Ein recht bekannter ist der Pegelforscher N. A. Mörner. Und dieser hat zum Pegel von Fidji geschrieben:
[7] … Es stellte sich heraus, dass der Meeresspiegel bei den Fidschi-Inseln während der letzten 200 Jahre praktisch stabil geblieben ist. Allerdings wurden zwei geringe Änderungen beobachtet. Der Meeresspiegel schien Anfang des 19. Jahrhunderts um etwa 30 cm höher gelegen zu haben. Kurz nach dem Jahr 1950 fiel der Meeresspiegel um etwa 10 cm, was zum Absterben vieler Korallen führte, die bis zu ihrem Minimum-Niveau von 40 cm unter der Wasseroberfläche gewachsen waren. Während der restlichen 50 bis 70 Jahre kann nachgewiesen werden, dass der Meeresspiegel absolut stabil war, belegt durch Korallen, welche an vielen verschiedenen Stellen beobachtet gezwungen waren, sich horizontal auszubreiten in so genannte Mikro-Atolle.
Diese Dokumentation der Stabilität des Meeresspiegels während der letzten 50 bis 70 Jahre ist von fundamentaler Bedeutung, weil damit das gesamte Gerede über einen rapide steigenden Meeresspiegel als Falschinformation und Fake News entlarvt wird (importiert aus Modellanalysen).
… Wenn der Präsident von COP23, Premierminister der Fidschi-Inseln Frank Bainimarama feststellt, dass „der Klimawandel augenfällig“ ist und dass der „Anstieg des Meeresspiegels ein Faktum ist“, dann bezieht er sich in Wirklichkeit nicht auf wirklich stattfindende Vorgänge auf den Fidschi-Inseln, sondern auf Fake News, getrieben von bestimmten Agenden.
Was Klimawandel betrifft, so sind in Fidschi keinerlei Änderungstrends beobachtet worden.

Der zweite 1. April im Jahr ist immer vor dem Klimagipfel-Termin …

Wenn es kein Pegelproxi und keine Pegelmessstation vor Ort „bemerkt“, wie können die Inseln dann so plötzlich untergehen?
Ach ja: Der jährliche Ökozirkus „Welt-Klimagipfel“ naht wieder. Pünktlich vor dessen Termin geht die Welt jedes Jahr unter [6]. Das gelingt immer, denn irgendwann in 100, oder 1.000, oder 10.000 Jahren könnte es ja passieren. Man muss die Wahrscheinlichkeit nur immer weiter spannen, Simulationen rechnen dann konsequent.

Und wie man das passend publiziert, darüber haben (wieder) 195 politische – und nicht wissenschaftliche – IPCC-Gremienvertreter debattiert und abgestimmt. Deren „wissenschaftliches“ Niveau dürfte jeder Stammtisch erreichen, wenn man ihm ausreichend deutlich aufzeigt, dass ihre Mitgliedschaft (mit den damit verbundenen Annehmlichkeiten und Pfründen), sowie der Bestand des gesamten Vereins, vor allem auch das viele, viele Geld des Klimafonds für ihre Regierungen (die sie dorthin delegiert haben), wesentlich, wenn nicht sogar ganz, von ihren Aussagen abhängen.

Der Pegelanstieg im neuen IPCC-Sonderbericht

Im IPCC Pressetext steht zum aktuellen, immer schlimmer werdenden Meeres-Pegelanstieg :
… While sea level has risen globally by around 15 cm during the 20th century, it is currently rising more than twice as fast – 3.6 mm per year – and accelerating, the report showed ...
Das wären ca. 28 cm bis zum Jahr 2100 zuzüglich irgend einer Beschleunigung. Ansonsten steht viel von „Projektionen“ und „könnte“ bis zum Jahr 2100.
Nun ein Blick in den IPCC-Sonderreport selbst, also dem „the report showed“. Im für die Meerespegel „zuständigen“ Kapitel 4 steht zum Meeresspiegelanstieg:
Global mean sea level (GMSL) is rising (virtually certain1) and accelerating (high confidence2). The sum of glacier and ice sheet contributions is now the dominant source of GMSL rise (very high confidence). GMSL from tide gauges and altimetry observations increased from 1.4 mm yr–1 over the period 1901–1990 to 2.1 mm yr–1 over the period 1970-2015 to 3.2 mm yr–1 over the period 1993–2015 to 3.6 mm yr–1 over the period 2005–2015 (high confidence). The dominant cause of global mean sea level rise since 1970 is anthropogenic forcing (high confidence) (4.2.2.1.6, 4.2.2.5).

… The rate of sea level rise since the mid-19th century has been larger than the mean rate of the previous two millennia (high confidence). Over the period 1901 to 2010, global mean sea level rose by 0.19 [0.17 to 0.21] m (high confidence) (Church et al., 2013; Table SM1.1). Sea level rise continues due to freshwater added to the ocean by melting of glaciers and ice sheets, and as a result of ocean expansion due to continuous ocean warming, with a projected acceleration and century to millennial-scale commitments for ongoing rise (Section 4.2.3). In SROCC, recent developments of ice-sheet modeling are assessed (Sections 1.8, 4.3, Cross-Chapter Box 8 in Chapter 3) and the projected sea level rise at the end of 21st century is higher than reported in AR5 but with a larger uncertainty range (Sections 4.2.3.2, 4.2.3.3).

After an increase of sea level from 1–2 mm yr–1 in most regions over the past century, we now experience rates of 3–4 mm yr–1 that will further increase to 4–9 mm yr–1 under RCP2.6 and 10–20 mm yr–1 at the end of the century under RCP8.5.

Was man unschwer erkennt: Die aktuell gelisteten Pegeländerungen sind gar nicht so dramatisch, dramatisch sind die in die Zukunft projizierten. Die wurden höher projiziert, dafür aber unsicherer!

Das folgende Bild aus dem IPCC-Report zeigt, wie mit Projektionen und Wahrscheinlichkeiten jongliert wird. Es findet sich wirklich „für jeden“ ein „passender“ Pegel, zwischen ca. 30 cm und 5 m, wenn man sich irgendwo zwischen den Jahren 2100 … 2300 und den Szenarien RCP 2.6 … RCP 8.5 bewegt.
Die ARD brachte deshalb auch „mehrere Meter“, die Zeitungsmeldung sprach gnädig von „nur“ „110 cm“. Die niedrige, und beileibe nicht unwahrscheinliche RCP 2.6 Projektion mit ca. 30 cm wurde nicht erwähnt. Undenkbar, die 10 cm vom Meeresspiegelforscher Herrn Mörner jemals zu erwähnen. Nicht-Alarm vor einem Klimagipfel geht schließlich überhaupt nicht.

Bild 3 IPCC-Pegelprojektion im neuen Bericht

Immerhin ist diese aktuelle Pegel-Projektionsgrafik noch „konservativ“. Unser PIK simuliert seit Langem ganz andere Anstiegsdimensionen.

Bild 4 Pegel-Zukunfts-Projektionen aus verschiedensten Quellen. Vom Autor zusammengestellt

Wer sich mit der Pegelthematik auskennt, weiß, woher der „zunehmend steigende“ Pegelanstieg des neuen IPCC-Reports im Wesentlichen resultiert: Es sind die Satellitenmessungen, welche gegenüber den Küstenmessstationen diesen zu hohen Anstieg berechnen (Hinweis: Es kann aber auch teilweise durch eine Zyklik mit bestimmt sein).
Die Satellitenpegelmessungen mit ihren 3,3 mm/Jahr Anstieg sind trotz der Verdopplung zu den Tidenpegel-Werten immer noch nicht wirklich alarmistisch. Sie werden es nur, wenn man zusätzlich eine „Verstärkungen“ dazu addieren, möglichst quadrieren kann. Mit welchen Kunstgriffen genau das virtuos „gedreht“ wird, hat der Autor in einem Artikel zusammengetragen:
EIKE 06.03.2018: [2] Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)

Daraus ein Bild der Satellitenpegel mit einer solchen – nachträglichen – Korrekturkurve.

Bild 5 [2] Darstellung der Satellitenpegel und eine nachträgliche „Fehlerbereinigung“ aus einer Studie. Grafik vom Autor zusammengestellt

Und selbst wenn diese Satellitenmessungen stimmen würden, stellt sich die Frage, ob eher die Küsten (für die gelten die Stationsmesswerte), oder Schiffe weit weg von den Küsten (für die würden die hohen Satellitenwerte gelten), vom steigenden Pegel betroffen sind.

Der Pegel und dessen (geringer) Anstieg, gemessen von den Küsten-Messstationen

Zum mittels Pegelstationen gemessenen Pegeltrend sagt der IPCC-Bericht in Kap. 4, S. 530, dass man ihn heute weniger genau weiß, als man es vor Jahren im AR5 verkündete:
… On this basis, we estimate that it is very likely that the long-term trend in GMSL estimated from tide gauge records is 1.5 [1.1–1.9] mm yr–1 between 1902 and 2010 for a total sea level rise of 0.16 [0.12–0.21] m (see also Table 4.1). This estimate is consistent with the AR5 assessment (but with an increased uncertainty range) and confirms that it is virtually certain that GMSL rates over the 20th century are several times as large as GMSL rates during the late Holocene (see 4.2.2.1). Over the 20th century the GMSL record also shows an acceleration (high confidence) as now four out of five reconstructions extending back to at least 1902 show a robust acceleration (Jevrejeva et al., 2008; Church and White, 2011; Ray and Douglas, 2011; Haigh et al., 2014b; Hay et al., 2015; Watson, 2016; Dangendorf et al., 2017). The estimates of the acceleration ranges between0.002–0.019 mm yr–1 over 1902-2010 are consistent with AR5.

Der IPCC-Bericht legt wenig Wert darauf, dass irgend Jemand aus dem Datenwust gleich auch eine informelle Zusammenfassung erhält. Ein Grund könnte sein, dass diese nicht alarmistisch ist und deutlich ausweist, wie unwahrscheinlich die Simulationsaussagen (Bild 3) sind.

Eigenes Nachrechnen ergibt daraus die folgenden Pegeldaten zum Jahr 2100:

Bild 6.1 Projektionen Tidenpegel zum Jahr 2100 (aus den IPCC-Angaben vom Autor berechnet)

In einer Untersuchung zu Pegeltrends hat auch der Autor die Werte der NOAA-Pegelstationen ausgewertet:
[14]aktuell 233 Pegelmessstationen und trägt die Änderungswerte grafisch auf, zeigt sich das Bild 6.2 und mit den folgenden Daten: Der Mittelwert des weltweiten Pegeltrends liegt bei 1,17 mm / Jahr (einfachstes Auswerteverfahren)

Bild 6.2 [14] (vom Autor) Aus der NOAA-Pegel-Messstationsliste abgeleitete Pegeltrends bezogen auf die Stations-Anzahl. Anzahl Messstationen: 233; daraus berechneter Pegelstations-Mittelwert 1,17 (grün); (zum Zeitpunkt der damaligen Veröffentlichung) publizierter, globaler Anstieg 3 mm / Jahr (rot), X-Achse: Messstations-Nr. nach absteigendem Pegeltrend sortiert

Die IPCC-Berichte listen anstelle konkreter Auswertungen oft als Erklärung und so etwas wie „Beleg“ eine Unmenge von Studien, oft hinter Bezahlschranken „versteckt“. Damit ist es Privatpersonen mindestens sehr schwer – wenn nicht unmöglich – gemacht, Aussagen nachzuvollziehen. Man kann davon ausgehen, dass dies bewusst so gewollt ist.

Doch lässt sich ein Beispiel aus einer im IPCC-Bericht, Kapitel 4 gelisteten Studie zu den Tidenpegeln zeigen: [1] Dangendorf et al., 2017.
Schon das erste Bild in der Studie „schreit“ geradezu nach einer zyklischen Betrachtung

Bild 7 Tidenpegel Anstiegsrate von 1900 – 2010 [1] vom Autor ergänzt

So etwas fällt nicht nur dem Autor als Laien auf, es gibt sehr wohl auch Fachleute, die es erkennen und publizieren:

Bild 8 [3] Pegelverlauf um Indien (und Bangladesch) nach einer Pegelstudie von N.A. Mörner

Die folgenden Grafiken finden sich in der „Supporting Information“ zur Studie [1]. Das Bild der weltweiten Tidenpegel-Stationsverteilung seit 1870 zeigt, dass eine „brauchbare“ Abdeckung erst so ab 1940 … 1960 vorhanden ist. Wenn man das weiß, fragt man sich natürlich, wie man den Globalpegel vor dieser Zeit so „genau“, wie oft publiziert kennen will.

Bild 9 Regionale Stationsverteilungen seit 1870. [1] Fig. S1. Spatial and temporal availability of tide gauges used in this study. (A) Spatial distribution of the tide gauges used in this study. Also shown are the six oceanic regions, which are used to build regional virtual stations. (B) Respective temporal availability of tide gauges for each region.

Das folgende Bild aus der Studie zeigt die „wahrscheinlichsten“ Tidenpegel-Verläufe, aufgeteilt nach Meeresregionen. Eine Trendverstärkung ließe sich nur im Bildteil (2) – Indien, Südpazifik – ablesen, genau die Region, der Prof. Mörner eine deutliche Zyklik (Bild 8) zuweist.

Bild 10 Weltmeere, Verlauf der regionalen Tidenpegel. [1] Fig. S6. Virtual stations for the six oceanic regions based on different stacking approaches and corrections. Shown are the individual tide gauge records corrected for VLM, TWS, ice melting, and GIA geoid (gray) or just GIA (light red) and their respective virtual stations based on two different stacking approaches: averaging after removing a common mean, and stacking first differences (also known as rate stacking; see legend for a description of the line colors). Both approaches are used to overcome the problem of an unknown reference datum of individual tide gauges. Also provided for each region are the medians of linear correlations between the virtual stations and individual tide gauge records from both approaches (black and blue R values).

Trotzdem kommen die Studienautoren zu dem Schluss, der Tiden-Pegelanstieg würde sich verstärken.
In der Studie [4] wird dies thematisiert. Im Bild 11 sieht man, woher ein Teil der Verstärkung resultieren soll: Der Pegeltrend war (angeblich) vor 1920 … 1940 schwächer. Nur ist das eine Globalrekonstruktion aus einer Zeitspanne, in der die Messstationen mangels Abdeckung noch gar keinen globalen Pegel messen konnten.

Bild 11 Globalverlauf Tidenpegel. [1] (nur Teilbild A) Fig. S7. Comparison of the reference GMSL in SODA to two different reconstructions. (A) Reference GMSL (black line) and reconstructions using either a common mean between individual tide gauges (red line, shaded area gives the 1σ uncertainty) or first differences (blue curve). (B) Differences between the reference GMSL and the two reconstructions.

Alle weiteren Alarme im neuen IPCC-Bericht zum Meerespegel resultieren daraus, dass eine (dank umfangreichster Fördermittel) personell überfrachtete Klimafolgen-Wissenschaft, weltweit in ihren Zimmern sitzt, das Klima für jeden Quadratkilometer in die Zukunft simuliert – in Simulationen die Antarktisgletscher fast schon explosionsartig sich ins Meer stürzen lässt (nur ein solches Szenario erzeugt einen signifikanten, zusätzlichen Pegelanstieg) – und so mittels geeigneter Parametrierungen eine immer neue – schlimmere – Klimazukunft fabuliert.

Eines zeigen die IPCC-Berichte auch (rein persönliche Ansicht des Autors): Es wird nach dem „Formulierprinzip Seehofer“ verfahren: „Stelle Inhalte so kompliziert dar, dass niemand sie versteht und dann … “ leite daraus im Summary ab, was gesagt werden soll (nicht was ermittelt wurde, denn kann fast niemand genau rekonstruieren). Ob es stimmen könnte, oder einfach politisch nur so sein muss, wird dabei mittels Abstimmen ermittelt.

Küstenpegel, wenn nicht vom IPCC nach „Abstimmverfahren“ bestimmt

Wer nicht nur im IPCC-Sonderbericht, sondern an anderen Stellen zum Meerespegel liest, bekommt den (beim IPCC oft fehlenden) Hinweis, dass lange Ozeanzyklen einen erheblichen Pegeltrendanteil bestimmen.

Was ist dann der Unterschied? Wenn dem so ist, ist die vom IPCC angegebene Trendbeschleunigung falsch und ein zyklischer Artefakt (siehe dazu die Bilder 7 und 8). Vor allem stimmen die IPCC-Zukunfts-Projektionen dann hinten und vorne nicht, schlimmer: Sind datentechnisch unzulässig!
DER WESTEN 2015: … Forscher der Uni Siegen sagen, der Ozeanzyklus habe auf den Meeresspiegel-Anstieg eine größere Wirkung als der vom Menschen verursachte Klimawandel
Wie dabei durch nicht Berücksichtigen der Zyklen (und anderem) getrickst wird, moniert auch eine Studie:
[4] AlbertBoretti 2019: A realistic expectation of sea level rise in the Mexican Caribbean
Rahmstorf [50] computes global rates of rise of the sea levels with a 30-year time window that have grown from the about 0.75 mm/yr. of the year 1870 to the latest value of about 3.6 mm/yr. of the year 2000. This translates in an average acceleration of +0.022 mm/yr2. The major issue with the reconstructions is that there are no real “global” measurements of sea levels and temperatures since 1870, only results for many individual locations that do not show any significant acceleration of the sea levels, or dramatically warming temperatures apart from the artefact of changes of land use or urban heat islands.
There are very few tide gauges in the world that have been recording since 1870, the most part of them is in North Europe, only two of them are in North America, not a single tide gauge covers the south hemisphere, and all the long-term trend tide gauges with more than 100 years of recorded data consistently show negligible acceleration
Because of the well-known multi-decadal natural oscillations of periodicity up to quasi-60 years Chambers et al., 2012Schlesinger and Ramankutty, 1994, not less than 100 years of continuous recording in the same location and without quality issues are needed to compute rates and accelerations by linear and parabolic fittings.
All the long-term-trend (LTT) tide gauges of the world consistently show a negligible acceleration since the time they started recording in the late 1800s/early 1900s, much less than the +0.022 mm/yr2.
The negligible acceleration of the LTT tide gauges of this world is well-known. As mentioned before, the lack of a significant sea level acceleration has been shown in many works

Bild 12 Figure 3. Acceleration and rate in the LTT tide gauges of the PSMSL database (www.psmsl.org) having a range not less than 100 years and no quality issues. Daten: www.sealevel.info.

Und das sind die Werte, welche sich anhand der Pegelmessstationen weltweit ergeben: Der Anstieg liegt zwischen 0,25 – 1,04 mm/Jahr:
A.Parker May 2016: Coastal planning should be based on proven sea level data
… Tide gauges provide the most reliable measurements, and best data to assess the rate of change. We show as the naïve averaging of all the tide gauges included in the PSMSL surveys show “relative” rates of rise about +1.04 mm/year (570 tide gauges of any length). If we consider only 100 tide gauges with more than 80 years of recording the rise is only +0.25 mm/year. This naïve averaging has been stable and shows that the sea levels are slowly rising but not accelerating

Beim Klima sollte man keine Betrachtung führen, ohne auch in die weitere Vergangenheit zurückzuschauen. Die aktuelle Hysterie relativiert sich dann oft alleine schon darüber. Über zu viel Wasser hätten sich alleine unsere näheren Vorfahren beschweren können, aktuell müssten die Bewohner des Süd-Pazifik dem Klima „danken“, dass es die Pegelhöhe zwischenzeitlich verringert hat.

Bild 13 Abbildung: Meerespegelentwicklung der Southern Cook Islands während der vergangenen 2500 Jahre. Quelle: Goodwin & Harvey 2008.

Es sei angemerkt, dass dieser Proxi-Pegelverlauf in der Südsee nicht mit dem der Nordsee (Bild 18) übereinstimmt. Entweder verliefen die Verläufe so gegensätzlich (mit dieser Differenz findet der Autor dies unwahrscheinlich), andererseits wäre es ein Beleg, wie falsch Pegelproxis sein können (und man danach niemals Klimasimulationen „kalibrieren“ kann).

Als Fazit bleibt:
Nicht einmal bei den gemessenen Tidenpegeln – also der einzige, welcher Küsten und Küstenstädte wirklich trifft -sind sich die Forscher einig. Ob die Pegel alarmistisch steigen, hängt wesentlich von der angewandten, statistischen Betrachtung ab! Man würde meinen, in der wissenschaftlichen Methodik gäbe es so etwas wie ein „richtig“. Doch muss man sich eben von Illusionen verabschieden: Das gewünschte Ergebnis bestimm vorwiegend, welche zu verwenden sind.
Aber eines zeigen alle trotzdem: Selbst die schlimmsten Tidenpegel-Projektionen zeigen keinen Alarmismus, der wirklich gemessene Pegel sowieso nicht.

Direkte, menschliche Einflüsse

Der IPCC Langbericht ist in Teilbeschreibungen auch informativ. Für das Nildelta wird beispielsweise eine besonders hohe Klimawandel-Vulnerabilität dargestellt:
… Nile Delta’s low elevation translates into high exposure to sea level rise (Shaltout et al., 2015), and the level of protection varies greatly from place to place …
Es wird aber auch beschrieben, warum das so ist: Es liegt nicht am Klimawandel, sondern direkt an den Menschen vor Ort:
The . Subsidence rates range from 0.4 mm yr–1 in the West Delta to 1.1 mm yr–1 in the Mid Delta and 3.4 mm yr–1 in the East Delta (Elshinnawy et al., 2010), although rates as high as 10 mm yr–1 near natural gas extraction operations are also reported … Future construction of Ethiopia’s Grand Renaissance Dam (GERD) (Stanley and Clemente, 2017) may heighten problems …
Genau dasselbe hatte der Autor auch schon festgestellt (dem mit dem damaligen Artikel kritisiertem, hoch gelobtem Rechercheinstitut viel es nicht auf):
EIKE 30. Oktober 2018: Zeugnisse vergangener Kulturen sind durch den Klimawandel in Gefahr. Die Bedrohung betrifft vor allem Weltkulturerbestätten im Mittelmeerraum Teil 1(2)

Aber klar: Wer sich das nicht im (1170 Seiten langen) IPCC-Hauptbericht im Detail durchliest und mit dem Mut und Verzweiflung der „Wissensgier“ versucht herauszuklamüsern, kann nur zu dem einen Schluss kommen: Das Hauptproblem ist und bleibt der Klimawandel.
Die 195 Delegierten des IPCC (politische Delegierte nach weltweitem, paritätischem Schlüssel und nicht entfernt nach Kenntnis zum Klima „ausgesucht“) kamen zu diesem Schluss … Unsere Medien schrieben es wohlwollend ab …

Können Bilder lügen Mängel haben?

Das auf der Tagesschau-Info hinterlegte Bild 1 soll das vom Klimawandel verursachte Problem des schon stark gestiegenen Meerespegels belegen(1). Im Artikel: [2] EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1), hat der Autor dazu Hintergründe recherchiert. Und die lassen nur einen Schluss zu: Dieses Bild und die Beschreibung dazu sind ein Betrug Fake. Trotzdem wird es immer wieder gezeigt. Denn beim Darstellen der Probleme des schlimmen Klimawandels darf betrogen etwas übertrieben dargestellt werden. Für „Öffentlich-Rechtliche‘“ gilt es dann als besonders sorgfältig recherchiert [5].

Zurück, zum „untergegangenen“ Dorf.
Das ja nach Quelle „dem Untergang geweihte“, oder bereits „verschwundene“ Fischerdorf (besser: kleine Ansammlung von Hütten), liegt an der ungünstigsten Stelle der Insel. Die Lage entspricht keinerlei Verständnis und Rücksicht für natürliche Gegebenheiten und daraus resultierenden Problemen, sondern wesentlich der Faulheit der Bewohner, zum Fischen nicht weit zum Strand laufen zu müssen.

Bild 14 [2] Fidji, Vulkaninsel Ono mit bis zu 300 m Höhe. Dorf Narlkoso direkt am Strand auf einer Landzunge an einem Strömungskanal

Vom Strand aus fotografiert (Bild 15), sieht man das Problem: Die gezeigte Hütte liegt tief und der davor errichtete Damm ist gebrochen. Während erheblich höher platzierte Hütten sicher nicht zufällig auf Stelzen errichtet sind, ist diese tiefer platzierte ohne solche auf den Strandstreifen gesetzt. Scheinbar sieht auch niemand eine Not, den zum Schutz irgendwann einmal errichteten Damm zu reparieren. Wobei die Bezeichnung „Damm“ sicher übertrieben ist.

Bild 15 [2] Fidji Dorf Narlkoso. Hütten in einer Taifunzone direkt am Strand auf Meereshöhe errichtet. Quelle: giz

In [2] hat es der Autor wie folgt zusammengefasst: ... Aus Bequemlichkeit werden Häuser direkt am Strand an einem Strömungskanal errichtet, obwohl dahinter „beliebig“ Anhöhen zur Verfügung stehen. Schon eine kleine Veränderung der Strömung verlagert unweigerlich auch den Küstenstreifen und erklärt sofort, warum das (nicht, bis geringfügig steigende) Meer Land wegnimmt. Einzelne Hütten stehen praktisch auf Meeresniveau, und das in einem originären Taifungebiet, wo diese seit Urzeiten jedes Jahr neu mehrere Meter hohe Wellengebirge (bei einem sehr starken Taifun bis zu 5 m) ans Ufer werfen und seit Urzeiten sogar Felsen „abrasieren“ (Bild x).
Der Einheimische (in einem bei der GIZ verlinkten Video) „weiß“, warum nicht er, sondern „der Westen“ schuld ist und zeigt dabei deutlich, woher er sein „Wissen“ erhalten hat:

„ …
ich denke, das liegt am Nordpol. Das sagen sie, dass das Eis schmilzt. Wir sind wütend auf die anderen Länder, weil sie durch Luftverscmutzung dazu beitragen ... „
In diesem Artikel wird auch detailliert beschrieben, dass Landgewinnungsmaßnahmen und Dammbauten früherer Zeiten scheiterten und deshalb der Eindruck eines untergehenden Atolls entstehen kann.

An anderen Fundstellen findet es sich ebenfalls beschrieben: Spectrum der Wissenschaft, Juni 2015, S68 ff: [8] „Sind Inselstaaten akut gefährdet?
Zitat: … Tendenziöse Berichterstattung
… Die Medien vermitteln den Eindruck, Kiribati sei am Versinken, weil sie die Fakten einseitig wiedergeben. Fast jede Story über die Inseln bringt ein Foto oder Video von Bikenikoura, einem schmalen Sandstreifen mit Küstenmangrovenwald, der bei Hochwasserständen teilweise überflutet wird. Dorthin schickt die mit Anfragen überhäufte Regierung von Kiribati all die vielen Journalisten und Amtsinhaber wie UNO-Generalsekretär Ban Ki-Moon, die den Anstieg des Meeresspiegels „sehen“ wollen.
„Es ist unser Vorzeigeobjekt“ sagt Rimon. Die Besucher beobachten, wie das Wasser in die „Maneaba“, die Versammlungshütte der dortigen Gemeinde, kriecht, und kehren zurück mit der Geschichte von einem Land, das vom Meer verschluckt wird …

Die besagte – zum Klimawandel und seinen bereits schlimm sichtbaren Folgen – „forschende“ Bundestagsdelegation [3] war auch dort und hat es sich angesehen. Bei deren mitgebrachtem Bildbeleg soll könnte man auf die Idee kommen, das Dorf sei bereits vollständig untergegangen …

Bild 16 [3] Auszug aus der Bildfolge zum Bericht der Bundestagsdelegation

Eine Zusammenfassung solcher Falschdarstellungen, hier des ZDF, findet sich in einem Blog gut aufbereitet:
ScienceFiles September 23, 2019: Lügen als Geschäftsgrundlage: UNwahrhaftige lassen Meeresspiegel heftig steigen – ZDF lügt mit

Fazit
Wer durch die Berichterstattung zum jüngsten IPCC-Zwischenbericht aufgeschreckt wurde, darf sich vom Schreck erholen und wieder beruhigt zurücklehnen. Die Berichte ändern sich laufend, das Klima viel, viel weniger. Das gilt allerdings nur für das Klima.

Es gibt aber auch wirklich darum wissende und deshalb sehr, sehr besorgte Bürger

Wenn man als Rentner länger in einem Wartezimmer sitzt, greift man schon mal notgedrungen zu Postillen, die sonst nicht gelesen werden. So geschah es mit dem Stern.
Bereits nach wenigen Seiten bestätigte sich die latente Aversion auch zu diesem Blatt. Vor Kurzem ließ der Stern in einem Artikel die Nordseeküste wohl erneut untergehen. In der gerade vorliegenden Ausgabe Nr. 33 dazu auf der Artikel-Diskussionsseite der erklärende Leserbrief eines wohl besonders gut informierten Lesers:
Akute Gefahr … wenn man jetzt noch ergänzt, dass die führenden Wissenschaftler der in den Niederlanden von einer Erhöhung des Meeresspiegels der Nordsee in diesem Jahrhundert von ein bis drei Metern ausgeht, ahnt man, dass sich die ostfriesischen Inseln und viele Teile Niedersachsens und Schleswig-Holsteins in relativ akuter Gefahr befinden … Ich glaube, es bedarf noch vieler solcher Stern-Artikel, um Politik und Menschen wachzurütteln. Und vielleicht auch die Grafik eines Instituts, auf der zu sehen ist, was ein Anstieg von drei Metern bedeuten dürfte …

Das eigene „Google“ kann keine „führenden Wissenschaftler in den Niederlanden“ finden, die solche Aussagen getätigt hätten. Es finden sich aber welche in den USA und die bei jedem Klimaalarm vorne weg schreitenden vom PIK (Bild 4). Selbst das PIK kommt bis zum Jahrhundertende allerdings „nur“ auf maximal +2 m Pegelerhöhung. Aber es sind ja zwischen 1 … 3 m, ein bisschen Ungenauigkeit darf beim Simulieren ja schon sein.

Der Spiegel brachte einst einen Artikel über Pegelanstiege: [11] SPIEGEL ONLINE 24.02.2016: Meeresspiegel-Prognose Der Untergang Was würde geschehen, wenn die Klimaerwärmung ungebremst weiterginge? In Jahrtausenden käme es zu gewaltigen Fluten – das zeigen Simulationen.
Spiegel-Redakteur Bojanowsky – ab und zu ganz klimarealistisch -, war wohl genötigt, endlich auch wieder etwas Schlimmes zu schreiben, um seinen zu tiefen „Alarmschnitt“ ins Lot zu richten. In seiner Alarmierungsnot kam er auf die Idee (reine Vermutung des Autors), so übertrieben in der „Würde- und Könnte-Zukunftsform“ zu schreiben, dass es seiner Redaktion nicht auffällt, aber alle, welche sich auch nur ein bisschen Auskennen, den Sinn im Unsinn sofort sehen.
[11] … in 10.000 Jahren könnte das Meer weite Teile Mitteleuropas geflutet haben, sollten neueste Prognosen tatsächlich eintreten. Ursache wäre der ungebremste Ausstoß von Treibhausgasen aus Fabriken, Kraftwerken und Autos.
Zwar beruhen solche Berechnungen auf erheblichen Unsicherheiten. So ist unklar, wie stark der Treibhauseffekt überhaupt wirkt und wie viel Gas der Mensch noch in die Luft blasen wird. Auch die Menge an Schmelzwasser aus Grönland und der Antarktis, die eine weitere Erwärmung tauen und ins Meer befördern würde, lässt sich nur grob schätzen.
Gleichwohl gibt es derzeit eine regelrechte Inflation an Studien, die den Untergang ganzer Landstriche in Aussicht stellen.

Grund genug für die Geoforscher um Klaus Reicherter von der Universität Aachen, die Prognosen in einer Simulation zu veranschaulichen. Vorausgesetzt haben sie einen Anstieg des Meeresspiegels um zweieinhalb Millimeter pro Jahr für die nächsten Jahrtausende, derzeit steigen die Pegel sogar etwas schneller. Nach 10.000 Jahren ergibt sich so ein Hub von 25 Metern – ein Wert, den aktuelle Studien stützen …

Bis in 10.000 Jahren wird es also eine große Umsiedlungsaktion geben. Gut, dann sind im Norden der Erdhalbkugel auch riesige Landflächen mit heutigem Permafrost so warm geworden, dass man dort gut Leben und Weizen anbauen kann. Völkerwanderungen wegen schlechtem Klima gab es vor weit weniger als 10.000 Jahren ja auch schon einige. Und vor 12.500 … 10.000 Jahren endete gerade die letzte Eiszeit, zu der ein Großteil Europas unter mehreren 100 m dickem Eis begraben war. Damals hatte die Erde aber wenige Menschen als Bewohner, so dass diese zum Äquator hin genügend Restplätze hatten. Das simulierte Bevölkerungsproblem in 10.000 Jahren möchte sich der Autor nicht ausmalen. Da sitzt wohl jeder/jede nur noch in Käfigen wie heutige Legehennen ohne Bio.

Mit ziemlicher Sicherheit ist es anstelle dem heutzutage grundsätzlich simulierten „zu heiß“, dann allerdings wieder zu kalt geworden. Denn die seit einer Millionen Jahren regelmäßig kommenden Eiszeiten kennen die Klimasimulationen nicht, weil man die Gründe ihrer wirklichen Entstehung bisher nicht weiß. Alleine der allwissende Herr Schellnhuber weiß trotzdem ganz sicher, dass der Mensch die Natur der Eiszeiten „überlistet“ hat:
[12] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!
Nimmt man dagegen die einfache Statistik des bisherigen Auftretens, dann kommt man ganz einfach zu einem vollkommen anderen Schluss: [13] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein
Spätestens in 10.000 Jahren wird man wissen, welche Behauptung sich bewahrheitet hat.

Zurück zur Nordsee, die bereits in 80 Jahren um 1 … 3 m steigen soll.
Ein kürzlich veröffentlichter Bericht von Herrn Puls zeigte, dass die Nordsee keine Veranlassung sieht, „übertrieben“ zu steigen“: [9] EIKE 25. August 2019: Klima-Ruhe an der Nordsee

Bild 17 [9] Nordseepegel Norderney seit 1890

In einem anderen Bericht (vom Autor selbst) wurde gezeigt, wie mit den Pegeln gelogen jongliert wird, um alarmierende Darstellungen zu erzeugen. Wer sich dafür interessiert, weil er nicht glauben kann, wie offen und extrem offizielle „Rechercheinstitute“ Betrugsspiele mitmachen (und dafür gelobt werden), sollte die zwei Teile lesen: [10] EIKE 07.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2)
Daraus ein Pegel-Langfristverlauf der südlichen Nordsee.

Bild 18 [10] Meerespegelverlauf der südlichen Nordsee in den letzten 7500 Jahren. Aus Behre (2004)

Das folgende Bild zeigt die globalen Tidenpegel-Änderungsraten seit ca. 1820 (dabei ist allerdings zu beachten, dass vor ca. 1950 keine ausreichende, weltweite Stationsabdeckung vorhanden war, alle Daten davor also eher grobe bis sehr grobe Schätzungen sind). Trotzdem zeigt es, dass es eher keine globale Tidenpegel-Beschleunigung gibt.

Bild 19 [10] Tidenpegel global, Pegel-Änderungsrate seit 1800

Nur, solche alarmistischen Leserbriefe wie der im Stern wirken – und das sollen sie ja auch.

Nachtrag

Man freut sich als Laie, wenn auch Fachpersonen zu den gleichen Ergebnissen kommen. Es zeigt, dass methodisches Vorgehen ohne ideologische Scheuklappen und dem Zwang, die „richtige Meinung“ haben zu müssen, trotz unterschiedlichen Vorgehensweisen (und Hintergrundkenntnissen) oft zu ähnlichen Ergebnissen führen.

Nach Abgabe dieser Kritik zum neuen IPCC-Zwischenbericht erschien auf kaltesonne ebenfalls eine kritische Darstellung dazu:
Kalte Sonne 4. Oktober 2019: Überlaufende Ozeane – Eine Frage sei erlaubt
Der Autor des darin zitierten Artikels machte sich genau die gleichen Gedanken zu den neuen Alarmdarstellungen und kam zum genau gleichen Ergebnis und Fragestellung wie der Autor, anbei ein Bild daraus:

Bild 20 Abb. 5:   Meeresspiegelanstieg für Brest / Frankreich – Atlantik; Anstiegsrate für Zeitraum 1900 – 2018: 1,5 mm/Jahr; 200-cm-Szenario, Anstieg ab Periode 1986 bis 2005. Quellen: siehe Abb. 1.

Und auch darin wird die Frage gestellt, wie die Leitautoren, bzw. das abschließende Entscheidungsgremium trotz der erdrückenden – gegen den von ihnen dargestellten Alarmismus – weisenden, realen Pegeldaten, zu ihren Aussagen kommt:
kaltesonne: Fazit: kein großer Unterschied zu den Abbildungen 1 bis 5, d.h. am ca. Faktor  20 oder 30 des Gradienten in 2100 ändert sich kaum etwas. Zum Schluss sei auf die im Titel des Artikels angekündigte Frage zurückgegriffen und zur Aussage, Zitat: „Allerdings sind auch Werte von rund zwei Metern möglich, je nachdem, wie sich die Dynamik der großen Eisschilde entwickelt.“
Haben sich die Regierungsbeauftragten bei der Marathon-Sitzung Ende September 2019 in Monaco nur die ihnen – von den 100 Wissenschaftlern gezeigten – passenden Parametrisierungen (Model-Tuning) der Computerprogramme ausgesucht? Wohlgemerkt, es sei nochmals betont, dass die in den oben gezeigten Abbildungen in der linken Hälfte schwarz gezeichneten Verläufe empirische, real gemessene Hydraulikdaten sind.

Quellen

[1] Sönke Dangendorf at al. May 2017: Reassessment of 20th century global mean sea level rise

[2] EIKE 06.03.2018: Flashcrash Klimaalarm. Wer Klimaalarm posaunt, bekommt immer recht (Teil 1)

[3] EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

[4] Albert Boretti 2019: A realistic expectation of sea level rise in the Mexican Caribbean

[5] EIKE 24. April 2019: Kiribati versinkt wieder, das ist professionell recherchiert

[6] EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen

[7] EIKE: Änderungen des Meeresspiegels und Klima auf Fidschi: totale Falschinformationen von COP23

[8] Spectrum der Wissenschaft, Juni 2015, S68 ff: „Sind Inselstaaten akut gefährdet?“

[9] EIKE 25. August 2019: Klima-Ruhe an der Nordsee

[10] EIKE 07.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T1 (2)

[11] SPIEGEL ONLINE 24.02.2016: Meeresspiegel-Prognose Der Untergang

[12] EIKE 17.10.2015: Fällt die nächste Eiszeit aus? PIK Chef Schellnhuber behauptet: Ja, so sicher wie das Amen in der Kirche!

[13] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein

[14] EIKE 26.11.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 2




Bricht der Klima-Aktivismus auseinander?

Der globale Riss bildete sich mit eleganter Schnelligkeit. Am Freitag marschierten weltweit eine Million oder noch mehr Klima-Extremisten. Am Montag schrie Greta Thunberg am UN-Hauptquartier den großen Regierungen der Welt ihre Wut ins Gesicht, während diese pflichtschuldigst erklärten, dass sie keine weiteren Ambitionen hatten. Der Kontrast zwischen Radikalen und Moderaten war urkomisch – und aufschlussreich.

Das Problem für die Alarmisten ist enorm. Die Neuen Radikalen erheben Forderungen, die unmöglich zu erfüllen sind, nicht nur politisch, sondern auch technologisch. Dazu gehört zum Beispiel die Forderung nach einer vollständigen Dekarbonisierung des globalen Wirtschaftssystems bis zum Jahr 2030.

Was alles noch schlimmer macht ist, dass die sozialen Gerechtigkeits-Krieger den radikalen Klima-Alarmisten zur Seite gesprungen sind.. Es gab immer eine vagen Unterton hiervon in UN-Klima-Überlegungen, aber jetzt steht soziale Gerechtigkeit vorne und im Zentrum und wetteifert mit der Dekarbonisierung als Ziel.

Die Moderaten versuchen, Druck auszuüben, aber ihre Bemühungen werden von den Extremisten angeprangert. Deutschland hat gerade gegen erhebliche politische Widerstände etwas durchgefochten, was die Moderaten als einen mutigen neuen Klima-Maßnahmen-Plan ansehen. Er wurde augenblicklich von den Extremisten als trivial gebrandmarkt. Realismus ist verboten*.

[*Der Terminus verboten steht so im Original! Anm. d. Übers.]

Wie wird das alarmistische Establishment mit diesem Schisma umgehen? An diesem Punkt sind nicht die Skeptiker seine größten Feinde, sondern die Extremisten. Ein Kampf an zwei Fronten ist im besten Falle politisch schädlich.

Aber es bleibt abzuwarten, wie aktiv und dauerhaft der radikale Flügel wirklich ist. Greta, AOC und die großen Aufmärsche mögen lediglich ein grünes Aufblitzen sein. Tatsächlich scheint AOC ihre Ansichten bereits abgeschwächt zu haben.

Der nächste große Test dürfte der bevorstehende UN-Klimagipfel in Chile sein, der Ende November geplant ist. Anders als der eintägige Keine-Maßnahmen-Klimagipfel ist die Konferenz in Chile der wirkliche Deal, die jährlichen formalen Verhandlungen unter dem Paris-Abkommen. Diese jährlichen Konferenzen werden jeweils eine Konferenz der Parteien (am globalen UN-Klimawandel-Abkommen) oder COP genannt. Routinemäßig versammeln sich dabei 20.000 Delegierte aus fast 200 Ländern, und sie dauern über eine Woche.

Zufälligerweise wird das Chile-Treffen ein besonders eintöniges COP, und Chile liegt weit entfernt von den Zentren des Extremismus‘. Die COP 2018 war etwas Großes, weil das Paris-Abkommen in Details ausgearbeitet wurde. Die COP 2020 wird ein Monster sein, und zwar aus zwei Gründen: Erstens, es ist vorgesehen, dass alle Regierungen mit einem 5-Jahres-Plan nach Vorbild der Sowjetunion aufwarten, in welchen größere Ambitionen als in ihrem ersten Plan zum Ausdruck kommen sollen. Zweitens, eine mythische Summe von 100 Milliarden Dollar pro Jahr soll ab 2020 von den entwickelten Ländern wie Amerika zu den Entwicklungsländern fließen, darunter China. Der moderate Alarmismus könnte unter diesem zweifachen Druck sogar kollabieren.

Aber in Chile liegen in diesem Jahr keine großen Bretter auf dem Tisch, sondern lediglich viel Klein-Klein. Die große Frage lautet also, ob die neue radikale Welle in der Folge von COP 2018 noch anwachsen wird. Falls nicht, dürfte sie an Fahrt verlieren.

Oder sie könnten ihre kollektive Stärke aufheben bis zur Präsidentschaftswahl in den USA und COP 2020. Ich kann mir vorstellen, dass die Führer der Radikalen bereits über diese Optionen diskutieren oder das zumindest unmittelbar nach der Konferenz tun.

In diesem Zusammenhang ist es eine interessante Möglichkeit, dass die Radikalen eine dritte Partei mit einem grünen Kandidaten bei den US-Wahlen stützen, genau wie grüne Herausforderer die moderaten demokratischen Amtsinhaber. Ich kann mir gut vorstellen, dass Bernie Sanders als unabhängiger Kandidat bei den Wahlen antritt, falls er nicht von den Demokraten nominiert wird (was wahrscheinlich nicht der Fall sein wird).

Falls die Radikalen die Demokratische Partei festnageln und die Linken spalten, wären das sehr gute Nachrichten für Präsident Trump und die Republikaner. Dies ist das potentielle Positivum gegen den neuen grünen Extremismus.

So wie es jetzt aussieht, zerfällt die Klima-alarmistische Bewegung an den Nähten. Ich sage dazu: Lasst sie sich in Ruhe zerreißen.

Link: https://www.cfact.org/2019/09/28/is-climate-alarmism-tearing-itself-apart/

Übersetzt von Chris Frey EIKE