Merkel, das IPCC und die Geister, die sie rief: Teil 4 – Der „himmlische“ Wind

Im Teil 3 war dargelegt worden, welche Anforderungen Technologien zur Stromerzeugung erfüllen sollten, wenn damit unsere heutige technische Zivilisation aufrechterhalten werden soll. Dazu wurde der aktuelle Strombedarf sowohl bezüglich des Jahresverlaufs als auch im Detail des Wochen- und Tagesverlauf analysiert und aufgezeigt, wie entscheidend die Frage sofortiger Verfügbarkeit bei Bedarf ist. Eine eingehende Betrachtung der Charakteristiken der Fotovoltaik zeigte bereits, dass diese in keiner Weise imstande ist, die sichere Versorgung einer modernen Industrienation mit elektrischer Energie zu gewährleisten. Werfen wir jetzt einen Blick auf das Potenzial der Windenergie – sowohl an Land als auch auf See.

Windenergie an Land

In Deutschland standen im Jahr 2018 rund 29.000 Windenergieanlagen an Land (Onshore) mit einer (im Jahresmittel) nominellen Leistung von 52.014 MW. Im Verlauf des Jahres lieferten sie insgesamt 89.500.000 MWh (89,5 Terawattstunden) Strom ab. Hieraus ergibt sich ein mittlerer Jahres-Nutzungsgrad von lediglich 19,6 %. Anders ausgedrückt: Im Prinzip stehen diese Milliarden teuren Windräder zu mehr als 80 % des Jahres still und liefern keinen Strom. In der gewerblichen Wirtschaft könnten Kaufleute oder Ingenieure, die so etwas zu verantworten hätten, vermutlich ihre Papiere abholen. Politiker werden dagegen für solche Leistungen mit Wählerstimmen belohnt…

Zunächst interessiert natürlich die Frage, wie gut denn nun die tägliche Windstromerzeugung zum jeweiligen Tagesbedarf über das Gesamtjahr 2018 hinweg passt, Bild 2.

Bild 2. Tag-für-Tag-Gegenüberstellung der Onshore-Windstromerzeugung mit dem jeweiligen Bedarf (Grafik und Berechnungen: Autor, Daten)

Bild 2 vermittelt auf den ersten Blick noch nicht allzu viele Erkenntnisse, abgesehen von der Tatsache, dass die Windstromproduktion von Tag zu Tag erheblichen Schwankungen unterliegt. Um die tatsächliche Bedeutung dieser Schwankungen besser einschätzen zu können, sollte man sich zunächst die absoluten Minimal- und Maximalwerte ansehen, da dies Informationen über die Zuverlässigkeit der Stromquelle „Windenergie“ liefert. Dass der Wind lokal starken Schwankungen unterliegt, ist ja bereits seit den Zeiten der ersten Segelschiffe bekannt. Wir erinnern uns auch, dass die Vertreter der Windkraftlobby in diesem Zusammenhang mit dem Spruch „irgendwo weht immer Wind“ auftraten und behaupteten, unterschiedliche Windstärken würden sich aufgrund der Größe Deutschlands mehr oder weniger ausgleichen. Da uns die Erzeugungsdaten von 29.000 über ganz Deutschland verteilten WEA-Anlagen zur Verfügung stehen, schauen wir uns einmal diese Min-Max-Werte genauer an, Bild 3.

Bild 3. Minimale und maximale Leistung der deutschen Onshore-Windenergieanlagen im Jahr 2018 (Grafik und Berechnungen: Autor, Daten)

Der in Bild 3 dargestellte Leistungsverlauf bei Schwachwind ist mit Blick auf die Versorgungssicherheit geradezu niederschmetternd. Entscheidend für die Netzversorgung ist nämlich die sogenannte gesicherte Leistung, d.h. diejenige Leistung, auf welche sich die Versorger auch im sogenannten „worst case“-Fall in jedem Fall verlassen können. Diese entspricht mit blamablen 179 MW gerade einmal 3,4 PROMILLE der installierten Gesamtleistung von 52.014 MW. Da der Sonnenstrom seinerseits trotz einer installierten Leistung von 43.036 MW überhaupt keine gesicherte Leistung liefern kann, sind Solar- und Onshore-Windstrom selbst zusammen trotz ihrer Gesamtkapazität von zusammen 95.050 MW bei ungünstiger Wetterkonstellation nicht imstande, zusammen auch nur 1,9 PROMILLE ihrer Nennleistung ins Netz zu liefern. Anders ausgedrückt: Zur Sicherstellung der Versorgung der Bevölkerung mit Strom muss zu allen Zeiten ein komplettes Ersatz-System mit der vollen Kapazität zur Deckung der Netzlast von bis zu 90.000 MW als Ersatz für die „klimarettenden“ Technologien bereitstehen und innerhalb kürzester Zeit in Aktion treten können. Das entspricht der Kapazität von mindestens 90 Steinkohlekraftwerken oder 64 Kernkraftwerken oder 105 Gas-und-Dampf-Kraftwerken des Typs Irsching 5. Diese Kraftwerke müssen wohlgemerkt rund um das Jahr mitsamt vierschichtiger Belegschaft im perfekt gewarteten und einsatzbereiten Zustand bereitstehen, um jederzeit einspringen zu können, wenn Wind und Sonne keine Lust haben, ihren Job zu erledigen. Das bedeutet, dass der komplette Kostenumfang (bis auf die Brennstoffkosten) das gesamte Jahr über anfällt und selbstverständlich vom Stromkunden zu bezahlen sein wird. Angesichts dieser Zahlen aus der Realität ist es nichts weiter als ein schlechter Witz, wenn die bundeseigene Deutsche Energie Agentur (DENA) für die Beurteilung der gesicherten Leistung des Windstroms bei der Kalkulation des sogenannten Leistungskredits von Windenergieanlagen einen Satz von vollen 6 Prozent in Ansatz bringt. Ein weiterer der zahllosen Tricks, mit denen sich die Politik ihr Ziehkind „Energiewende“ schönrechnet.

Um die Sache auf den Punkt zu bringen: Deutschland hätte von heute auf Morgen eine gesicherte Stromversorgung, einfach indem sämtliche Wind- und Solaranlagen sofort endgültig abgeschaltet würden. Und wir hätten uns eine Billion Euro an sinnlos aus dem Fenster geworfenem Geld erspart.

Und das „Wunderkind“ Offshore-Windenergie?

Da der Wind auf See bekanntlich stärker und gleichmäßiger weht als an Land, wurden bereits seit Jahrzehnten Planungen zur Errichtung von sogenannten Offshore-Windenergieanlagen vorangetrieben. Handicap waren die im Vergleich zu Installationen an Land erheblich höheren Anlagenkosten, die sehr rauen Einsatzbedingungen sowie die Kosten und Probleme der Stromübertragung von See an Land. Investoren mussten daher mit besonders hohen EEG-Zahlungen sowie der Übernahme der gesamten Anschlusskosten bis zum Land zusätzlich angelockt werden. Die ersten Stromlieferungen von Offshore-Windparks setzten daher erst im Jahre 2013 ein, mit Ende 2018 waren dann insgesamt rund 6400 MW Leistung vorhanden. Die mittlere Anlagenkapazität lag für 2018 bei 5730 MW, also etwas mehr als 10 % der Onshore-Kapazität. Im Bau sind inzwischen weitere Parks mit mehr als 3.000 MW.

Angesichts der erheblich besseren Windverhältnisse auf See gab es bei den entsprechenden Unternehmen hochfliegende Erwartungen bezüglich der zu erwartenden Nutzungsgrade, die bei deutlich über 40 % liegen sollten. Dem Verfasser ist noch eine Fernsehsendung erinnerlich, in der eine Ingenieurin davon schwärmte, mit den Offshore-Windparks sei man fast schon grundlastfähig. Diese Erwartungen scheinen sich allerdings nicht so recht zu erfüllen, denn der Nutzungsgrad der deutschen Offshore-Windstromproduktion lag für das Jahr 2018 bei lediglich 38 %, das ist nur etwa doppelt so hoch wie der an Land erzielte Wert.

Als nächstes ist anschließend von Interesse, wie sich die angeblich stabileren Windverhältnisse auf See auf die Mindest-Stromerzeugung auswirken, Bild 4.

Bild 4. Minimale und maximale Leistung der deutschen Offshore-Windenergieanlagen im Jahr 2018 (Grafik und Berechnungen: Autor, Daten)

Wie Bild 4 ausweist, erreichten die Offshore-WEA am besten Tag des Jahres geradezu phantastische Leistungsabgaben zwischen 59 und mehr als 90 % ihrer Nennleistung (Höchstwert 92,4 %). Doch wie sieht es am anderen Ende der Leistungsskala aus? Der Minimalwert am 26.3.2018 ist mit ganzen 2 MW bzw. 0,35 PROMILLE der Nennleistung sogar noch enttäuschender als derjenige der Onshore-Anlagen. Es kann daher festgehalten werden, dass weder Sonne noch Wind – egal ob Offshore oder Onshore – imstande wären, die für Deutschland unabdingbare kontinuierliche Versorgung mit elektrischem Strom sicherzustellen. Um eine komplette, ununterbrochen an 365 Tagen im Jahr rund um die Uhr einsatzbereite Phalanx einsatzbereiter Fossil- oder Kernkraftwerke kämen wir daher auch bei forciertem Ausbau der Offshore-Windenergieversorgung keinesfalls herum.

Auch zusammengeschirrt bilden drei tote Pferde kein brauchbares Gespann

Wie diese Beispiele deutlich zeigen, erfüllt keine der drei angesprochenen Stromerzeugungstechnologien auch nur annähernd die Anforderungen, die an die Stromversorgung Deutschlands zu stellen sind. Da jedoch Sonne und Wind sowie Onshore- und Offshorewind nicht unmittelbar voneinander abhängen, wird seitens der Profiteure dieser Energieformen immer wieder behauptet, die Schwächephasen träten nicht gleichzeitig auf und in der Kombination aller drei Quellen komme es zu einem Ausgleich. Was sagen hierzu die Daten des Jahres 2018, Bild 5 und Bild 6.

Bild 5. Qualitativer Vergleich der Tagesproduktion von Onshore- und Offshore-Windstromanlagen in Deutschland für das Jahr 2018 (Grafik und Berechnungen: Autor, Daten)

Zur besseren Vergleichbarkeit wurde die Kurve der Offshore-Windstromdaten in Bild 5 so gespreizt, dass die relativen Amplituden denen der Onshore-Windstromdaten entsprechen. Aus den Kurvenverläufen ist zu erkennen, dass Leistungsspitzen und -täler häufig zeitlich mehr oder weniger überlappend auftreten, auch wenn sich ihre relativen Amplituden teils deutlich unterscheiden. Das ist auch nicht weiter verwunderlich, da die Windfelder zwischen Land und See eine gewisse Zeit unterwegs sind, bevor sie Einfluss auf die jeweilige Stromproduktion haben. Eine nennenswerte gegenseitige Kompensation ist jedenfalls nicht erkennbar. Besonderes Augenmerk verdient in diesem Zusammenhang der Verlauf der drei „erneuerbaren“ Stromerzeuger am 19.2.2018, Bild 6.

Bild 6. Verlauf der Leistungsabgaben von Sonne und Wind am 19.2.2018 (Grafik und Berechnungen: Autor, Daten)

Der 19.2.2018 war ein eisiger Tag mit Temperaturen bis teils in den tiefen Frostbereich. In Zeitschriften war von einer „Russenpeitsche“ die Rede, d.h. einer Ostströmung kalter Luft. Tagsüber lag der Strombedarf bei bis zu 77.000 MW und fiel auch in den Nachtstunden nicht unter ca. 60.000 MW. Die Kombination aus kalter Luft aus dem Osten bei niedrigen Windgeschwindigkeiten und geringer Sonneneinstrahlung aufgrund der kurzen Tageslichtzeit und des niedrigen Sonnenstandes ist in Fachkreisen auch als „Dunkelflaute“ bekannt. Gerade in dieser kritischen Lage zeigte sich, dass Deutschland nicht auf die „erneuerbaren“ zählen konnte. Die getrennte Darstellung der drei Erzeugervarianten zeigt, dass sowohl Onshore- als auch Offshore-Windenergie bereits ab ca. 07:00 Uhr auf katastrophal niedrige Werte einbrachen. Ab dieser Zeit hielt einzig die aufgrund des klaren Himmels einigermaßen ansteigende Solarstromproduktion die „EE“-Fahne noch hoch, während der Wind seinen Dienst um ca. 15:00 Uhr nahezu komplett einstellte. Nur Onshore-Wind frischte ab ca. 16.00 wieder etwas auf, so dass die Bilanz nicht ganz so katastrophal ausfiel, wie es hätte sein können. Immerhin lieferten Sonne und Windanlagen um 17:30 Uhr zusammen noch 563 MW ins Netz. Das waren stolze 5,6 PROMILLE der gesamten installierten 100.780 MW an installierter „EE“-Leistung. Bei den einzelnen Teilnehmern an diesem Wettbewerb brauchen wir nur die beiden Wind-Kategorien zu berücksichtigen, da Solarstrom aus den bekannten Gründen von vorherein keinerlei Versorgungssicherheit bieten kann. Bei Onshore-Wind lag das Leistungsminimum bei 179 MW (3,4 PROMILLE der installierten Leistung), während Offshore noch 42 MW ablieferte, was immerhin 7,3 PROMILLE der eigentlich installierten Kapazität ausmachte. Lediglich der Zeitversatz von etwa 75 Minuten zwischen den beiden Minima und die Tatsache, dass die Sonne noch etwa eine Stunde lang stützend zur Verfügung stand, verhinderte Schlimmeres. Selbst für jemanden ohne tiefer gehenden technischen Sachverstand ist es unbegreiflich, wie eine Regierung auf ein solches Gespann toter Pferde als entscheidende Stützen der künftigen Energieversorgung des Lands setzen kann.

Zusatzproblem: Prognoseabweichungen

Ein bisher in Veröffentlichungen zur Windenergie wenig berücksichtigtes Problem sind die sogenannten Prognoseabweichungen. In einem komplexen Hochleistungssystem wie unserer Stromversorgung ist die Planbarkeit von Leistung unabdingbar, und zwar sowohl bezüglich des Bedarfs als auch mit Blick auf die Produktion. Nur so ist es möglich, teure Kapazitäten und Ressourcen so kosteneffizient wie möglich bereitzustellen. Ja brutaler man anderenfalls Kraftwerke bei ungeplanten Laständerungen „mit quietschenden Reifen durch die Gänge jagen“ muss, desto höher ist der Verschleiß und desto häufiger sind Stillstände sowie vorzeitige (und oft sehr teure) Reparaturen. Dies wirkt sich auch unmittelbar auf die Beschaffungspreise für den Strom aus, denn je kurzfristiger ungeplante Beschaffungen oder Stornierungen anfallen, desto teurer dann an den Börsen. Deshalb haben die Erzeuger die voraussichtlichen Lastgänge schon seit Jahrzehnten sorgfältig abgeschätzt, um z.B. bei abendlichen Fußballereignissen bereit zu sein, wenn Millionen Sportfans nahezu gleichzeitig ihre Fernseher anknipsen. Allerdings hatte man damals zumindest Gewissheit darüber, dass die Kraftwerke dann das, was das Netz benötigte, auch würden liefern können.

Mit der Zunahme der wetterabhängigen Stromquellen Wind und Sonne wird diese Berechenbarkeit auf der Versorgungsseite ausgehebelt. Neben den bisherigen – und dank der Erfahrung der Versorger einigermaßen gut abschätzbaren – Störgrößen kommen jetzt auch noch diejenigen auf der Erzeugerseite hinzu, die in ganz anderen Größenordnungen auftreten. Hierfür gibt es mittlerweile spezialisierte Dienstleister, die mithilfe von Wetterdaten und ausgefeilten Programmen versuchen, die Auswirkung der jeweiligen Wetterkapriolen auf die Lieferung von Solar- und Windparks vorherzusagen. Schließlich müssen die Stromversorger alles, was Wind und Sonne zu liefern imstande sind, komplett abnehmen und den „fossilen“ dann eventuell kurzfristig mitteilen: „Nett, dass ihr euren Kessel auf Betriebstemperatur vorgeheizt habt, aber auf den entsprechenden Kosten bleibt ihr leider sitzen, wir brauchen euren Strom doch nicht, weil der Wind plötzlich aufgefrischt hat“. Auf den Kosten bleiben die „konventionellen“ Erzeuger dann sitzen bzw. müssen sie über ihre Preise letztlich an die Verbraucher weiterreichen.

Leider sind Wetterprognosen bekanntlich mit großen Ungenauigkeiten behaftet (es sei denn, sie betreffen die ferne Zukunft, dann erreichen sie als Klimaprognosen eine verblüffende Präzision). Beim Wind ist es besonders schwierig, und leider geht gerade die Windgeschwindigkeit mit der 3. Potenz in die Stromertragskalkulation der Windenergieanlagen ein. Schauen wir uns daher einmal an, wie weit manche Prognosen nach unten bzw. oben im Jahr 2018 an der Realität vorbeigingen, Bild 7 und Bild 8.

Bild 7. Größte Prognoseabweichung nach oben des Jahres 2018 (Grafik und Berechnungen: Autor, Daten)

Der Autor hatte bereits im Jahr 2014 Untersuchungen zu Prognoseabweichungen bei der Windstromerzeugung durchgeführt. Damals erreichte der größte positive Prognosefehler 7.800 MW bei rund 34.000 MW an installierter Leistung. Zu den 2018 in Bild 7 ausgewiesenen mehr als 11.000 MW ist anzumerken, dass hierzu im Prinzip noch die am gleichen Tag aufgetretene Negativabweichung von -1.269 MW hinzuzurechnen ist. Deswegen hatten die Stromversorger innerhalb von nur 19 Stunden diese Gesamt-Prognosedifferenz von 12.463 MW zu bewältigen. Da beide Peaks – der positive wie auch der negative – außerhalb des Zeitfensters starker Solarleistung auftraten, sind die Abweichungen nahezu ausschließlich dem Konto der damals installierten Windkapazität von rund 57.740 MW zuzurechnen. Der Fehler lag in beiden Jahren mit jeweils 21,6 bzw. 22,9 % der installierten Gesamtleistung erstaunlich gut in der gleichen Größenordnung. Dies weist darauf hin, dass die Zuverlässigkeit der Prognosen in den fünf Jahren seither trotz aller Fortschritte der Computer- und Messtechnik nicht verbessert werden konnte.

Bild 8. Größte Prognoseabweichung nach unten des Jahre 2018 (Grafik und Berechnungen: Autor, Daten)

Wesentlich kritischer sind allerdings die negativen Prognoseabweichungen, die bei der damaligen Untersuchung noch bei der Hälfte dessen lagen, was in positiver Richtung auftrat. Wie Bild 8 zeigt, liegen sie inzwischen in der gleichen Größenordnung wie die positiven (-9.247 -1.102 = -10.349). Für die Versorgungssicherheit sind negative Abweichungen viel kritischer als positive. Wenn weniger Leistung benötigt wird als prognostiziert, kann man den Überschuss wenigstens noch mit negativen Preisen ins Ausland verhökern, wie es ja heute immer mehr zur Regel wird, denn der Schaden ist dann zumindest nur rein finanzieller Art. Anders ist es jedoch bei größeren Defiziten, denn dann drohen irgendwo die Lichter auszugehen. Mehr als 10.000 MW an Leistungs-Unterdeckung bedeutet, dass mal eben auf die Schnelle rund 10 Großkraftwerke von Null auf volle Leistung hochgefahren werden müssen. Und in wenigen Jahren sollen ja genau diese Kraftwerke nicht mehr zur Verfügung stehen.

Zusatzproblem: Die Gradienten von Sonnen- und Windstrom

Ein weiteres Handicap der „EE“-Stromerzeugung resultiert aus der Kombination der Willkürlichkeit der Schwankungen der jeweils angebotenen Leistung mit den ständig gesteigerten Kapazitäten, was sich in den nächsten Jahren weiter verschärfen wird. Bereits Anfang 2019 lag die nominell installierte Kapazität von Onshore- und Offshore-Windanlagen sowie Fotovoltaik bei insgesamt rund 104.000 MW (6.393 MW Offshore-Wind, 52.700MW Onshore-Wind und 44.905 Solar). Bei entsprechender Wetterlage könnten diese Anlagen bereits nahezu den gesamten Strombedarf decken, insbesondere an Feiertagen in der warmen Jahreszeit. Das Problem: Damit würden nicht nur sämtliche fossilen und kerntechnischen Kraftwerke faktisch zum Stillstand gezwungen, sondern es käme auch zu Konflikten mit den anderen „EE“-Erzeugern wie Wasserkraft, Biomasse oder Müllverbrennung sowie der Kraft-Wärmekopplung. Über diese mit dem weiteren Zubau zunehmend drohenden Probleme hört man jedoch kaum etwas. Auf der anderen Seite müssen immer ausreichend Kraftwerkskapazitäten bereitstehen, damit bei schwächelnder „EE“-Stromerzeugung die Versorgung des Landes nicht zusammenbricht. Das stellt sowohl die Besitzer konventioneller Kraftwerke als auch die Betreiber der Übertragungsnetze vor Aufgaben, die mit jeder zusätzlichen Windmühle sowie jedem zusätzlichen Solarpaneel schwieriger bis unlösbarer werden. Schauen wir uns einmal an, welche Folgen es für die anderen Stromversorger hat, wenn die Stromproduktion aus Wind und Sonne wetterbedingt massive Schwankungen hinlegt, Bild 9.

Bild 9. Entwicklung der Leistungsbereitstellung von Wind- und Solarstromerzeugern im Laufe des 21. Juni 2018 (Grafik und Berechnungen: Autor, Daten)

Aus Bild 9 geht hervor, dass die kombinierte Leistung der Wind- und Solarstromerzeuger am 21.6.2018 ab 5:00 Uhr innerhalb von nur 8 Stunden um gut 42.500 MW nach oben schoss, um danach wieder auf rund 24.300 MW abzusacken. Das entspräche dem gestaffelten Zuschalten von 42 Kohlekraftwerken oder fast 50 Gaskraftwerken des Irsching-5-Typs innerhalb einer einzigen Schicht. Und kurz danach hätte man 26 dieser Kohlekraftwerke bzw. 31 Gaskraftwerke wieder auf Null herunterfahren müssen, nur um diese wetterbedingte Leistungsschwankung wieder aufzufangen. Die konventionellen Erzeuger werden nicht nur immer stärker zu reinen Lückenbüßern der „erneuerbaren“ degradiert. Diese brutalen Schwenks verursachen zudem immer höhere Kosten. Andererseits erlauben die Behörden den Betreibern häufig nicht, ihre ins Defizit getriebenen Erzeugungseinheiten abzuschalten und vom Markt zu nehmen. Derzeit sind von den Betreibern 45 Kraftwerke mit einer Gesamtleistung von 11.179 MW zur Stilllegung angemeldet. Hiervon wurden 23 mit einer Gesamtkapazität von ca. 6.800 MW als „systemrelevant“ eingestuft, was bedeutet, dass die Betreiber gezwungen werden, ihre nicht mehr rentablen Einheiten weiterhin betriebsbereit zu erhalten.

Ebenso bedeutsam, aber in der Regel kaum irgendwo erwähnt ist die Frage des Ausgleichs der kurzfristigeren Schwankungen zwischen dem Netzbedarf und der Erzeugung von Sonnen- und Windstrom. Hierzu wurden die viertelstündlichen Messdaten von Erzeugung und Verbrauch miteinander verglichen und die Veränderungen herausgefiltert. Es geht also nur um die innerhalb der jeweiligen Viertelstunde erkennbaren Unterschiede, die selbstverständlich von den (noch) vorhandenen regelbaren Kraftwerken sekundengenau ausgeglichen werden müssen, Bild 10.

Bild 10. Kurzzeitschwankungen und damit entstehender kurzfristiger Ausgleichsbedarf zwischen Erzeugung (Wind und Solar) sowie Netzbedarf am 14.2. 2018 (Grafik und Berechnungen: Autor, Daten)

Die grafische Auftragung zeigt ein wildes Zackenmuster mit Amplituden von bis zu mehr als ± 1.500 MW. Jede dieser Zacken erfordert also die sehr kurzfristige Bereitstellung von Ausgleichsleistung – teils negativ, teils positiv – in einer Größenordnung, die der Leistung von 1-2 Kohle- oder Gaskraftwerken entspricht. Ohne dieses ständige Ausbügeln der Schwankungen der „erneuerbaren“ Stromerzeuger würde das Netz innerhalb kürzester Zeit instabil werden. Je mehr dieser „Zappelstromquellen“ die Bundesregierung jetzt mit der Brechstange ans Netz bringen will, desto schlimmer wird es. Mit der weiter voranschreitenden Stilllegung zuverlässig regelbarer Kraftwerke wird irgendwann ein Kipppunkt unterschritten werden, ab dem die Netzstabilität nicht mehr gewährleistet werden kann.

Hintergrundliteratur

Limburg, M.; Mueller, F.: Strom ist nicht gleich Strom TvR Medienverlag, Jena, ISBN 978-3-940431-54-7




Milliardenschäden: Klima-Alarmisten sollten verklagt werden

Kernindustrien, die für den Export von eminenter Bedeutung sind, werden peu-a-peu zerstört.

Ineffiziente Energieträger für Wind und Sonne werden mit Milliarden Steuergeldern am Leben erhalten, weil sie weder verlässliche Stromproduzenten noch konkurrenzfähige Stromproduzenten sind.

Die Strompreise schießen in die Höhe, weil Verbraucher nicht nur den Bau ineffizienter Wind- und Solarparks über Subventionen finanzieren, sondern den produzierten Strom zu garantierten Preisen kaufen müssen, was den irrsinnigen Effekt hat, dass der Strom für Deutsche umso teurer wird, je billiger Strom an der EPEX, der Europäischen Strombörse, gehandelt wird.

Die horrenden Strompreise haben in Deutschland die Stromarmut als neuen Begriff begründet. Es gibt immer mehr Haushalte, die Probleme haben, die Kosten für Strom aufzubringen.

Gleichzeitig verhindert die Kanalisierung von Milliarden Euro in Wind- und Solarenergie eine sinnvolle Verwendung der entsprechenden Gelder und sorgt dafür, dass sie an anderer Stelle fehlen.

Hinzu kommt, dass die angeblich sauberen Formen der Energiegewinnung gar nicht sauber sind, der Materialeinsatz, der zur Errichtung eines Solar- oder Windparks notwendig ist, steht in keinem Verhältnis zum Gewinn, der erwirtschaftet werden kann. Der Flächenverbrauch ist in beiden Fällen immens, der Eingriff in die Umwelt verheerend für Artenvielfalt in Fauna und Flora. Die Frage der Entsorgung ist in beiden Fällen ungeklärt.

 

Der ganze Zinnober, die ganze Inszenierung, dient dazu, Menschen hohe Kosten für irrationale Entscheidungen aufzubürden, Entscheidungen, von denen eine kleine Gruppe profitiert, während die Mehrheit außer Kosten keinen Nutzen davon hat. Weil den hohen Kosten kein Nutzen gegenübersteht, deshalb werden die alternativen Energien, die besser ineffiziente Energien heißen würden, mit der Erzählung des Global Warming, das mittlerweile in Klimawandel umbenannt wurde, weil das Global Warming auf sich warten lässt, unterfüttert. Weil Menschen angeblich einen Klimawandel zu verantworten haben, deshalb müssen effiziente Formen der Stromerzeugung abgeschaltet und mit ineffizienten ersetzt werden. Diese Erzählung ermöglicht einen großangelegten Raub am Bürger, der historisch Seinesgleichen sucht.

Aber diese Erzählung ist falsch.

Die Klimamodelle, die die Erwärmung der Erde vorhersagen, sind miserabel bis peinlich. Ihre Vorhersagen weichen extrem von der tatsächlichen Entwicklung ab. Sie sind Junk Science.

Abweichung der durch Klimawandelmodelle vorhergesagten Temperaturentwicklung (rote Linie) von den tatsächlich gemessenen Temperaturen.

Immer mehr wissenschaftliche Arbeiten zeigen, dass auf Basis der Klimamodelle, die vom IPCC von James Hansen und Michael Mann verbreitet werden, keinerlei Einfluss von Menschen auf das Klima nachgewiesen werden kann.

Die aktuelle Arbeit von Patrick Frank vernichtet die Klimamodelle in Gänze und kommt zu dem Schluss, dass der Einfluss von Menschen auf das Klima, der über CO2 und andere Treibhausgase erfolgen soll, zu gering ist, als dass er überhaupt gemessen werden könnte.

Die Arbeit von Frank erweitert die Ergebnisse, die Kauppinen und Malmi vor einiger Zeit veröffentlicht haben. Auch die finnischen Forscher kommen zu dem Ergebnis, dass der menschliche Anteil an einem Klimawandel verschwindend gering ist, sofern überhaupt vorhanden.

Die beiden Arbeiten sind die aktuellsten einer Vielzahl von Arbeiten, die zeigen, dass die Erzählung vom menschengemachten Klimawandel falsch ist.

Ein Forscherteam um Jessica K. Wang hat unlängst gezeigt, dass das Klima der Erde sich im Einklang mit den Sonnenzyklen verändert. Dass die Sonne für das Klima auf der Erde verantwortlich ist, ist eigentlich eine solche Binse von Weisheit, dass man sich fragt, wieso man über einen solchen Blödsinn wie den angeblich von Menschen gemachten Klimawandel überhaupt reden muss.

Alle Prognosen und Behauptungen, die von denen, die von der Erzählung des menschengemachten Klimawandels profitieren, abgegeben wurden, haben sich als falsch erwiesen.

Nehmen wir doch zum Beispiel diesen Herrn:

Was haben die Klima-Alarmisten alles vorhergesagt? Wie viele Städte haben sie zwischenzeitlich schon im Meer versinken lassen, wie viele Alpenregionen haben sie schon von Skifahrt- zu Weinbaugebieten machen wollen?

Keine einzige der Vorhersagen ist eingetroffen.

Die Arktis schmilzt nicht. Sie entwickelt sich im Einklang mit einer zyklischen Entwicklung, wie man der folgenden Abbildung entnehmen kann, und wenn dieses Jahr besonders viel Eis schmilzt, dann deshalb, weil im letzten Jahr besonders viel Schnee gefallen ist.Würde nicht viel Eis schmelzen, wenn viel Schnee gefallen ist, dann würde Grönland immer höher und immer näher an die Stratosphäre heranreichen.

Wer das nicht glaubt, der kann ja die Forscher und Aktivisten fragen, die regelmäßig im Eis, das in der Arktis gar nicht vorhanden sein dürfte, wenn Al Gore und seine Meute recht hätten, stecken bleiben.

Klima-Alarmisten haben es in den letzten Jahrzehnten geschafft, einen angeblichen Konsens, den es genauso wenig gibt, wie den menschengemachten Klimawandel und der, selbst wenn es ihn gäbe, für die Wissenschaft irrelevant wäre, zu inszenieren, der in eine Herrschaft der Mediokren, der Lobbyisten, der Opportunisten und Kostgänger gemündet ist, die um des eigenen Vorteils willen, den menschengemachten Klimawandel herbeischreiben und jede Information, jedes Datum und jede falsifizierende Beobachtung unterdrücken.



Die Erzählung vom menschengemachten Klimawandel wird durch ein hegemoniales System gestützt, das Kritiker zu „Leugnern“ macht, um sie mit Holocaust-Leugnern gleichzusetzen, ein System, das an Hochschulen Kritiker wie Peter Ridd mundtot zu machen versucht, das über die Beherrschung von Peer Review Prozessen versucht, kritische Paper gar nicht erst zur Publikation zuzulassen und über politische Kanäle Forschungsmittel nur für diejenigen vorhält, die sich der Klimawandelreligion verschreiben und ihre Seele als Wissenschaftler verkaufen. Der Schaden, den diese Leute, Leute wie Al Gore, der Wissenschaft zugefügt haben, ist immens und vermutlich nicht mehr reparabel.

Vor diesem Hintergrund, vor dem Hintergrund einer massiven Beschädigung der Reputation von Wissenschaft, dem Hintergrund, dass jeder einzelne Bürger durch die Klimawandel-Hysterie finanziell und in seiner Lebensqualität geschädigt wurde und dem Hintergrund, dass durch die einseitige Verwendung von Steuermitteln, die in das bodenlose Fass der erneuerbaren Energien gesteckt wurden, Opportunitätskosten entstanden sind, die mit technologischem Rückstand verbunden sind, der kaum mehr aufzuholen ist, weil man nicht eben einmal Schnipp machen und die besten Forscher aus dem Bereich der Nuklearphysik zusammentrommeln kann, ist es an der Zeit, andere Seiten aufzuziehen und diejenigen, die für diese Verheerungen Verantwortung tragen, in die Verantwortung zu nehmen.

Das wäre ein Akt der Notwehr.




Es gibt kein katastrophales Risiko durch eine vom Menschen verursachte globale Erwärmung. Punkt!

Um richtige politische Maßnahmen zu etablieren, müssen die folgenden Punkte zu menschlichen CO2-Emissionen beachtet werden:

● Der Treibhauseffekt ist für alles Leben auf der Erde unabdingbar. Ohne den Erwärmungseffekt von ~33°C wäre der Planet wirklich ein sehr kalter und unbewohnbarer Ort.

● Der allergrößte Teil des Treibhauseffektes (über 90% bis 95%) wird durch Wasserdampf und Wolken in der Atmosphäre bewirkt.

● Atmosphärisches CO2 ist kein Verschmutzer. Stattdessen ist es die ultimative Voraussetzung für das Leben.

● Die Welt braucht atmosphärisches CO2 für das Überleben und die Düngung der Pflanzen. Daher ist CO2 essentiell für alles Leben auf der Erde.

Bei einer halb so großen atmosphärischen CO2-Konzentration wie derzeit stellen die Pflanzen die Photosynthese ein, und die Welt wird rasch aussterben. Im Vergleich zur geologischen Vergangenheit befindet sich die Welt derzeit in einer Periode der CO2-Verknappung, weil der größte Teil dieses Gases, einst mit einem Vielfachen in der Atmosphäre vertreten zu der Zeit, als die Pflanzen sich zu entwickeln begannen, seitdem in den Ozeanen als Kalkstein abgelagert worden ist.

Die CO2-Konzentration erreichte während der letzten Eiszeit von vor 120.000 bis 11.000 Jahren ein katastrophal niedriges Niveau. Das gefährlich niedrige CO2-Niveau könnte sehr gut in einer kommenden Eiszeit unterschritten werden. Kältere Ozeane absorbieren mehr CO2, und das ozeanische Leben fällt dieses mittels Bildung zu Kalkstein aus. Das ist die Art und Weise, mit der die Welt vielleicht in einer zukünftigen glazialen Periode an CO2-Mangel zugrunde geht.

Höhere CO2-Konzentrationen beflügeln das Pflanzenwachstum auf dem gesamten Planeten und reduzieren den Wasserbedarf der Pflanzen. Der NASA zufolge können etwa 15% der Ergrünung des Planeten schon jetzt der relativ jungen Zunahme der CO2-Konzentration zugeordnet werden.

Die Menschheit als Ganzes trägt nur zu einem Bruchteil zum CO2 im Kohlenstoff-Zyklus bei (etwa 3% pro Jahr), und jedwedes zusätzliche CO2 in der Luft wird sofort von den Ozeanen und der Biosphäre absorbiert (mit einer Halbwertszeit von etwa 5 Jahren).

Falls zusätzliches CO2 einen geringen Erwärmungseffekt hätte, wäre das nur gut. Daher kann atmosphärisches CO2 – sei es nun menschlichen oder natürlichen Ursprungs – unmöglich als ein Verschmutzer gesehen werden. Zur Bedeutung von CO2 siehe auch hier.

Es ist bekannt, dass die Effektivität von CO2 als wärmendes Treibhausgas rapide logarithmisch mit zunehmender Konzentration abnimmt:

Eine Konzentration von atmosphärischem CO2 unter 200 ppmv, äquivalent zu etwa 77% der CO2-Treibhaus-Effektivität, ist absolut und unabdingbar notwendig, um die Pflanzen und damit das Leben auf der Erde zu erhalten. Bei etwa 150 ppmv stirbt das Pflanzenleben aus. Und beim gegenwärtigen Niveau von rund 400 ppmv sind 87% der Effektivität von CO2 als Treibhausgas bereits ausgeschöpft:

Bei einer so geringen Effektivität von CO2 als Treibhausgas gibt es keinerlei Spielraum, dass jemals ein so gefürchteter Temperaturanstieg um 2°C oder darüber überhaupt möglich ist, was unverdrossen aber seitens der Alarmisten prophezeit wird und ausschließlich den menschlichen CO2-Emissionen geschuldet sein soll.

Die Alarmisten betrachten eine Erwärmung um 2°C als katastrophal und haben traurigerweise davon viele Politiker der westlichen Welt überzeugt. Ökonomisch ist das nicht so, und eine Erwärmung bis zu 2°C, so es dazu überhaupt kommt, wäre von Vorteil.

Zunehmende CO2-Konzentrationen in der Atmosphäre können höchstens zu einer sehr begrenzten weiteren Erwärmung führen und mit Sicherheit nicht zu einer katastrophalen oder irgendwie gefährlichen Erwärmung. Die Hypothesen hinter jener Behauptung werden in zwei unterschiedlichen Berechnungen widerlegt:

Unter Annahme einfacher Proportionalität:

● Wasser als Wasserdampf oder als Wolken in der Atmosphäre trägt zu 90 bis 95% zum Treibhauseffekt bei.

● Andere Treibhausgase sind marginal und brauchen nicht berücksichtigt zu werden.

● Der jüngste, den Menschen geschuldete Anstieg auf 300 bis 400 ppmv kann höchstens zwischen 0,41°C und 0,21°C liegen.

Unter der Annahme einer logarithmischen Abnahme:

● 77% des CO2-Treibhauseffektes 0 bis 200 ppmv sind unabdingbar zur Erhaltung des Lebens auf der Erde.

● Unter der Annahme, dass die gesamte Zunahme von 300 ppmv auf 400 ppmv den Menschen geschuldet ist, was 4,2% des Treibhauseffektes ausmacht, ergibt sich eine Erwärmung um 0,14°C bis 0,07°C.

● Der mögliche zukünftige Anstieg der Konzentration von 400 ppmv auf 500 ppmv würde folglich eine Erwärmung zwischen 0,11°C und 0,05°C zur Folge haben.

● Der spätere Anstieg der Konzentration von 500 ppmv auf 1000 ppmv kann höchstens zu einer Erwärmung von 0.33°C bis 0,17°C führen.

● Dies ignoriert die IPCC-Feststellung, wonach nur 50% der CO2-Zunahme auf das Konto der Menschen gehen, was diese Zahlen noch kleiner machen würde.

● Es ignoriert auch die Hypothese in den Klimamodellen, dass es eine massive positive Rückkopplung durch weiter zunehmende CO2-Emissionen geben würde: selbst wenn man das akzeptiert wäre eine weitergehende Erwärmung durch CO2-Emissionen marginal.

Es ist also jetzt sehr wahrscheinlich, dass die Auswirkung steigender CO2-Konzentrationen auf die globale Temperatur selbst bei der höchsten angenommenen Effektivität marginal unbedeutend ist hinsichtlich Erwärmung, aber sehr vorteilhaft in jeder anderen Hinsicht.

Die Versuche der Menschheit, die globale Temperatur zu kontrollieren mittels Begrenzung von CO2-Emissionen als Folge der Verbrennung fossiler Treibstoffe kann höchstens marginale oder unmessbare weitere Auswirkungen haben (hier).

Daher sind sämtliche Bemühungen der Menschheit in der westlichen Welt zur Dekarbonisierung fehlgeleitet, irrelevant und höchst unvernünftig.

——————————————

Dieser Beitrag ist eine per E-Mail eingegangene Zusammenfassung einer umfangreicheren Studie hier.

Übersetzt von Chris Frey EIKE




Noch ein ketzerischer Klima-Artikel: Patrick Frank aus Stanford stellt grundsätzlich Klimamodelle infrage

Und spätestens an dieser Stelle wird man feststellen müssen, dass auch Klimawissenschaftler nur Menschen sind und zutiefst menschlich reagieren. Mit Ablehnung, Verdrängung, Empörung und sogar mit Gegenangriffen. Sie holen ihre „großen Brüder“ zu Hilfe, versuchen sich Mehrheiten zusammenzutrommeln und schrecken manchmal sogar vor Tricksereien, Verleumdung und Betrug nicht zurück.

Dazu kommt das Problem einer sehr knappen Ressource, die im Wissenschaftsbetrieb als Währung gilt und bei der Frage nach Reputation oder Förderung eine immense Rolle spielt: die Veröffentlichung. Dabei handelt es sich aber nicht um Bücher oder Maischberger-Auftritte, sondern um Artikel in anerkannten wissenschaftlichen Journalen, wo man nur dann publizieren kann, wenn die Arbeit einer mehr oder weniger anonymen mehrstufigen Prüfung durch andere Experten auf eben diesem Gebiet standhält. Das hält zwar sicher einigen Unsinn aus den Blättern heraus und hilft, Fehler zu finden, kann sich aber als fast unüberwindbare Hürde erweisen, wenn man davon ausgehen kann, dass ein „Konsens“, gegen den man anschreibt, für ausreichend Vorurteile und Ignoranz sorgt. Stellen Sie sich einfach vor, liebe Leser, Galileo Galilei hätte sein „Paper“ im Vatikan zur Begutachtung vorlegen müssen und fragen Sie sich, ob sich dort eine demokratische Mehrheit von Gelehrten für eine Veröffentlichung ausgesprochen hätte. Die Sonne würde sich wohl immer noch um die Erde drehen.

Video des Vortrages von EIKE Vize Michael Limburg zur großen Unsicherheit die auch Zeitreihen aus historischen Temperaturdaten begleiten müssen. (Mehr Details dazu hier) zur Behandlung seiner Dissertation zum Thema durch die Universität Leipzig hier

Zunächst noch ein paar Worte zu den Wissenschaftsjournalen, die zwar große Namen haben, aber natürlich auch nicht frei sind von wirtschaftlichen Erwägungen und Trends. Gerade, wenn diese politisch verstärkt werden. Wer der scheinbar übermächtigen Einheitsmeinung nur ein paar weitere Krümel Gewissheit hinzufügt, ihr aber insgesamt nicht schadet und dem Trend folgt, hat es leichter. Falls Sie, sagen wir, die verheerende Wirkung von Brausepulver auf das Erdklima untersuchen wollen oder ein weiteres Treibhausgas auf die Anklagebank bringen möchten… das wird sich sicher machen lassen. Rechnen Sie aber nicht mit wohlwollenden Reviews, wenn sie die heiligen Knochen ausbuddeln, die das Fundament eines verfestigten Konsenses sind, um sie auf ihren Calciumgehalt zu prüfen. Man muss sich durch viel Beton durchkämpfen, bis man am Ziel ist und darf bei denjenigen, die sich behagliche Häuser auf dem Fundament gebaut haben, nicht auf große Liebe hoffen.

„Mehr vom Selben” statt „Probier was Neues”

Große Schwierigkeiten bekommt man zum Beispiel, wenn man eine der Säulen des Klimaalarmismus als Baugutachter unter die Lupe nimmt. Also die Rolle von CO2, die Qualität der Klimamodelle, welche als Werkzeuge der Vorhersage und als Alarmglocken dienen oder die Paläo-Messreihen, die aus Eisbohrkernen oder anderen Bohrungen indirekt auf Temperaturen der Vergangenheit schließen. Letzteres führte beispielsweise zu den Auseinandersetzungen rund um Manns Hockeystick-Kurve, von denen ich berichtete.

Warum das so ist, kann man leicht erraten. Denn seit Politiker vor etwas mehr als 100 Jahren begannen, bei Gesundheitsprogrammen auf die Expertise von Medizinern zu vertrauen, hatte noch nie eine so kleine Gruppe von Wissenschaftlern so große Macht über die Politik wie die Klimaforscher heute. Sogar ein bei der UN angesiedeltes Wächtergremium mit enger Agenda haben sie sich geschaffen. Der Weltklimarat, das IPCC, muss man wissen, hat nicht die Aufgabe, den Klimawandel zu untersuchen und Maßnahmen vorzuschlagen – das wäre ja ein Segen. Nein, das IPCC hat die Aufgabe, den menschengemachten Klimawandel zu untersuchen und Maßnahmen vorzuschlagen. Das sperrige Adjektiv macht den Unterschied und gibt die einzige Richtung vor, in die der Blick gehen darf. Raten Sie, was man herausfindet: Der Klimawandel ist menschengemacht. Und zwar ausschließlich! Damit konnte natürlich niemand rechnen…

Flankiert von mit Parolen ausgestatteten Aktivisten, die häufig nicht einmal die elementarsten Zusammenhänge verstehen, exekutiert die Politik die ausgesprochenen Empfehlungen: ruft in Städten den Klimanotstand aus, denkt laut über Klimasteuern nach und bereitet Verbote vor, gibt großzügig Forschungsgelder… Kurz: Man hängt auch als Wissenschaftler tief drin im Aktionismus und dem Umbau der Gesellschaft und ist Stichwortgeber bei einem gigantischen Gesellschaftsexperiment, das nach Meinung aller Ökonomen auch und nach Meinung vieler nur schief gehen kann. Es steht für einen Wissenschaftler also mehr auf dem Spiel als ein paar Drittmittel. Aber Geld schafft Begehrlichkeit, wenn es auf den Tisch gelegt wird und das Paris-Abkommen allein (bei dem jedes teilnehmende Land völlig verschiedene Verpflichtungen auf je einen Zettel schrieb, welche dann zusammengebunden und als Abkommen proklamiert wurden) sorgt dafür, dass es um hunderte Milliarden Dollar und Euro geht.

Die westliche Gesellschaft (und nur diese) hat sich hineinziehen lassen in eine offene wissenschaftliche Debatte und sich dort binnen kurzer Zeit auf jene Seite geschlagen, die ihr den meisten Aktionismus und die umfassendste politische Einflussnahme versprach. Dabei sind die Protagonisten und die Argumente im Wesentlichen dieselben wie vor 30 Jahren, wie man in dieser sehenswerten Channel4-Doku aus dem Jahr 1990 sehen kann. Aber die Zeit lässt sich nicht zurückdrehen, und man kann denjenigen, die schon vor 30 Jahren zu Sachlichkeit und Vernunft rieten, kaum vorwerfen, dass sie nicht deutlich genug vor dem Gedanken-Kollektivismus warnten, in den wir uns heute freiwillig begeben.

Gleichschaltung, Hysterie, Faktenfreiheit

Als ich neulich über einen Zivilprozess wegen Verleumdung berichtete, den einer der bekanntesten Vertreter der Klimaalarmisten gegen einen seiner Kritiker angestrengt hatte und der nun eingestellt wurde, erhielt mein Artikel viel Aufmerksamkeit. Sowohl Skeptiker als auch Alarmisten sahen sich bestätigt und spannen einen Faden weiter, der so im Artikel überhaupt nicht zu finden war. Dr. Mann sei verurteilt worden, das Gericht hätte dem Klimaschwindel ein Ende bereitet, war vielerorts zu lesen.

Nichts davon habe ich geschrieben, weil nichts davon passiert war. Selbst der sonst so besonnene Boris Palmer – sicherlich genervt, weil er von verschiedener Seite meinen Artikel zugeschickt bekam – konnte nicht an sich halten und unterstellte mir Aussagen, die ich nie geschrieben hatte. Auf der anderen Seite schlugen die reflexhaften Verteidiger von Manns Hockeystick-Kurve Purzelbäume, weil sie sich veranlasst sahen, ein Paper aus dem Jahr 1998 zu verteidigen, von dem viele glaubten, es sei nach jahrelangen Kontroversen endlich in Vergessenheit geraten. Nun wurde es wieder ans Licht gezerrt, und die Verteidiger stellten sich schützend vor einen Leichnam, bei dessen Beerdigung sie wohl noch zur Schule gingen.

Da waren Aussagen zu lesen wie „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“, was nochmal einen Zacken mehr falscher Gewissheit enthält als die üblichen Eröffnungszüge solcher Debatten, bei denen man als erstes etwas von 97 Prozent oder 99 Prozent zu hören bekommt – ganz so, als sei die Dimension von DDR-Wahlergebnissen jemals Beleg für Wahrhaftigkeit gewesen.

Wie dem auch sei, den voreiligen Skeptikern sei gesagt, dass die Theorie Manns in Kanada nicht vor Gericht stand, sondern sein Kontrahent Ball in Person und dass Gerichte generell nicht über wissenschaftliche Theorien entscheiden. Noch nicht. Auch wenn wir aktuell nur noch ein Augenzwinkern davon entfernt zu sein scheinen, „Klimaleugnung“ als Straftatbestand zu betrachten. Doch was Gerichte noch unterlassen, exekutieren längst die Aktivisten. In der deutschen Wikipedia werden bereits fleißig Markierungen angebracht, um gute von bösen Wissenschaftlern und Publizisten zu unterscheiden. Weitere mentale Infektionen sind also zu erwarten.

Die menschengemachte Klimawissenschaft

„Sobald der Menschenseele ein neues Dogma eingepflanzt ist, inspiriert es die Institutionen, die Künste und das Verhalten der Menge. Die von ihm über die Seelen geübte Herrschaft ist dann eine absolute. Die Männer der Tat denken nur an dessen Verwirklichung, die Gesetzgeber nur an dessen Anwendung, die Philosophen, Künstler, Schriftsteller beschäftigen sich nur mit dessen Umsetzung in verschiedene Formen.”

(Gustave Le Bon, „Psychologie der Massen”, 1895)

Dass es sich beim „Menschengemachten Klimawandel“ um ein Dogma handelt, wie es Le Bon beschrieb, zeigte sich wieder einmal in Gesprächen, Kommentaren und e‑Mails, die mich nach dem Artikel erreichten. Ich unterschlage hier die Beschimpfungen und „guten Reisewünsche“ und bringe nur dieses, leicht eingedampfte Beispiel:

A: 97% der Wissenschaftler sind sich einig: Der Klimawandel ist menschengemacht. Es muss also stimmen!

Ich: Die Zahl 97% ist ein Mythos, die zugrundeliegende Metastudie von Cook et al. klammerte viele jener Studien aus, die sich nicht festlegten, ob oder ob nicht und wenn ja, wieviel Einfluss der Mensch hat.

A: Ob nun 97 Prozent, 50 Prozent oder 20 Prozent – das ist dem menschengemachten Klimawandel doch egal!

Das heißt, eine unbewiesene Hypothese ist längst ins Fundament eingesickert und dort fest geworden. Unerhört, diese noch infrage zu stellen – man würde den Aktivisten ja ihre liebsten Satzanfänge wegnehmen. Deshalb auch die absolutistische Verteidigung der Mann’schen Hockeystick-Kurve, die sehr wohl im Feuer der Kritik stand und bis heute steht.

Die Sache mit der Genauigkeit

Ich möchte an dieser Stelle nur den Beweis führen, dass die Aussage „ausnahmslos alle Untersuchungen haben ergeben, dass die Kurve stimmt“ schlicht falsch ist, ohne die Diskussion wieder auf das juristische Geplänkel zwischen Mann und Ball zu lenken. Zu nennen ist hier insbesondere die Arbeit von Stephen McIntyre und Ross McKitrick von 2005, in der sie, vereinfacht gesagt, besonders die Temperatur-Messreihen Manns in Zweifel ziehen, die dieser aus den Baumringen amerikanischer Borstenkiefern herleitete und nach Meinung von McIntyre und McKitrick (M&M) die historischen Temperaturwerte als zu niedrig angab. (Wer übrigens wissen möchte, was man mit historischen Messreihen so alles machen kann, dem empfehle ich dieses Video.)

Der Vorwurf von M&M zielte mitten ins Herz der Klimaalarmisten, weil er sich mit einem Feld befasst, dem schon so manche schöne Theorie zum Verhängnis wurde: mangelhaftes Fehlerbewusstsein und Fehlerdiskussion. Die Debatte über die von M&M gefundenen Ungereimtheiten ist hochinteressant und gleicht eher einem spannenden Krimi als der bloßen Kollision zweier wissenschaftlicher Interpretationen. Und sie ist keinesfalls entschieden oder abgeschlossen, auch wenn es heute etwas ruhiger ist an dieser Front, weil sich das Feuer längst auf andere Schauplätze verlagert hat. Die vorlaute Verteidigung, Manns Kurve hätte einhellige Zustimmung erfahren und sei allgemein unumstritten, darf jedoch als widerlegt betrachtet werden.

Während Mann sich auf der Seite der Messreihen in einem alten Krieg befindet, gibt es andere Wissenschaftler, die eher die prognostische Seite der IPCC-gesteuerten Klimaforschung in Zweifel ziehen: die Klimamodelle. Richtige Panik kann nämlich erst aufkommen, wenn man der Menschheit mit schrecklichen Graphen droht, die für die Zukunft nichts Gutes prophezeien. Auch alle politischen Ziele wie die Begrenzung des CO2-Ausstoßes oder das 1,5°-Ziel von Paris gehen aus diesen Prognosewerkzeugen hervor. Vereinfacht gesagt, füttert man die Modelle – und es gibt Dutzende davon – mit Werten für Temperatur und CO2 und ändert die Werte solange, bis die gewünschte Kurve dabei herauskommt. Die Werte erhält die Politik und übersetzt diese in Verbote und Steuern. Wie gesagt, etwas komplizierter ist es schon, aber die zweite (Was soll ich tun?) und dritte (Was darf ich hoffen?) Grundfrage der Vernunft, wie sie Kant formulierte, beantwortet die Klimawissenschaft mit diesen Werkzeugen. Handeln und Glaube sind gesetzt, doch sollten wir die erste Frage „Was kann ich wissen?“ nicht aus dem Auge verlieren. Womit wir wieder bei der Genauigkeit wären und der Frage, was die Klimamodelle wirklich taugen, aus deren Orakeln die Politik Handlungsanweisungen ableitet.

Die Klimawissenschaft als „nackter Kaiser“?

„Nach dem gegenwärtigen Stand der Theorie wird sich ein AGW-Signal (siehe 1., Roger Letsch), falls vorhanden, niemals aus dem Klima-Rauschen hervorheben, egal wie lange die Beobachtungsaufzeichnung dauert, da die Unsicherheitsbreite notwendigerweise viel schneller zunimmt als ein projizierter Trend der Lufttemperatur. Jegliche Auswirkung von Treibhausgasen geht immer innerhalb des Unsicherheitsintervalls verloren. Selbst fortgeschrittene Klimamodelle weisen eine schlechte Energieauflösung und sehr große Projektionsunsicherheiten auf. Die unvermeidliche Schlussfolgerung ist, dass ein Temperatursignal von anthropogenen CO2-Emissionen (falls vorhanden) nicht in Klima-Observablen nachgewiesen werden konnte oder kann.“

Da stellt jemand grundlegend infrage, ob die Klimamodelle – und zwar alle – überhaupt in der Lage seien, die Einflüsse von Treibhausgasen auf das Klima zu zeigen, weil die Mess- oder Regelgröße vollständig im Fehlerrauschen untergehe. Wer ist dieser „Klimaleugner“, dieser Ketzer, der da so frech die Offenbarung der Orakel-Modelle stört?

Sein Name ist Dr. Patrick Frank vom SLAC National Accelerator Laboratory der Stanford University, Menlo Park, Kalifornien und er hat sein Paper „Fehlerausbreitung und Zuverlässigkeit globaler Lufttemperaturprojektionen  gerade eben im Journal „frontiers in Earth Science“ veröffentlicht.

Hier kommentiert er den langen Weg bis zur Veröffentlichung in einem angesehenen Journal – es dauerte sechs Jahre – und legt auch die kompletten Schriftwechsel (ZIP-Datei), Einwände und seltsamen Schummeleien offen, (ich verwende das Wort, ohne hier inkriminieren zu wollen, mir fällt dazu einfach nichts passenderes ein) welche die Veröffentlichung so lange behinderten. Die Einwände waren zum Teil hanebüchen, weil die Reviewer wohl teilweise Franks Mathematik nicht verstanden oder die angefragten Journale sein Paper ausgerechnet an jene zur Durchsicht gaben, die von der Entwicklung der angegriffenen Klimamodelle leben. Diese „peers“ sollten nun also den Daumen über Franks Arbeit heben oder senken. Der Spruch vom Bock und dem Gärtner ist das einzige, was mir zu solchen Possen einfallen will.

„Physikalisch bedeutungslos“

Ich möchte Dr. Frank hier aber nicht zum Galileo Galilei hochschreiben, auch seine Arbeit muss sich Kritikern stellen und das tut sie bereits (logisch, angesichts ihrer Brisanz). Aber das Vorspiel zur Veröffentlichung zeigt, dass eine zum Konsens neigende, voreingenommene wissenschaftliche Community, die alle wesentlichen Forschungen für abgeschlossen und in Stein gemeißelt hält, Gift für die Klimawissenschaft sein kann. Die Frage nach der Erkenntnisfähigkeit in Bezug auf das Klima von übermorgen beantwortet Frank so:

„Meine Arbeit zeigt, dass fortschrittliche Klimamodelle die Lufttemperatur lediglich als lineare Extrapolation des Treibhausgaseffekts projizieren. […] Eine einfache Gleichung, deren Forcierung linear ist, emuliert erfolgreich die Lufttemperaturprojektionen von praktisch jedem Klimamodell. Willis Eschenbach (siehe 2., Roger Letsch) hat das auch vor einiger Zeit ebenfalls untersucht.

Kurz gesagt, Klimamodelle können zukünftige globale Lufttemperaturen nicht vorhersagen. Nicht für ein Jahr und nicht für 100 Jahre. Klimamodell-Lufttemperaturprojektionen sind physikalisch bedeutungslos. Sie sagen überhaupt nichts über die Auswirkungen von CO₂-Emissionen auf die globalen Lufttemperaturen aus.

Die Unsicherheit allein aufgrund des jährlichen durchschnittlichen Modellfehlers beim Wolken-Anteil (siehe 3., Roger Letsch) (± 4 Wm⁻²) ist ungefähr ± 114-mal größer als der jährliche durchschnittliche Anteil des CO₂ (ungefähr 0,035 Wm⁻²). Eine vollständige Bestandsaufnahme von Modellfehlern würde eine enorm größere Unsicherheit erzeugen. Klimamodelle sind somit völlig unfähig, Auswirkungen der geringen Störung durch Treibhausgasemissionen aufzulösen. Die unvermeidliche Schlussfolgerung lautet, dass die Auswirkungen von CO₂-Emissionen auf das Klima in der Vergangenheit oder heute nicht gefunden werden können. Es scheint, dass Exxon (siehe 4., Roger Letsch) „es“ doch nicht wusste. Exxon hätte es nicht wissen können. Auch sonst niemand.“

Einige Panikattacken weiter

Es ist also möglicherweise nicht viel, was wir über das künftige Klima wissen können. Die Ergebnisse, mit denen die Klimamodelle unsere Politiker füttern, enthalten nach Franks Annahme Fehler, die um den Faktor 114 größer sein können als die Resultate. Wenn man aber erklärt, „1“ gemessen zu haben und dabei verschweigt, dass das statistische Rauschen um den Faktor 114 höher war als der Messwert – was genau hat man dann eigentlich „gemessen”? Die Fehlerdiskussion erweist sich also nicht nur bei den Paläo-Messreihen Manns, sondern auch bei den Forecast-Szenarien der Klimamodelle als Achillesferse. Der aktuelle Alarmismus steht also möglicherweise auf sehr dürftigen Argumenten.

Es bleibt also spannend, wenn man die Augen offenhält und vorurteilsfrei die Forschung beobachtet. Aber um ehrlich zu sein, ich erwarte nicht, dass sich die Hysterie legen wird. Nicht wegen einem Gallieo Dr. Frank! Die Zweifler und Häretiker kommen schnell unter die Räder des Zugs mit der Aufschrift „Klimakatastrophe“ oder sind wie A. von weiter oben komplett borniert und ideologisiert. Aber vielleicht kann ja wenigstens jemand Greta sagen, dass sie ruhig mit dem Flieger nach Europa zurückkehren kann? Denn das Klima „kippt“ nicht um und geht auch in zehn Jahren nicht so kaputt, dass es für sie unbenutzbar wird.

Das letzte Wort möchte ich diesmal einem Journalisten überlassen, der über das Dilemma spricht, in dem sich Klimawissenschaft und Politik befinden. Sie werden kaum glauben, aus welcher Zeitschrift das Zitat stammt:

Experten sind demnach im Dilemma: Sie haben kaum eine Chance, den richtigen Rat zu geben. Bleibt die Warnung aus, wird ihnen mangelndes Pflichtbewusstsein vorgeworfen. Eine alarmistische Vorhersage wird jedoch kritisiert, sofern sich nicht wenig später entsprechende Veränderungen zeigen. Die Unsicherheiten der Forschungsergebnisse bleiben in der Klimaforschung wohl auch bei weiterem Fortschritt bestehen. Nun sei die Frage, ob Wissenschaftler und Gesellschaft damit umzugehen lernen […]. Vor allem Politiker müssten lernen, dass es keine einfachen Resultate gibt. Auf Wissenschaftler, die simple Antworten versprechen, sollten Politiker nicht mehr hören.“

Quelle: Spiegel

Ja, sie haben richtig gelesen. Aber der Artikel ist ja auch noch aus dem Jahr 2010, also aus dem Jahr 8 v. H. (vor Hysterie). Heute ist man auch beim Spiegel bereits einige Panikattacken weiter.

Dieser Beitrag erschien zuerst auf Roger Letschs Blog Unbesorgt und auf der Achse des Guten. Mit freundlicher Genehmigung des Autors.

Anmerkungen

1. AGW = Anthropogen Global Warming. Die Abkürzung finden sie in Fachjournalen überall

2. Eschenbach untersuchte das GISSE-Klimamodell wie eine Blackbox, von der man wissen möchte, wie sie funktioniert. Es gilt nämlich das Prinzip der Ergebnisgleichheit. Das heißt, zwei Blackboxen sind gleichwertig, wenn sie bei identischen Eingaben identische Ergebnisse produzieren, ganz gleich, welcher Hokuspokus im Inneren vollführt wird. Eine y=x*8/4 Blackbox ist gleichwertig mit einer y=2x Blackbox. Eschenbach zeigte nun, dass das GISSE-Modell auf simpelsten linearen Gleichungen basiert. Er glaube nicht, dass das Klima so funktioniere, meint Eschenbach.

3. Im Original: „cloud forcing” error, womit im weitesten Sinne die Wirkung von Wolken bei der Reflektion von Infrarotstrahlung bei Ein- und Rückstrahlung gemeint ist. Die Tatsache, dass sich die Wolkenbildung ab-so-lut nicht vorhersagen lässt und deshalb nur als extrem unsichere statistische Größe in jedes Klimamodell eingeht, ist Franks Ansatzpunkt für seine oben erwähnte Arbeit.

4. Gemeint ist eine Untersuchung der Firma Exxon, in der schon 1977 vom Klimawandel und der vermeintlichen Ursache CO2 die Rede war. Diese Studie wird gern als der ultimative Beweis für den anthropogenen Klimawandel und dessen Auslöser CO2 betrachtet, weil er „von der anderen Seite“, also von den Bösen kam. Dass die Studie „geheim gehalten” wurde, bestreitet Exxon (heute Exxon-Mobile).




Über das Vertrauen der Deutschen in ihre Kenntnisse vom Klimawandel

Bevor hier näher darauf eingegangen wird, folgt hier zunächst die Übersetzung des Abstract:

Genauigkeits-Vertrauen – also das Vertrauen, welches die Genauigkeit des Wissens reflektiert – kann bei Entscheidungen in Bereichen mit hohen Unsicherheiten relevant sein. Genauigkeit des Vertrauens ist von besonderer Bedeutung im Bereich Klimawandel, wo wissenschaftlich korrekte Informationen, aber gleichzeitig auch Falschinformationen in Öffentlichkeit und Medien zu finden sind. Hier betrachten wir die Genauigkeit des Vertrauens in das Wissen vom Klimawandel in einer nationalen Stichprobe in Deutschland (n = 509). Die Genauigkeit des Vertrauens der Bürger hinsichtlich ihres Wissens über Klimawandel war nur halb so hoch wie es hätte sein können auf der Grundlage der Genauigkeit ihres Wissens. Außerdem war die Genauigkeit ihres Vertrauens in die Genauigkeit ihres Wissens beim Thema Klimawandel geringer als im Vergleich zu zwei anderen grundlegenden Bereichen: allgemeine wissenschaftliche Kenntnisse in einer anderen Stichprobe unter Deutschen (n = 588) und Wissen um Klimawandel in einer aus Wissenschaftlern bestehenden Stichprobe (n = 207). Obwohl diese Ergebnisse nicht auf die Bevölkerung verallgemeinert werden können, wenn es um alle Indikatoren des Wissens um Klimawandel geht, zeigen diese Ergebnisse, dass das Vertrauen der Bürger in ihr Wissen über Klimawandel unnötig verschwommen ist angesichts ihres tatsächlichen Wissens.

Ende Übersetzung des Abstract.

Oha! Da waren ordentliche Wortkünstler am Werk. Wie wir gleich sehen werden, könnte man die Überschrift ganz anders formulieren: Wie stark hat die Dauer-Propaganda seitens Medien und Politik bereits bei den Deutschen verfangen? Zu diesem Schluss muss man unweigerlich kommen, wenn man sich die gestellten Fragen ansieht, wobei die „richtigen“ Antworten bei der Auswertung gleich mitgeliefert werden. Mit „richtigen“ Antworten sind hier ausschließlich jene gemeint, welche der Propaganda folgen. Die folgende Tabelle aus dem PDF zeigt dies:

Man erspare mir die Übersetzung des Inhalts dieser Tabelle. Ich kann auch nicht sagen, ob die Prozentzahl der „richtigen“, d. h. der Propaganda folgenden Antworten beruhigend oder beunruhigend ist. Nirgendwo in dem gesamten PDF wird auch gesagt, nach welchen Kriterien die Personen in den Stichproben ausgewählt wurden – weder die „Citizens“ noch die „Scientists“. Was für Bürger waren das, wie alt waren sie, aus welchen Bildungsschichten kamen sie, usw. usf. Und aus welchen Fachbereichen kommen die Wissenschaftler?

Vielleicht spielt das auch keine Rolle. Zumindest die Antwort auf einige Fragen ist jedoch in ihrer Masse beunruhigend. Nehmen wir zum Beispiel die Aussage (8): Climate change is mainly caused by a natural variation in sunbeam and volcanic eruption. (False). [Übersetzung der Verdeutlichung halber: Klimawandel wird hauptsächlich verursacht durch natürliche Variationen der Sonnenstrahlung und Vulkanausbrüche (falsch)]. 80% der Bürger und sogar 97% der „Wissenschaftler“ sollen die „richtige“ Antwort „falsch“ gegeben haben. (Mit „sollen gegeben haben“ will ich zum Ausdruck bringen, dass auch diese Zahlen vielleicht getürkt sind – vielleicht aber auch nicht). Folglich kann man die oben gestellte Frage nur so beantworten: Die Propaganda hat sich zu einem erschreckend hohen, wenngleich auch nicht überraschend hohen Ausmaß in den Köpfen der Befragten festgesetzt.

Da es im PDF des Originals ausschließlich um diese „richtigen“ Antworten und nicht um den Wahrheitsgehalt der Aussagen als solche geht, kann man alles weitere darin getrost ignorieren. Das Ganze wird hier auch nur erwähnt, um zu unterstreichen, einen wie weiten Weg die Klima-Realisten noch vor sich haben. Da kann man nur hoffen, dass die immer zahlreicher auftauchenden Studien des Inhalts, dass die Erde auf eine Kaltzeit zusteuert, sich als richtig erweisen.

Hier noch einmal der Link zum PDF in Nature Climate Change: https://doi.org/10.1038/s41558-019-0563-0