Modelle überschätzen 60-jährige dekadische Trends

Die jüngste Studie in dem Magazin Nature von Jochem Maritzke & Piers Forster mit dem Titel „Antrieb, Rückkopplung und interne Variabilität in globalen Temperaturtrends“ hat viel Aufmerksamkeit erregt, weil sie die Behauptung aufstellt, dass Klimamodelle gut sind und diese die Erwärmung trotz der beobachteten 17 Jahre Stillstand seit 1998 nicht überschätzen. Sie versuchen, dies zu belegen, indem sie zeigen, dass 15-Jahre-Trends in den HadCRUT4-Daten in CMIP5-Modellen erwartet werden können durch eine quasi zufällige interne Variabilität, während irgendwelche 60-Jahre-Trends deterministisch sind (anthropogen). Sie identifizieren ,deterministisch‘ und ,interne Variabilität‘ in den Modellen mittels einer Multi-Regressionsanalyse mit ihren bekannten Antrieben als Input.

Darin ist ∆F der Antrieb, α ist die Klima-Rückkopplung und κ der Anteil der Wärmeaufnahme durch die Ozeane und ε ist die zufällige Variation.

Dieses Verfahren wurde von Nick Lewis kritisiert und erzeugte eine endlose Diskussion auf den Blogs Climate Audit und Climate-Lab darüber, ob dieses Verfahren statistisch sinnvoll sei. Allerdings halte ich dies zum größten Teil für irrelevant, da es sich um eine Analyse der Differenz zwischen Modellen handelt und nicht um beobachtete Daten.

Erstens, die Hypothese, dass die gesamte interne Variabilität quasi-zufälliger Natur ist, ist wahrscheinlich falsch.Tatsächlich gibt es eindeutige Beweise einer 60-jährigen Oszillation in den GMST-Daten, [Global Mean Surface Temperature] möglicherweise im Zusammenhang mit AMO/PDO – siehe bei realclimate. In diesem Sinne sind vermutlich alle Modelle falsch, weil sie diese nicht-zufällige Verteilung nicht enthalten. Zweitens, wie ich zeigen werde, sind die beobachteten 15-Jahre-Trends bei HadCRUT4 selbst nicht quasi-zufällig. Drittens, ich zeige, dass die beobachteten 60-Jahre-Trends nach 1945 von den Modellen kaum beschrieben werden und dass im Wesentlichen alle Modelle bis 1954 höhere Trends prophezeit haben als beobachtet worden sind. Dies bedeutet, dass die ,deterministische‘ Komponente aller CMIP5-Modelle tatsächlich die GMST-Reaktion auf Treibhausgas-Konzentrationen überschätzen.

Beweise für regelmäßige Klima-Oszillationen

Abbildung 1 zeigt, dass die Bodendaten gut durch eine Formel (beschrieben hier) beschrieben werden können, die sowohl einen Term des Gesamt-CO2-Antriebs als auch einen Term der 60-Jahre-Oszillation enthält. Diese Formel lautet:

Die physikalische Rechtfertigung für eine solche 0,2°C-Oszillation ist die beobachtete PDO/AMO, die genau wie die ENSO die globalen Temperaturen beeinflussen können, jedoch über einen längeren Zeitraum. Kein Modell enthält gegenwärtig irgendeine solche regelmäßige natürliche Oszillation. Stattdessen wurde der Albedo-Effekt von Aerosolen und Vulkanen so frisiert, dass er mit GMST der Vergangenheit übereinstimmt und deren Schwingungen folgt. Viele andere haben diese Oszillation der GMST entdeckt, und sogar Michael Mann sagt jetzt, dass eine Abschwächung von PDO/AMO ursächlich für den Stillstand sein könnte.

15- und 60-Jahre-Trends in Beobachtungen und Modellen

Ich habe die in der Studie von M&F beschriebene Analyse wiederholt. Ich benutze lineare Regressions-Anpassungen über Zeiträume von 15 und 60 Jahren der HadCRUT4-Daten und auch die o. g. angepasste Formel*. Zusätzlich habe ich 42 CMIP5-Modellsimulationen heruntergeladen der monatlichen Temperaturdaten von 1860 bis 2014. Dann habe ich die monatlichen Anomalien berechnet und diese danach über jedes Jahr gemittelt. Danach habe ich für jede CMIP5-Simulation die 15- und 60-Jahre-Trends berechnet für zunehmende Start-Jahre wie in M&F beschrieben.

[*Im Original lautet dieser Satz: I have repeated the analysis described in M&F. I use linear regression fits over periods of 15y and 60y to the Hadcrut4 data and also to the fitted equation described above.]

Abbildung 2 zeigt die berechneten 15-Jahre-Trends im HadCRUT4-Datensatz im Vergleich zu Trends aus der Anpassung. Zum Vergleich zeigen wir zuerst Abbildung 2a aus M&F unten.

Die Regressionsanalyse von M&F zeigt dann anschließend, dass die deterministischen Effekte in den CMIP5-Modellen für längere 60-Jahre-Trends dominieren sollten. Im Einzelnen beträgt der Fehler in den 60-Jahre-Trends, wie er von den Modellen vorgegeben wird, ± 0,081°C, das liegt um 30% unter der Zufalls-Variation. Daher kommt der Lackmus-Test der Modelle, wenn man die 60-Jahre-Modelltrends mit den Beobachtungen vergleicht, weil jetzt die statistische Variation viel kleiner ist. Hier folgen meine Ergebnisse:

Diese Analyse zeigt zwei Effekte, die M&F nicht erwähnt haben. Erstens, die 15-Jahre-Variation in den Trends der beobachteten Daten ist nicht zufällig, sondern zeigt ein periodisches Verhalten, wie es auch bei dem Fit auftritt. Dies ist charakteristisch für eine zugrunde liegende Klima-Oszillation. Die quasi-zufällige Variation in den CMIP5-Modellen wie in Abbildung 2a oben umfasst die Gesamt-Magnitude der Variation, aber nicht deren Struktur.

Zweitens zeigen die 60-Jahre-Trends auch eine viel kleinere, aber immer noch übrig bleibende Struktur, die die zugrunde liegende Oszillation reflektiert, gezeigt in blau. Der Spread in 42 Modellen ist natürlich deren unterschiedlichen effektiven Strahlungsantrieben und Rückkopplungen geschuldet. Die Tatsache, dass vor 1920 alle Modelltrends den beobachteten Trends folgen können, liegt teilweise an der Parametrisierung der Aerosole, um zu den Nachhersage-Temperaturen zu passen. Nach 1925 beginnen die beobachteten Trends, unter das Mittel von CMIP5 zu fallen, so dass bis zum Jahr 1947 sämtliche Beobachtungen unter den 42 Modelltrends des CMIP5-Ensembles liegen. Diese Zunahme der Modelltrends über den beobachteten 60-Jahre-Trend hinaus kann jetzt nicht durch die natürliche Variation erklärt werden, weil M&F argumentieren, dass die deterministische Komponente dominieren muss. Die Modelle müssen zu sensitiv bzgl. des Treibhausgas-Antriebs sein. Allerdings lassen M&F diese Tatsache weg, einfach weil sie nicht bestimmen können, welche Komponente in den Modellen diesen Trend verursacht. Tatsächlich basiert die Schlussfolgerung der Studie auf der Analyse von Modelldaten und nicht von beobachteten Daten. Das ist bizarr. Sie ziehen in ihrer Studie folgende Schlussfolgerung:

Es gibt eine wissenschaftliche, politische und öffentliche Debatte hinsichtlich der Frage, ob die Differenz der GMST zwischen simulierten und beobachteten Daten während der Stillstands-Periode ein Anzeichen dafür sein könnte, dass ein Gleichgewichts-Modell auf einen gegebenen Strahlungsantrieb reagiert, der systematisch zu stark ist oder – äquivalent dazu – auf eine simulierte Klima-Rückkopplung systematisch zu schwach reagiert. Im Gegensatz dazu finden wir keine substantielle physikalische oder statistische Verbindung zwischen der simulierten Klima-Rückkopplung und simulierten GMST-Trends während der Stillstands- oder irgendeiner anderen Periode, weder für den 15-Jahre noch für den 60-Jahre-Trend. Die Rolle der simulierten Klima-Rückkopplung bei der Erklärung der Differenz zwischen Simulationen und Beobachtungen ist daher entweder gering oder sogar vernachlässigbar. Der Vergleich von simulierten und beobachteten GMST-Trends erlaubt keine Rückschlüsse, welche Größenordnung der simulierten Klima-Rückkopplungen – im Bereich zwischen 0,6 bis 1,8 W/m² im CMIP%-Ensemble* – besser zu den Beobachtungen passt. Weil es die beobachteten GMST-Trends nicht zulassen, zwischen simulierten Klima-Rückkopplungen zu unterscheiden, die um einen Faktor 3 variieren, ist die Behauptung, dass die Klimamodelle die GMST-Reaktion auf Strahlungsantriebe infolge steigender Treibhausgaskonzentrationen systematisch übertreiben, offensichtlich unbegründet.

[*Der Satz zwischen den Bindestrichen lautet im Original: ranging from 0.6 to 1.8 W m22 uC21 in the CMIP5 ensemble. Ich weiß nicht, was die Zahlen und Buchstaben in der Mitte bedeuten sollen. Anm. d. Übers.]

Es sieht fast so aus, als ob sie zu der Schlussfolgerung gekommen sind, die sie von Anfang an haben wollten – nämlich dass die Modelle für den Zweck geeignet sind und dass der Stillstand ein statistischer Zufall ist, der den 15-Jahre-Trends zufolge nicht unerwartet kommt. Auf diese Weise können sie die Schlussfolgerungen des AR 5 aufrecht erhalten, aber nur, wenn sie die Beweise dafür ignorieren, dass die beobachteten Daten die AMO/PDO-Oszillation und eine moderate globale Erwärmung stützen.

Die Physik basierte immer auf der Entwicklung theoretischer Modelle, um die Natur zu beschreiben. Diese Modelle machen Vorhersagen, die nachfolgend durch Experimente getestet werden können. Falls die Ergebnisse dieser Experimente mit den Vorhersagen nicht übereinstimmen, dann muss man entweder das Modell so aktualisieren, dass es die neuen Daten erklären kann, oder man muss das Modell verwerfen. Was man nicht tun darf ist, die experimentellen Daten zu verwerfen, weil die Modelle nicht beschreiben können, warum sie nicht mit den Daten übereinstimmen.

Meine Schlussfolgerung lautet, dass die 60-Jahre-Trenddaten starke Beweise zeigen, dass CMIP5-Modelle die globale Erwärmung durch zunehmende Treibhausgase tatsächlich übertreiben. Die Diskrepanz zwischen den Klimaprojektionen und den Beobachtungen wird nur immer schlimmer werden, falls sich der Stillstand weitere 10 Jahre fortsetzt. Der gegenwärtige 60-Jahre-Trend ist tatsächlich nur wenig größer als im Jahre 1900. Wenn sich die Oszillation um das Jahr 2030 wieder umkehrt, wird die Erwärmung wieder einsetzen, aber die Klimasensitivität ist dann immer noch viel geringer als die Modelle vorhersagen.

Link: http://wattsupwiththat.com/2015/03/17/models-overestimate-such-60-year-decadal-trends/

Übersetzt von Chris Frey EIKE




Parteien beginnen gegen die Energiewende vorzugehen: AfD NRW startet Volksinitiative gegen Windkraft

Jetzt legt der noch nicht im Düsseldorfer Landtag vertretene, aber sehr mitgliederstarke und damit einflussreiche NRW Landesverband kräftig nach und ruft zu einer Volksinitiative Windkraft auf  Abstand – Ja zu 10H auf.

Bild rechts: Heutige Windräder sind gigantische Industrieanlagen, deren Höhe von ca. 200m den Kölner Dom sogar noch um etwa 50m überragt. Die Skizze ist maßstabsgerecht.

Zitat aus dem Aufruf:

In unserer Volksinitiative fordern wir zum einen den Mindestabstand von Windkraft-anlagen zu Häusern und Schutzgebieten auf das 10fache der Höhe der Windkraftanlage festzulegen, und zum anderen zum Schutz der Umwelt den Bau von Windkraftanlagen in Waldgebieten zu verbieten.

Mit diesem ersten Schritt wird zunächst einmal der bisher völlig vernachlässigte Schutz derjenigen Bürger eingefordert, deren Wohnungen und Häuser von den WKA Besitzern dank unmittelbarer, aber bisher zulässiger Nachbarschaft zu ihren Windrädern, kalt enteignet wurden. Deren Wohnungen und Häuer und Grundstücke sind heute – wegen der engen Nachbarschaft zu lärmenden, periodisch Schatten werfenden WKA – praktisch unverkäuflich und damit wertlos.

Hinzu kommen die erheblichen gesundheitlichen Beeinträchtigungen und bleibenden Schäden, die viele dieser Anwohner erleiden und die bisher von den Gemeinden vielfach als Einbildung abgetan wurden. Deren Gier nach hohen Einnahmen – bemäntelt mit dem „Bekenntnis zur Energiewende“-  war fast immer stärker. Dem kann die 10 Regelung zumindest ein wenig einen Riegel vorschieben.

Sollte daher die 10 H Regelung durchkommen, wird sich das zumindest ein wenig ändern. Die Bürger werden sich also überlegen ob sie mitmachen. Denn auch ihr Heim könnte als nächstes vom grassierenden Windwahn betroffen sein. Jeder weiß auch, dass die einfache Regel gilt: Je mehr betroffene oder nachdenkliche Bürger mitmachen, desto eher wird die Volksinitiative zum Gesetz.

Zitat aus dem Aufruf

Eine Volksinitiative (VI) in NRW ist natürlich per Gesetz geregelt; darin heißt es:

Eine VI muss von mindestens 0,5 Prozent (ca. 66.000 Personen) der deutschenStimmberechtigten unterzeichnet sein, die 18 Jahre oder älter sind und inNordrhein-Westfalen wohnen.

Achten Sie auf die Anforderung an Nationalität, Mindestalters von 18 Jahren, und eines Wohnsitzes in NRW!

hier finden Sie den Aufruf im Internet




Relative Homogenität der Mittelalterlichen Warmzeit MWP und der Kleinen Eiszeit LIA

Bild rechts: Quelle: Abbildung 7c im FAR des IPCC.

Bei den mit dieser Abbildung verbundenen drei Problemen handelte es sich um Folgende:

● Die Mittelalterliche Warmzeit MWP widersprach ihren Behauptungen, dass das 20. Jahrhundert das Wärmste jemals war.

● Die Kleine Eiszeit LIA zeigte, dass der gegenwärtige Erwärmungstrend schon deutlich vor den wesentlichen Einflüssen der industriellen Revolution begonnen hatte. Signifikante CO2-Mengen wurden von den Menschen erst nach dem 2. Weltkrieg emittiert.

● Der Erwärmungstrend seit etwa 1650, dem Tiefpunkt der LIA, lag deutlich innerhalb der natürlichen Variabilität.

Die Hockeyschläger-Graphik kümmerte sich um all diese Punkte, indem sie die MWP ebenso wie die LIA kurzerhand eliminierte. Sie zeigte ungerechtfertigterweise lediglich wie das Blatt des Schlägers einen scharfen Knick nach oben hinsichtlich der Temperatur des 20. Jahrhunderts. Phil Jones erzeugte diesen Knick nach oben, der eine Erwärmung von 0,6°C ± 0,2°C während 120 Jahre behauptete. Sie behaupteten weiter, dass diese Rate weit jenseits jeder natürlichen Erwärmung lag, wobei sie bequemerweise den Fehlerfaktor von 33% ignorierten.

Ein zweiter Aspekt ihres Problems involvierte eine Studie von Soon und Baliunas mit dem Titel „Proxy climatic and environmental changes of the past 1,000 years“ (Climate Research 23, S. 89-110). Darin wurde detailliert das weltweite Auftreten der MWP nachgewiesen. Die persönlichen Angriffe auf Soon und Baliunas sind jetzt bekannt geworden, vor allem die Rolle, die John Holdren während seiner Zeit an der Harvard dabei gespielt hat.

Ein dritter Aspekt involvierte die Behauptung, dass Abbildung 7c die Temperatur der Nordhemisphäre zeigte und dass weder die MWP noch die LIA globale Ereignisse waren. Das Argument, dass eine Klimaperiode regional aufgetreten war oder in einem gegebenen Zeitraum einer Aufzeichnung wurde dazu verwendet, dem Problem zu begegnen, dass das Optimum des Holozäns wärmer war als das 20. Jahrhundert. Steve McIntyre untersuchte die Antwort der AGW-Unterstützer einschließlich einer Aussage der NOAA, nämlich:

Zusammengefasst: im Mittlere Holozän vor etwa 6000 Jahren war es allgemein wärmer als heute, aber nur im Sommer und nur auf der Nordhemisphäre.

Timing der Ereignisse

Das Problem, um das es hier geht, ist ein Klassisches und unabdingbar zum Verständnis von Klima. Es involviert eine Standardpraxis im Bereich Klimatologie namens Relative Homogenität. Falls man ein Muster des Klimawandels etablieren will, muss man zuvor festlegen, ob dieses Muster lokal, regional, hemisphärisch oder global auftrat. Es geht um die genaue Definition von Klimatologie, welche das Studium des Klimas in einer Region oder dessen Änderung mit der Zeit ist.

Ich habe mich mit diesem Thema befasst, während ich die These meiner Doktorarbeit vorbereitete, in der es um die Rekonstruktion des Klimawandels in der Stadt Churchill in Manitoba an der Hudson Bay ging, und zwar von 1714 bis 1850. Mein Doktorvater Dr. Bruce Atkinson legte mir nahe, die Klimaänderungen bei der Ortschaft York Factory zu rekonstruieren, ebenfalls an der Hudson Bay, aber 200 km entfernt. Der Vergleich ergab lokale Änderungen in Churchill, während die Untersuchung im regionalen, hemisphärischen und globalen Maßstab einen größeren Zusammenhang zeigte.

Zwei wesentliche Hypothesen komplizieren die Bestimmung von Länge und Ausmaß der Änderung. Die erste lautet, dass ein Ereignis wie die MWP [überall?] gleichzeitig beginnt und endet.* Die zweite lautet, dass durch externe Antriebe ausgelöste Änderungen in allen Aufzeichnungen klar hervortreten. Ich habe beide Hypothesen ausführlich mit Hubert Lamb diskutiert, weil der von mir untersuchte Zeitraum den Übergang von der LIA zur modernen Warmzeit abdeckt. Lamb hat den Terminus Mittelalterliche Warmzeit (MWP) nicht verwendet, und Jean Grove ordnet den Begriff Kleine Eiszeit (LIA) Mathes (1939) zu, aber Lamb legte viel Gewicht auf die Zeitpunkte von Beginn und Ende beider Perioden. In Ausgabe 2 seiner Climatic History and the Future: Climate Present, Past and Future benutzte er die traditionellen Termini „the medieval warm epoch or Little Climatic Optimum“. Dies war die Unterscheidung zwischen Epochen und Ereignissen, wie sie bei magnetischen Umkehrungen üblich ist. Zu jener Zeit war das Optimum des Holozäns das ,Klima-Optimum‘ genannt worden, und die MWP wurde zum ,Kleinen Klima-Optimum‘.

[*Einfügung in [ ]vom Übersetzer zum Verständnis. Ohne diese Einfügung wäre der Satz wohl missverständlich. Oder ist etwas anderes gemeint? Anm. d. Übers.]

Lamb wies darauf hin, dass trotz des globalen Auftretens des Ereignisses dessen Zeitpunkt von Beginn, Höhepunkt und Ende deutlich variierte, abhängig von unterschiedlichen Umständen auf allen Ebenen von lokal über regional bis hemisphärisch. Er zeigte auch, dass der zeitliche Unterschied Dekaden ausmachen konnte. Man kann eine einzelne Station oder sogar mehrere Stationen in einer Region betrachten und würde keine Beweise eines Trends finden wie der MWP oder der LIA. Lamb schrieb:

Beweise, die in dieser Ausgabe schon an verschiedenen Stellen erwähnt worden sind zeigen, dass das Klima im Mittelalter ein paar Jahrhunderte lang in den meisten Gebieten der Welt sich den wärmsten nacheiszeitlichen Epochen annäherte. Der Höhepunkt der Warmzeit trat nicht überall zur gleichen Zeit auf … In den zentralen Gebieten von Nordamerika ebenso wie im europäischen Teil Russlands und in Grönland kann die wärmste Zeit von 950 bis 1200 datiert werden. In den meisten Gebieten von Europa scheinen aber die wärmsten Perioden zwischen 1150 und etwa 1300 gelegen zu haben mit nennenswerter Wärme auch in den 900er-Jahren“.

In der Legende zur Abbildung 7c (hier oben rechts) im FAR des IPCC hieß es:

Die gepunktete Linie repräsentiert nominell die Bedingungen zu Beginn des 20. Jahrhunderts“.

Vermutlich hat irgendjemand diese Linie hinzugefügt und dabei eine allgemeine Bandbreite für die MWP und die LIA eingeführt. Nach Augenschein überdeckt die MWP den Zeitraum 950 bis 1350 und die LIA den von 1350 bis 1900. Dies passt nicht zu den Angaben im Text, besonders hinsichtlich der LIA mit Zahlen, die Grove von 1540 bis 1840 zugeordnet werden, also vor 150 bis 450 Jahren. Es gibt ein paar interessante Kommentare, die der Korrektur bedurften für den politisch motivierten IPCC-Bericht 2001. Mit Bezug auf die MWP wird angemerkt:

Diese Zeit verbreiteter Wärme ist bemerkenswert hinsichtlich des Umstands, dass es keine Beweise gibt, dass diese Warmzeit mit einer Zunahme von Treibhausgasen einher gegangen war.

Bei der Diskussion der zahlreichen Erklärungen für die LIA schrieb man:

Einige haben vorgebracht, dass eine Zunahme des explosiven Vulkanismus‘ Ursache der Abkühlung war (z. B. Hammer 1977 oder Porter 1986). Andere behaupten eine Verbindung zwischen Gletschervorstößen und Reduktionen der solaren Aktivität (Wigley und Kelly 1989). Beispiele sind die Maunder- und Sporer-Minima (Eddy 1976) und auch Pittock 1983.

Man beachte, dass diese gleichen Argumente vorgebracht werden zur Erklärung des gegenwärtigen „Stillstands“ der Temperatur. Man beachte auch den Namen von Tom Wigley, ehemaliger Direktor der CRU und eine zentrale Figur im IPCC-Bericht 2001, der die Abkühlung der Sonnenaktivität zuschrieb. Folgende Referenz wird zitiert:

Wigley, T M L , and PM Kelly, 1989 Holocene climatic change, 14C wiggles and variations in solar irradiance Phil. Trans. Royal Society London (im Druck).

Offensichtlich ist der Artikel, gelistet als „im Druck“ niemals erschienen, weil er in Wigleys Veröffentlichungs-Liste nicht aufgeführt ist.

Auf Seite 203 des IPCC-Berichtes beobachten sie:

Folglich könnte ein Teil der globalen Erwärmung seit 1850 einer Erholung aus der Kleinen Eiszeit geschuldet sein und nicht einer direkten Folge menschlicher Aktivitäten. Es ist daher wichtig zu erkennen, dass natürliche Variationen des Klimas hervortreten und jede zukünftige, vom Menschen induzierte Änderung modulieren.

All diese Punkte konfrontierten die politische Agenda und widersprachen dieser, dass menschliches CO2 für die globale Erwärmung und später den Klimawandel verantwortlich sei. Die Widerlegung begann 1995 im Zweiten Zustandsbericht (SAR) des IPCC und erreichte ihren Höhepunkt im Dritten Zustandsbericht (TAR) 2001 mit seiner zentralen Abbildung, dem „Hockeyschläger“. Die genaue Bestimmung der Zeitpunkte von Beginn und Ende von MWP und LIA, die Relative Homogenität, war unabdingbar zur Identifikation der zugrunde liegenden Mechanismen. Der Hockeyschläger ,löste‘ dieses Problem, indem er beide Ereignisse kurzerhand eliminierte und die Gestalt eines modernen Schlägers annahm mit einem Fehlerfaktor, der die Zahlen bedeutungslos machte.

Willkommen bei der Klimawissenschaft des IPCC!

Link: http://wattsupwiththat.com/2015/03/22/relative-homogeneity-of-the-medieval-warm-period-mwp-and-the-little-ice-age-lia/

Übersetzt von Chris Frey EIKE




FDP MdL: Grüne Steinzeitökonomie beenden. Für einen Neuanfang in der Energiepolitik.

Mit dem Ausbau erneuerbarer Energien will die Bundesregierung die Energieversorgung in Deutschland auf eine neue Grundlage stellen. Strom soll klimafreundlich, preiswert und versorgungssicher produziert werden. Diese "Energiewende" schaffe Millionen neuer Jobs in der Ökoindustrie und reduziere unsere Abhängigkeit von Öl- und Gasimporten aus den Krisenregionen der Welt. 

Was klingt, wie das energiepolitische "Utopia", ist der ernstgemeinte Anspruch deutscher Energiepolitik. Parteien übertreffen sich in einem Wettbewerb der schönen Worte und guten Absichten. Mit der Realität haben diese aber wenig zu tun. Alle wichtigen Ziele wurden verfehlt. Die deutschen Kohlendioxidemissionen steigen trotz gigantischer Subventionen für Erneuerbare Energie, die Kosten laufen aus dem Ruder, und die Versorgungssicherheit des Stromnetzes ist zunehmend gefährdet. Der flächendeckende Zubau von Solar- und Windkraftanlagen führt zu massiven Konflikten mit dem Natur- und Landschaftsschutz. Immer mehr Bürger wenden sich von der "Energiewende" ab.  

Es ist eine grundlegende Kurskorrektur notwendig. Wir brauchen eine Energiepolitik mit wirtschaftlichem Verstand, eine Energiepolitik, die die Gesetze der Physik versteht und Innovationen fördert statt bremst. Energieerzeugung muss sich an den Bedürfnissen der Verbraucher, nicht an politischen Ideologien ausrichten. Statt grüner Steinzeitökonomie müssen endlich wieder marktwirtschaftliche Prinzipien und ordnungspolitische Grundsätze Platz greifen, wenn Deutschland energiepolitisch nicht völlig gegen die Wand gefahren werden soll….

….Das seither mehrfach angepasste EEG garantiert auf zwanzig Jahre Vergütungen für die Erzeugung von Ökostrom und verpflichtet die Versorger zum Anschluss der Anlagen sowie zur Abnahme und Einspeisung von Grünstrom. Mit diesem beispiellosen "Rund-Um-Sorglos-Paket" werden Investoren (fast) alle Risiken und Aufgaben eines Unternehmers per Gesetz zu Lasten der Verbraucher abgenommen. Vermarktung, Preisgestaltung, Produktivität, Innovationen – damit müssen sich die als Pioniere gefeierten Ökoinvestoren nicht beschäftigen. Auch wie die speziellen Herausforderungen von Energieversorgungssystemen, konkret die Sicherstellung der Netzstabilität und Versorgungssicherheit, gemeistert werden sollen, ist nicht deren Problem.

Diese Planwirtschaft hat maßgeblich dazu beigetragen die gesamte Energiewirtschaft, nicht nur in Deutschland, in eine tiefe Krise zu führen.  Wenn Markt und Wettbewerb ausgeschaltet werden, entstehen keine Innovationen, gibt es keine Anreize, etwas zu verbessern und die Produktivität zu erhöhen. Wer sich am Markt behaupten muss, steht dagegen ständig unter Druck, besser und oder günstiger zu werden und ist viel stärker auf den Verbraucher und seine Bedürfnisse orientiert. 

Für Betreiber von Windkraft- und Solaranlagen spielt das alles dagegen keine Rolle. Sie können wie auf einer Insel agieren, losgelöst von allem, was herum passiert. Die Ökostromproduktion ist blind und taub gegenüber allen Impulsen und Signalen des Marktes. Risiken tragen nur die Verbraucher und die nicht subventionierten Wettbewerber im Bereich der konventionellen Stromerzeugung. Doch wenn Markt und Wettbewerb ausgeschaltet werden folgt, Stagnation. Wie aus dem Lehrbuch zeigt das EEG, wie staatswirtschaftlich orientierte Politik die Entwicklung einer preisgünstigen, klimafreundlichen und technisch tragfähigen Energieerzeugung verhindert. 

So haben die deutschen Verbraucher bisher rund 150 Milliarden Euro an Subventionen für Erneuerbare Energien aufbringen müssen. In den letzten Jahren jeweils deutlich mehr als 20 Milliarden Euro. Die deutsche Klimabilanz ist deshalb aber nicht besser geworden. Im Gegenteil: Laut Bundesumweltamt steigen die CO-2 Emissionen Jahr für Jahr. Die Expertenkommission der Bundesregierung schreibt in ihrem aktuellen Bericht, dass das EEG kein Beitrag zu einem effektiven Klimaschutz darstellt und damit das eigentliche Hauptziel verfehlt. Zu einer ähnlichen Bewertung kommt der dritte Teilbericht zum Fünften Sachstandsbericht des IPCC, besser bekannt als "Weltklimarat" der Vereinten Nationen.

….Dieses intelligente und technologieoffene Instrument der europäischen Ebene (Anmerkung der EIKE Redaktion: gemeint ist der ebenso kostentreibende wie unnütze Emissionshandel) wird jedoch in Deutschland durch das dumpfe und starre EEG weitgehend ausgeschaltet. Hierzulande definiert nämlich das Gesetz auf zwanzig Jahre im Voraus, welche Technologien zu welchen Kosten zum Einsatz kommen sollen. So fließt mit über 10 Milliarden Euro jährlich der größte Teil der EEG-Umlage in die Photovoltaik und damit ausgerechnet in die Technologie, die die schlechteste CO-2-Vermeidungsbilanz aufweist. Im Vergleich zu anderen Maßnahmen, zum Beispiel die Modernisierung von Braunkohlekraftwerken in Polen, kostet die Vermeidung einer Tonne CO-2 durch Subventionierung von Solarstrom das Vierzigfache…..  

 

….Auch den komplexen technischen Anforderungen an die Energieversorgung eines modernen Industriestaates wird das planwirtschaftliche EEG nicht einmal im Ansatz gerecht. Es ist gegenüber der Notwendigkeit blind, dass elektrischer Strom aufgrund seiner physikalischen Eigenschaften ein besonderes Gut ist. Für die Versorgungssicherheit eines Stromnetzes ist es irrelevant, ob auf Jahressicht 30 oder 40 Prozent des Verbrauches aus erneuerbaren Energiequellen stammt. Entscheidend ist alleine, ob entsprechend des Lastganges, also der Verlaufskurve des Stromverbrauches, in jedem Augenblick die notwendige Menge an Energie verfügbar ist. Wird zu viel oder zu wenig Strom eingespeist, droht der Netzkollaps. 

Die mit Gas oder Kohle betriebenen konventionellen Kraftwerke können nach dem Bedarf der Verbraucher, also des Lastganges, gesteuert werden. Das gleiche gilt für Kernkraftwerke. Die Verbrauchskurven sind regelhaft, d.h. die Versorger wissen genau, dass die Spitzen werktags zur Mittagszeit erreicht werden und die geringste Leistung sonntags in der Nacht zur Verfügung stehen muss. Im Winter steigt die Kurve gegenüber den Sommermonaten, da beispielsweise mehr Strom für Beleuchtung notwendig ist. Kohle- und Kernkraftwerke arbeiten im Bereich der Grundlast, d.h. rund um die Uhr, Tag für Tag, Jahr für Jahr. Gaskraftwerke werden in der Regel zugeschaltet, um den stundenweisen Mehrbedarf an Leistung zu befriedigen.

Mit dem Ausbau erneuerbarer Energien kommt es zu einem Paradigmenwechsel. Die grundlegenden Vorzeichen der Stromversorgung ändern sich. Wind- und Sonnenstrom werden nämlich nicht so erzeugt, wie es der Energiebedarf der Verbraucher verlangt, sondern wie es das Wetter möglich macht. Logischerweise hängt die Leistung der Solarkraftwerke vom Stand der Sonne ab. Wenn die Sonne untergeht, geht auch die elektrische Leistung dieser Kraftwerke auf Null. 

Die in Deutschland installierte Solarstromleistung betrug im Februar 2015 insgesamt 38,3 Gigawatt. Das entspricht theoretisch der Leistungsfähigkeit von 38 Atomkraftwerken. In den Wintermonaten lässt sich die Sonne bekanntlich aber kaum in unseren Breitengraden sehen, und so standen durchschnittlich nur 2 GW Leistung tatsächlich zur Verfügung, was einer mageren Auslastung von etwas mehr als 5 Prozent entspricht. An den wenigen sonnigen Tagen, beispielsweise am 20. Februar, standen zur Mittagszeit fast 18 GW zur Verfügung. An den bewölkten Tagen schwankte die Leistung dagegen zwischen Null und 6 GW. 

Eine verlässliche Stromversorgung ist auf dieser Basis schlicht unmöglich. Selbst wenn die installierte Solarkraftleistung verzehnfacht würde, wäre eine Stromversorgung aufgrund der Schwankungen nicht möglich. Wenn keine Sonne scheint, kann auch kein Strom erzeugt werden, egal wie viele Solarmodule auf den Dächern und Feldern stehen. An sonnigen Tagen würde die Produktion dagegen durch die Decke schießen und viel zu viel Strom erzeugt, der den Ökoinvestoren bezahlt werden müsste, aber ohne Speichertechnologien völlig unbrauchbar ist. Im Gegenteil: Die Ableitung und Verwertung dieses "Strommülls" führt noch zu erheblichen Zusatzkosten. 

Genau die gleichen technischen Probleme macht auch die Windkraft. Von den 27.000 deutschen Windrädern mit einer installierten Leistung von 40 GW stehen regelmäßig etwa 26.900 Windkraftanlagen still, und zwar nicht nur in den windschwachen Sommermonaten, sondern auch im Januar oder Februar. Schauen wir auf die Zahlen. Im Februar lag die Leistungsspitze der Windkraft bei 24,9 GW, was einer Auslastung von 62,5 Prozent entspricht. Das Minimum wurde bei 0,26 GW (0,7 Prozent Auslastung) erreicht. Mit jeder neuen Windkraftanlage wird diese Leistungsschere größer und das Problem der Netzstabilität verschärft. Obwohl in ganz Deutschland Windkraftanlagen verteilt sind, kommt es zu keiner Glättung der eingespeisten Leistungen. Die Wetterdaten belegen vielmehr eine enge Korrelation der windstarken deutschen Regionen. Da, wo viel Wind weht, weht er meistens gleichzeitig, und wenn Flaute herrscht, dann im ganzen Land. 

Im Verhältnis zur Sonnenstromerzeugung hat die Windenergieerzeugung eine noch größere Schwankungsbreite, worunter die Versorgungssicherheit leidet. Auch wenn nicht genau absehbar ist, wie groß die Solarstromleistung von Tag zu Tag ist, fällt Solarstrom regelmäßig in den Mittagsstunden an, weil der Lauf der Sonne einem Naturgesetz folgt. Da die Verbrauchsspitzen auch zur Mittagszeit auftreten, ist Solarstrom in der gegenwärtigen Größenordnung zwar sehr teuer, aber technisch verwertbar. 

Der Wind weht dagegen nach keinen festen Regeln und so fällt die gesamte deutsche Windstromerzeugung manchmal tagelang am Stück aus, weil Hochdruckwetterlagen vorherrschen. Und wenn der Wind dann einmal stark weht, dann eben auch in den Nachtstunden, in denen der Stromverbrauch am geringsten ist. Windkraft ist also nicht nur sehr unzuverlässig, ist erzeugt Strom eben auch dann, wenn er am wenigsten benötigt wird. Von allen erneuerbaren Energiequellen ist Windkraft deshalb am schlechtesten geeignet und stellt das Stromnetz vor die größten Herausforderungen.

Für den Rhythmus eines modernen Industriestaates hat der beschriebene Paradigmenwechsel – weg vom Vorrang des Bedarfes, hin zum Vorrang der Verfügbarkeit – dramatische Auswirkungen. Synchronisierung und Standardisierung von Handeln sind grundlegende Voraussetzungen moderner, arbeitsteiliger Gesellschaften. Das Arbeitsleben beginnt morgens und endet abends und nicht dann, wenn Strom gerade da ist oder nicht. 

Alles, was jetzt unter so schönen Schlagwörtern wie "Lastgangmanagement" oder "smart grids" als Lösungsvorschlag präsentiert wird, ist nichts anderes als der Versuch, die beschriebenen grundlegenden technischen Probleme erneuerbarer Energien zu übertünchen. Das berühmte Beispiel von der Waschmaschine, die in Zukunft nachts laufen soll, wenn gerade Windstrom im Netz ist, hat mit den realen Problemen nichts zu tun. 

Die großen Stromverbraucher, die Deutsche Bahn, die Betriebe der chemischen Industrie, die Unternehmen in der Metallverarbeitung oder die Rechenzentren, sind auf eine sichere, kontinuierlich verfügbare und im internationalen Vergleich bezahlbare Stromversorgung angewiesen. Deutsche Werke und Standorte sind Teil eng vernetzter, länderübergreifender Wertschöpfungsketten. Schon die Idee, dass eine Exportnation wie Deutschland seine Energieversorgung und damit auch die Produktionsprozesse nach dem Lauf der Sonne oder der momentanen Windgeschwindigkeit ausrichten könne, ist lächerlich.

Ohne konventionelle Kraftwerke ist eine sichere und bezahlbare Stromversorgung auf absehbare Zeit nicht möglich. Das Geschäftsmodell der Ökoinvestoren basiert immer auf der Inanspruchnahme und Betriebsbereitschaft von Kohle-, Gas- und Kernkraftwerken. Für die Betreiber dieser systemrelevanten Kraftwerke wird es dagegen immer schwerer, die Kosten am Markt zu refinanzieren. Die großen deutschen Energieunternehmen und die kommunalen Stadtwerke machen deshalb gegenwärtig massiv Verluste. Ihr  Geschäftsmodell wird durch den Ausbau der erneuerbaren Energien zerstört. 

Je mehr subventionierter Ökostrom an der Strombörse zu billigsten Preisen auf den Markt gebracht wird, umso geringer ist der mögliche Erlös der Betreiber konventioneller Kraftwerke. Von Jahr zu Jahr sinken die durchschnittlichen Strompreise an der Börse. Besonders die klimafreundlichen Gaskraftwerke haben unter dieser Entwicklung zu leiden, weil sie die relativ höchsten Erzeugungspreise aufweisen. 

Die Bundesnetzagentur verbietet jedoch unter Verweis auf die Rechtslage das Abschalten konventioneller Kraftwerke, weil die Versorgungssicherheit sonst gefährdet sei. Während Ökoinvestoren üppige Subventionen kassieren, werden andere Unternehmen also kalt enteignet….. 

…..Die Frage der Energieerzeugungskosten und der Gesamtkosten des Systems ist ein ganz entscheidender Faktor in der Bewertung der Energiepolitik. Auch in diesem Punkt weist das EEG eine verheerende Bilanz auf. Der frühere Bundesumweltminister Jürgen Trittin hatte den Deutschen versprochen, dass die Förderung erneuerbarer Energien im Monat so viel koste wie eine Kugel Eis. 

In Wahrheit wurden bisher schon rund 150 Milliarden Euro an EEG-Umlage von den Verbrauchern kassiert, in den letzten Jahren jeweils über 20 Milliarden Euro. Da die Ökosubventionen auf 20 Jahre gewährt werden, kommen zu den bereits gezahlten Summen noch die zukünftigen Zahlungsverpflichtungen. Experten rechnen aktuell mit Gesamtkosten von 500 Milliarden Euro. Zum Vergleich:  Für die Zukunftsthemen Bildung und Forschung gibt der Bund gerade 13,7 Milliarden Euro aus. 

Den größten Teil der Ökosubventionen bringen die gewerblichen Verbraucher auf. Dadurch sinkt deren Wettbewerbsfähigkeit mit negativen Auswirkungen auf Wertschöpfung und Arbeitsplätze. Deutschland hat nach Dänemark, dem Windkraftland Nummer Eins, die höchsten Strompreise Europas. Industriebetriebe müssen laut Bundesverband der Energiewirtschaft mehr als 10 Cent je Kilowattstunde für Steuern, Abgaben und Umlagen aufbringen. In Frankreich und den Niederlanden sind es nur 3,7 Cent, in Polen und Großbritannien sogar nur 2,6 Cent.  International agierende Unternehmen werden deshalb genau rechnen, ob sie weiter in Deutschland investieren oder ihre Kapazitäten im Ausland, etwa im Billigstromland USA oder in Asien, (noch schneller) hochfahren.

Eine Umfrage der landeseigenen Hessen-Agentur (2013) bei allen hessischen Unternehmen mit mehr als 250 Beschäftigten kommt zu einem klaren Ergebnis: Mehr als zwei Drittel der Befragten rechnen mit negativen oder sehr negativen Auswirkungen und die Hälfte der Unternehmen erwartet eine sinkende Wettbewerbsfähigkeit.

Aus dem grünen Jobwunder, das vielfach besprochen wurde, ist dagegen nichts geworden. Die mit Milliardensubventionen aufgebaute Solarindustrie ist jäh auf den Boden der Tatsachen aufgeschlagen. Der Beschäftigungsbericht "Erneuerbare Energien" (2013) des Bundeswirtschaftsministeriums weist beispielsweise bei Solarunternehmen im Vergleich zum Vorjahr ein Minus von 56 Prozent beim Umsatz und ein Minus von 44 Prozent bei den Jobs aus. 

Statt sonniger Aussichten stehen Rekordverluste und Insolvenzen auf der Tagesordnung. Statt neuer Jobs gibt es Massenentlassungen. Und das alles, obwohl der Weltmarkt für Solarmodule weiter wächst. Die deutsche Solarwirtschaft ist ein Paradebeispiel dafür, dass sich mit Subventionen langfristig kein wirtschaftlicher Erfolg erkaufen lässt. Verwöhnt von Anfangserfolgen und der starken heimischen Nachfrage haben deutsche Hersteller den Anschluss an die Weltspitze, die heute ausnahmslos aus Asien kommt, verloren.

Wer die deutsche Energiepolitik und das EEG nüchtern betrachtet, muss zu der Erkenntnis kommen, dass diese Politik gescheitert und die zentralen Ziele verfehlt wurden. Das EEG sollte deshalb schnellstmöglich abgeschafft werden. Außer der Ökolobby braucht niemand dieses Gesetz. Wir müssen die Energiepolitik wieder vom Kopf auf die Füße stellen und die grüne Steinzeitökonomie beenden…… 

..Entscheidend darf nicht sein, ob die Art und Weise der Stromerzeugung der politischen Führung unseres Landes gefällt, sondern ob sie im Sinne des Klimaschutzes und der Verbraucher wirklich funktioniert, und zwar so, dass Deutschland auch im internationalen Wettbewerb und angesichts sinkender Weltmarktpreise für Energie und Rohstoffe bestehen kann. Deshalb müssen wir mehr Markt erlauben und den Wettbewerb zwischen den Anbietern und Technologien fördern, da nur so Innovationen entstehen können.

Rene Rock ist Parlamentarischer Geschäftsführer
und energiepolitischer Sprecher der FDP Fraktion
r.rock@ltg.hessen.de

Hier den gesamten Artikel lesen




Warum ich ein „Klimaskeptiker“ bin



Ich bin skeptisch hinsichtlich des Narrativs, dass die Menschen der Hauptgrund für den Klimawandel sind und dass dieser in naher Zukunft katastrophale Ausmaße annehmen wird. Es gibt keinen wissenschaftlichen Beweis für diese Hypothese, aber trotzdem sagt man uns, dass „die Debatte vorüber“ und die Wissenschaft „settled“ ist.

Mein Skeptizismus beginnt mit der von den Gläubigen in Anspruch genommen Sicherheit, dass sie das globale Klima mit einem Computermodell vorhersagen können. Die alleinige Grundlage für die Klimawandel-Szenarien des Untergangs ist die Hypothese, dass der steigende atmosphärische CO2-Gehalt infolge der Emissionen fossiler Treibstoffe die Erde auf unerträgliche Temperaturen aufheizt.

Tatsache ist, dass sich die Erde sehr allmählich seit 300 Jahren erwärmt seit dem Ende der Kleinen Eiszeit und lange vor dem starken Verbrauch fossiler Treibstoffe. Vor der Kleinen Eiszeit, also während der Mittelalterlichen Warmphase, haben die Wikinger Grönland und Neufundland kolonisiert, als es dort wärmer war als heute. Und während der Römerzeit war es ebenfalls wärmer, lange bevor fossile Treibstoffe die Zivilisation revolutionierten.

Der Gedanke, dass es katastrophal werden würde, falls der CO2-Gehalt weiter zunimmt und die mittlere globale Temperatur um ein paar weitere Grad steigen würde, ist grotesk und absurd.

Jüngst hat das IPCC zum x-ten Mal angekündigt, dass wir dem Untergang geweiht sind, es sei denn, wir bringen unsere CO2-Emissionen auf Null. Im Endeffekt bedeutet dies, dass wir entweder die Bevölkerung auf Null reduzieren oder um 10.000 Jahre zurückgehen müssen, bevor die Menschen sich daran machten, Wälder zu roden, um Landwirtschaft zu betreiben. Diese ins Spiel gebrachte Kur ist viel schlimmer als die Anpassung an eine wärmere Welt, falls es überhaupt dazu kommt.

Interessenkonflikt des IPCC

Aufgrund seiner Verfassung steckt das IPCC in einem hoffnungslosen Interessenkonflikt. Seine Aufgabe ist es, ausschließlich die menschlichen Gründe der globalen Erwärmung zu betrachten, nicht aber die vielen natürlichen Gründe, derentwegen sich das Klima seit Milliarden von Jahren ändert. Wir verstehen die natürlichen Gründe des Klimawandels nicht besser als unser Wissen darum, ob Menschen gegenwärtig überhaupt etwas mit dem Klimawandel zu tun haben. Falls das IPCC zu dem Ergebnis kommen würde, dass die Menschen nicht die Ursache der Erwärmung sind oder auch, dass eine Erwärmung eher positiv als negativ ist, hätte das IPCC unter seinem jetzigen Mandat seine Daseinsberechtigung verloren. Um zu überleben, muss es die Apokalypse beschwören.

Entweder man erweitert das Mandat des IPCC, alle möglichen Gründe für Klimawandel zu untersuchen, oder man sollte es abwickeln.

Politisches Kraftwerk

Aus vielen Gründen ist der Klimawandel zu einer mächtigen politischen Kraft geworden. Erstens ist er universell: man sagt uns, dass alles auf der Welt bedroht ist. Zweitens, er spricht die beiden mächtigsten menschlichen Motivationsgrundlagen an: Angst und Schuld. Wir fürchten, dass Auto fahren unsere Enkel töten wird und fühlen uns darob schuldig.

Drittens gibt es eine mächtige Interessen-Konvergenz unter den maßgeblichen Eliten, die das Klima-„Narrativ“ unterstützen. Umweltaktivisten verbreiten Angst und erheben Spenden; Politiker scheinen die Welt vor dem Untergang zu bewahren; die Medien verfügen über ein Füllhorn von Sensation und Problemen, über die sie berichten können; wissenschaftliche Institutionen fordern Milliarden an Zuwendungen ein, gründen ganze neue Abteilungen und schüren ängstigende Szenarien; Industrien wollen grün aussehen und gewaltige öffentliche Subventionen für Projekte abgreifen, die anderenfalls ökonomische Verlierer wären, wie Windparks und Solarfirmen. Viertens, die Linken sehen den Klimawandel als ein perfektes Mittel zur Umverteilung des Wohlstands von den Industrie- zu den Entwicklungsländern – und zur UN-Bürokratie.

Also macht man uns weis, dass Kohlendioxid ein „giftiger“ „Verschmutzer“ ist, den man unterbinden muss. Dabei handelt es sich in Wirklichkeit um ein farb-, geruch- und geschmackloses Gas, welches das wichtigste Nahrungsmittel für das Leben auf der Erde ist. Ohne einen CO2-Gehalt über 150 ppm würden alle Pflanzen absterben.

Menschliche Emissionen retteten den Planeten

Während der letzten 150 Millionen Jahre war der CO2-Gehalt stetig zurückgegangen (durch die Pflanzen), und zwar von etwa 3000 ppm auf etwa 280 ppm vor der Industriellen Revolution. Falls sich dieser Trend fortsetzt, würde der CO2-Gehalt der Luft demnächst unter das zur Erhaltung des Lebens notwendige Maß sinken. Die Verbrennung fossiler Treibstoffe und die Urbarmachung von Land für die Landwirtschaft haben den CO2-Gehalt sich von seinem tiefsten Niveau der Erdgeschichte auf nunmehr 400 ppm erholen lassen.

Aber auch mit 400 ppm sind alle unsere Ernteerträge, Wälder und natürlichen Ökosysteme immer noch auf Diät bzgl. CO2. Das optimale CO2-Niveau für das Pflanzenwachstum unter der Voraussetzung ausreichender Wasser- und Nährstoffvorräte wären etwa 1500 ppm, also fast viermal die heutige Menge. Treibhausgasbesitzer führen CO2 zu, um den Ertrag zu verbessern. Bauernhöfe und Wälder werden besser gedeihen, falls das CO2-Niveau weiter steigt.

Wir haben keinerlei Beweise dafür, dass der steigende CO2-Gehalt ursächlich ist für die geringe Erwärmung der Erde während der letzten 300 Jahre. Es gab während der letzten 18 Jahre keinerlei Erwärmung mehr, obwohl wir in dieser Zeit 25% allen CO2 jemals emittiert haben. Kohlendioxid ist unabdingbar für das Leben auf der Erde, und Pflanzen würden gerne noch viel mehr davon haben. Was also sollten wir unseren Kindern empfehlen?

Kohlendioxid muss gefeiert werden

Die dem IPCC Hörigen haben uns eine Vision einer sterbenden Welt aufgrund von CO2-Emissionen vermittelt. Ich sage, dass die Erde sehr viel mehr tot wäre ohne CO2, und mehr davon wäre ein positiver Faktor zur Ernährung der Welt. Lassen Sie uns Kohlendioxid feiern!

Link: http://news.heartland.org/newspaper-article/2015/03/20/why-i-am-climate-change-skeptic

Übersetzt von Chris Frey EIKE