Der Januar zeigt keine Klimaerwärmung

Laut Deutschem Wetterdienst – DWD – war der abgelaufene Januar mit einem Schnitt von 3,7 C der sechstwärmste seit den Temperaturaufzeichnungen 1881, wobei wir jedoch anmerken müssen, dass die Wetterstationen damals an ganz anderen und viel kälteren Plätzen standen. Im Folgenden wollen wir nun diesen Januar an verschiedenen Orten über die letzten 30 Jahre betrachten, denn 30 Jahre sind laut Definition die kleinste Klimaeinheit. Und schon über die letzten 30 Jahre zeigt sich für Deutschland Überraschendes:

Grafik1: Der Wintermonat Januar wurde überhaupt nicht wärmer in den letzten 30, bzw. 31 Jahren, trotz des sehr milden Januars 2018. Die Trendlinie zeigt eine deutliche Abkühlung. Seit 1988 fallen die Januartemperaturen in Deutschland. Der Januar wird kälter und nicht wärmer.

Und wie gegensätzlich sich die Januar- Temperaturen und die CO2- Konzentration entwickelt haben, zeigt die folgende Grafik am Beispiel der DWD- Station Erfurt/Weimar. Die Kohlendioxidkonzentration der Atmosphäre steigt, der Monat Januar wird hingegen leicht kälter.

Grafik 2: Januar- Temperaturentwicklung in Erfurt (316m) seit 31 Jahren. Um sie in einem Diagramm mit der CO2-Konzentration, welche von 350 ppm (1988) auf fast 410 ppm (Anfang 2018) am Mauna-Loa-Observatorium gestiegen ist, darstellen zu können, mussten Indexwerte berechnet werden. Den wärmsten Januar seit 1988 gab es hier 2007 mit +4,4°C, den kältesten 2010 mit minus 5,1°C.

Nun sind diese Messungen des DWD nicht wärmeinselbereinigt. Seit 1988 hat die Bevölkerung Deutschlands leicht zugenommen, vor allem aber wurde überall gebaut, täglich kommen fast 100 ha an Gebäuden und Straßen hinzu, Heizungen und Autos haben zugenommen und die gesamte in den Molekülen gespeicherte Wärme der fossilen Energieträger dient der Aufheizung der Städte und der freien Landschaft. Neuerdings heizen die „Erneuerbaren Energien“ der freien Landschaft kräftig ein, denn die Windräder verhindern, dass sich nachts eine bodennahe Kaltluftschicht bildet; tagsüber bremsen sie den kühlenden Wind in Bodennähe. Und die Solarpaneele der „Solarparks“ wandeln kaum 10% der Solarenergie in Strom um, absorbieren aber durch ihre dunkle Oberfläche fast alle übrige eintreffende Solarenergie, während die ungestörte, im Januar nicht selten schneebedeckte Landschaft fast alle Solarenergie reflektiert. In den Städten und Ansiedlungen bleibt kein Schnee mehr liegen, dafür sorgt auch ein immer besser funktionierender Winterdienst.

Diese schleichende, jährlich wachsende Zusatzwärme ist in den DWD-Messdaten verborgen. Könnte man Sie herausrechnen, also um einen Wärmeinselfaktor –WI- korrigieren, dann wäre die Abkühlung noch stärker. Die menschengemachte Zusatzwärme wirkt der Januarabkühlung entgegen, ohne diese Zusatzwärme würde die Trendlinie noch stärker fallen.

Wir fragen uns: Wie hoch ist diese menschengemachte Zusatzerwärmung im Zeitraum der letzten 30 Jahre? bzw. wie stark wäre die Januarabkühlung in Deutschland, wenn sich unser Land in diesem Zeitraum überhaupt nicht durch Menschenhand verändert hätte.

Um diese Frage zu beantworten, betrachten wir 2 Klimastationen. Die Zugspitze und Amtsberg im Erzgebirge. Deutschlands höchster Berg hat im Winter fast keinen WI-effekt, da die Besucher im kalten Januar ausbleiben. Wegen der vor allem in diesem Januar 2018 fast immer geschlossenen Wolkendecke über dem Flachland und dem starken Wind (ruhige, antizyklonale Wetterlagen, welche WI- Effekte begünstigen, gab es kaum), blieb auch die Erwärmung von unten, also über die Siedlungsheizung, weitgehend aus.

Grafik 3a: Und wie erwartet, ist der Januar 2018 auf der Zugspitze überhaupt nicht so mild wie im Flachland. Was aber mehr auffällt: Der Januar 2018 ist etwa gleich wie der Januar 1988. Insgesamt sinken die Temperaturen wie die Trendlinie deutlich zeigt. Innerhalb der letzten 30 Jahre war der Januar 2018 nur der elftwärmste.

Damit lag der Hochwintermonat nur um 1,5 Grad über dem Schnitt des Zugspitz-Betrachtungszeitraumes 1981 bis 2010, für das restliche Deutschland gibt der DWD den Monat auf seiner homepage mit 3,4 Grad „zu warm“ an.

Wir stellen fest: Die Januartrendlinie für die Zugspitze ist stark fallend. In der Höhe Deutschlands wurde es deutlich kälter in den letzten 30 Jahren. Die Trendlinie zeigt eine Abkühlung von deutlich über 2 Grad.

Über einen Leser haben wir den Zugriff auf die Station Amtsberg am Fuße des Erzgebirges erhalten. Glücklicherweise scheint dort die Zeit seit fast 30 Jahren stehen geblieben zu sein, so dass wir die Station als fast WI-frei und in einer größeren Umgebung als fast unbeeinflusst bezeichnen können. In der folgenden Grafik sehen wir den Januarverlauf der DWD-Stationen und Amtsberg im Vergleich zueinander.

Grafik 3b: Bei der fast WI-freien Station Amtsberg (blau gezeichneter Temperaturverlauf) am Fuße des Erzgebirges in der Nähe von Chemnitz sehen die letzten 30 Januarmonate ähnlich aus wie die DWD-Grafik, die Trendlinie ist jedoch stärker fallend als beim DWD-Gesamtschnitt. (negativere Steigungsformel)

Es gibt zu den DWD-Werten für Gesamtdeutschland jedoch zwei Unterschiede:

  1. Der Monat Januar ist gegenüber dem Deutschlandschnitt etwa um 1 Grad kälter.
  2. Die Trendlinien gehen auseinander, der Januar kühlt in ländlichen Gebieten stärker ab als in größeren Ansiedlungen oder gar Städten.

Das führt im Endeffekt dazu, dass die Trendlinie von Amtsberg fallender ist als die von Deutschland. Wie aus der Grafik 3b ersichtlich, wurde der Januar in Deutschland kälter, aber in Amtsberg noch kälter. Der Unterschied der beiden Trendlinien ergibt eine Größenabschätzung auf den Januar-Wärmeinseleffekt für Deutschland in den letzten 30 Jahren.

Überschlag: Die DWD-Trendlinie ist um 1 Grad gefallen, die von Amtsberg fast um 2 Grad. Demnach beträgt der WI Deutschlands für den Monat Januar über die letzten 30 Jahre fast ein Grad, wobei anzumerken ist, dass der Vergleich einer einzelnen Station mit dem „Rastermittel“ des DWD nur grobe Hinweise liefern kann.

Dieser Betrag entspricht etwa dem, den Raimund Leistenschneider aus seiner statistischen Erhebung mit 0,6K für die letzten 35 Jahre für die DWD-Jahresmittelwerte errechnet hat.

Fehlerabschätzung: Nun könnte man natürlich einwenden, dass es sich nur um den Januar handelt, und in diesem Monat wird besonders viel geheizt, ebenso verbrauchen die Autos 30% mehr Sprit und der Stromverbrauch liegt im Januar ebenfalls um 50% höher als in den Sommermonaten. Und jedwede Energie wird am Schluss als Wärme in die Landschaft freigesetzt. Haben wir durch die Auswahl des Monates Januar also cherry- picking betrieben?

Auch lassen wir den Einwand zu, dass sich das Erzgebirge in den letzten 30 Jahren mehr abgekühlt haben könnte als das restliche Deutschland. Trotzdem waren wir bei unserer Arbeit selbst überrascht, dass sich der in den deutschen Daten versteckte, schleichend anwachsende WI-effekt auf so einfache Weise zeigen lässt, und dass unsere bislang angegebene Größenordnung des WI stimmt. Der DWD gibt inzwischen längst zu, dass seine erhobenen Daten nicht wärmeinselbereinigt sind.

Und wer von den Lesern zum ersten Male von unserem WI-Korrekturfaktor hört und nur staunt, dem sei lediglich gesagt: Dass man die Temperaturen von heute und von früher nicht direkt vergleichen kann, da sich die Umgebung der Stationen durch die menschliche Bebauung wärmend verändert hat.

  1. Ab 20 Jahre Zeitdifferenz braucht man einen WI-Korrekturfaktor.
  2. Der WI-Korrekturfaktor ist umso höher, je größere Zeiträume man betrachtet.

Wir möchten abschließend aber auch betonen, dass die Leiter der Wetterstationen zuverlässig arbeiten, ihre erhobenen Daten sind nicht anzweifelbar. Diese und der DWD in Offenbach können nichts dafür, dass sich Deutschland laufend durch menschliche Eingriffe wärmend verändert. Umso größer dürfte die Überraschung sein, dass der Monat Januar sich trotz dieser WI-Zusatzwärme seit 30 Jahren deutschlandweit sogar abkühlt.

Ein Blick über den Ozean:

Auch an anderen Orten der Nordhalbkugel gibt es die Wärmeinselproblematik; und an wärmeinselarmen Stationen zeigen sich Abkühlungstendenzen. Weil bis Redaktionsschluss nicht alle internationalen Januar- Werte für 2018 vorliegen, endet die folgende Grafik mit 2017.

Grafik 4: Die abseits bei einer Farm in Virginia gelegene Enterprise Dale-Weather Station zeigt ebenfalls eine deutliche Januarabkühlung. Im Gegensatz dazu wurde der Januar im gleichen Zeitraum in der Bundeshauptstadt Washington kaum kühler.

Wobei anzumerken ist, dass der Januar 2018 bei Dale Enterprise, also bei der isoliert stehenden Farm in Virginia bitterkalt war und die grüne fallende Trendlinie bestätigen wird. (Grafik endet 2017)

Der Vollständigkeit halber sei erwähnt, dass in Zentralengland, Nordjapan und Mittelschweden ebenfalls eine Januar- Abkühlung seit 30 Jahren zu beobachten ist. In anderen Teilen der Welt kam es in diesem Januar 2018 zu neuen Kälte- oder Schneehöhenrekorden. Darüber wurde sogar kurz in den Medien berichtet; in Deutschland ehr lustlos, denn den hierzulande meist links- grünen Journalisten passen Nachrichten über mehr Kälte und Schnee nicht ins Konzept. Betroffen waren außer Nordamerika auch Sibirien, Zentral-, Süd- und Ostasien. Näheres dazu unter anderem hier

https://www.iceagenow.info/massive-snow-dump-iran/ hier https://www.iceagenow.info/lowest-temperature-ever-recorded-bangladesh-history/ und hier https://www.eike-klima-energie.eu/2018/01/21/sind-ihnen-die-tage-zurzeit-zu-kalt-dann-lesen-sie-hier-etwas-ueber-sibirien/ . Das „Zu wenig Winter“ bei uns heuer in Deutschland bedeutet eben ein „Zu viel Winter“ andernorts. Schuld sind die Zirkulationsverhältnisse, welche Kälte und Wärme ungleich verteilt haben.

Wir fordern unsere Leser auf, anhand unserer Grafiken den Medien vor Ort mitzuteilen, dass der Monat Januar nicht wärmer, sondern seit 30 Jahren kälter wird und dass die Klima-Abkühlung des Monates Januar viel größer wäre, wenn man die schleichend wachsende Zusatzwärme aus den DWD-Daten heraus korrigieren würde. Das zeigen die Januardaten der Zugspitze oder die Daten ländlich geprägter Stationen.

Zusammenfassung:

Die Januartemperaturen sinken seit gut 30 Jahren. Der CO2-gehalt der Atmosphäre steigt. Somit verhalten sich CO2 und Temperaturen gegensätzlich zueinander. Aus der Statistik könnte man allenfalls schlussfolgern, dass ansteigende CO2-Konzentrationen zu Temperaturabkühlungen führen.

Bei ländlichen Stationen und in Höhenlagen ist die Januarabkühlung laut Trendlinie stärker als in den Städten. Das ist ein Beweis des weiter zunehmenden Wärmeinseleffektes. Man könnte vereinfacht sagen: In den Städten werden die kalten Temperaturen heraus geheizt.

Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt der Politik gestellt wird und nicht das Geschäftsmodell Klimaschutz und das Märchen von der globalen Temperaturerwärmung. Der Januarverlauf seit 1988 braucht keinen Erwärmungsstopp, da er von selbst kälter wird.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agrar- Ingenieur, unabhängiger Natur- und Klimaforscher




Total verstrahlt: Die ARD und ihre Atom-Berichterstattung

Döschner ist ein Journalist jener Schule, die sich, frei nach Hanns-Joachim Friedrichs, mit jenen Sachen gemein macht, die sie für gut befunden hat. Er wurde sozialisiert in einer Zeit, als man zwischen Gut und Böse noch klar unterscheiden konnte.

Gut waren die kritischen und widerständigen Grünen, die aus Minderheitenpositionen und Graswurzelbewegungen heraus das Establishment der Kohl- und Flick-Ära herausforderten und der geistig-moralischen Wende die „Energiewende“ entgegensetzten – damals noch ein neues Wort. Gut war eine Berichterstattung, welche der Großindustrie investigativ zu Leibe rückte. Überflüssig zu sagen, was damals als schlecht galt: Waldsterben war schlecht. Bleibenzin war schlecht. Atomkraftwerke waren schlecht. Heute ist das Mainstream quer durch die Parteien. Das Benzin ist entbleit, der Wald gerettet und die Kernkraftwerke zur Strecke gebracht. Der deutsche Politiker von Grün bis CSU schaltet vor jede Aussage über die Kernenergie eine Verwerflichkeits-Präambel.

Doch die süße Zeit, als man noch ein einsamer Kämpfer für’s Gute war, gegen die Übermacht der Bösen mit den fetten Kassen, die hat den Herrn Döschner süchtig gemacht. Und daher hängt er an seiner Anti-Atom-Berichterstattung wie der Quartalssäufer am vierteljährlichen Alkohol-Exzess. Mangels deutscher Atomanlagen, die entweder abgeschaltet sind oder unspektakulär und störfallfrei ihren befristeten Dienst tun, hat sich Döschner eine neue Hassliebe gesucht, der er beständig hinterherstalkt: Die Kernenergie in Belgien. Er kann sich als Verdienst anrechnen, wesentlich zur behördlichen Anschaffung von Jodtabletten-Vorräten im Raum Aachen beigetragen zu haben. Denn in den Schlagzeilen des Herrn Döschner, die den öffentlichen Raum Nordrhein-Westfalens beschallen, muss das Wort „Super-GAU“ mindestens einmal vorkommen, und am liebsten fragt er gleich: „Wann knallt’s?“

Lange Zeit hatte Döschner es mit den „maroden“ Reaktordruckbehältern von Tihange-2  und Doel-3, die er zu „Bröckelreaktoren“ deklarierte. Bereits mit dieser Wortwahl signalisierte er, dass er von kerntechnischen oder materialwissenschaftlichen Zusammenhängen keine genaueren Vorstellungen hat. Wer wissen will, was es mit diesen Problemen rund um Wasserstoff-Flocken, Sprödbruch-Kennlinien und vorgeheiztes Notkühlwasser wirklich auf sich hat, kann sich hier informieren.

Hilfe, es ist stiller geworden um die Belgien-AKWs!

Nun ist es stiller geworden um Tihange-2 und Doel-3, denn die belgischen Behörden halten das Thema nach umfänglichen Prüfverfahren für umfänglich diskutiert, entschieden und abgeschlossen. Für den Quartalsbeitrag Jürgen Döschners zur deutschen Atom-Angstkultur taugen sie also derzeit nicht. Daher kam ein kürzliches Schreiben der belgischen Aufsichtsbehörde FANC wie gerufen, das dem WDR zugespielt wurde. In ihm geht es um die Anlage Tihange-1, wie ihre Nachbarblöcke ein Druckwasserreaktor französischen Typs. In dem Schreiben wurde dargelegt, dass es in dieser Anlage binnen zwei Jahren zu einer Häufung von sogenannten „precursor“-Ereignissen gekommen sei.

Precursor-Ereignisse (precursor events, precursor incidents) sind Störungen oder Störfälle in einem Kernkraftwerk, welche im Zusammenspiel mit etlichen anderen Folgeereignissen zu schweren Brennelementschäden führen könnten. Precursor-Analysen wiederum sind ein Spezialfall probabilistischer Sicherheitsanalysen, d.h. auf Wahrscheinlichkeitsberechnungen beruhender Einschätzungen, mit denen man Schwachstellen komplexer, eng gekoppelter technischer Systeme ausfindig machen kann. Wenn beispielsweise bei einer Wiederkehrenden Prüfung EINE KOMPONENTE EINES Sicherheitssystem, etwa eine Notkühlpumpe oder ein Druckspeicher, sich als nicht verfügbar erweist. sich als nicht verfügbar erweist, wird, ausgehend von diesem konkreten Ereignis, unter Einbeziehung möglichen Versagens anderer Systeme, die man für die Gewährleistung der Unterkritikalität des Reaktors und die sichere Nachzerfallswärme-Abfuhr benötigt, eine Wahrscheinlichkeit für eine Kerngefährdung errechnet. Nur wenn diese größer oder gleich 10 hoch -6 beträgt (d.h. die Wahrscheinlichkeit einer Kerngefährdung bei eins zu einer Million liegt), spricht man von einem precursor, einem Vorläufer-Ereignis.

Stellt man eine Langzeitanalyse an – beobachtet man also die Meldung von Vorläufer-Ereignissen über einen längeren Zeitraum hinweg –, dann können Häufungen von precursors in ein und derselben Anlage tatsächlich einen Hinweis auf ihr Sicherheitsniveau geben. Das ist gleichwohl noch keine Aussage über einen konkreten gegenwärtigen, gar gefährlichen Anlagenzustand. Um die genannte generalisierende Aussage zu machen, braucht man längere Zeitreihen und genauere Informationen darüber, welche Systeme betroffen waren, ob es Clusterungen gab, wie hoch die Schadenswahrscheinlichkeiten im einzelnen beziffert wurden.

Experten, die sich mit probabilistischer Sicherheitsanalytik beschäftigen, werden aufgrund des hohen Komplexitätsgrades ihres Geschäfts häufig missverstanden. So wurde ihnen in den 1970er Jahren, als diese Berechnungen dank immer besserer Rechnerleistungen aufkamen, angesichts der genannten Zahlenverhältnisse vorgeworfen, sie rechneten schwere Unfälle „klein“.

Störfall-Datenbanken und Weiterleitungs-Meldesystem

Dabei ist die Philosophie der PSA (Probability Safety Analysis) gerade anders – sie hält jeden Unfall prinzipiell für möglich und lediglich für eine Frage der Zeit. Wenn eine PSA zu dem Schluss kommt, ein bestimmter Unfall habe eine Wahrscheinlichkeit von eins zu einer Million, dann sagt sie damit keinesfalls aus, es käme erst in einer Million Reaktorbetriebsjahren zum Unfall, wie viele Atomkraftgegner unterstellten. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.. Sie schließt nur nicht aus, dass es morgen, oder in viertausend, oder in einer Million Reaktorbetriebsjahrenahren dazu kommen könnte. Aber sie schließt eindeutig aus, dass es dreimal oder zwanzigmal binnen einer Million Reaktorbetriebsjahren dazu kommen könnte.

Im Falle der precursor incidents kommt hinzu, dass Unfälle in einer Anlage nicht notwendigerweise Vorläufer in derselben Anlage gehabt haben müssen – wohl aber in einer anderen Anlage, mitunter mit großem zeitlichen Abstand der Ereignisse. So gilt ein glimpflich abgelaufener Störfall im schweizerischen Beznau Anfang der 1970er Jahre als Vorläufer des Kernschmelz-Unfalls von Three-Mile Island-2 1979, und auch der Reaktivitäts-Unfall mit Leistungsexkursion in Tschernobyl-4 1986 hatte einen Vorläufer-Störfall, der elf Jahre vorher im KKW Leningrad-1 abgelaufen war.

Diese wichtige Information wurde aber im System der sowjetischen Kernenergiewirtschaft nicht analysiert und dann weitergegeben, sondern analysiert – und geheimgehalten. Auch die Anlagenfahrer von TMI-2 hatten 1979 keinerlei Kenntnis von dem Ereignis in Beznau. Aus diesem Grunde gibt es in der Kernenergiewirtschaft heute internationale Störfall-Datenbanken und Weiterleitungs-Meldesysteme: So können sicherheitstechnisch bedeutsame Ereignisse möglichst rasch auf ihre Relevanz für andere Anlagen überprüft werden.

Die Tagesschau und die üblichen Verdächtigen

Gleichwohl machte die ARD-Tagesschau aus dem vorliegenden Befund die Schlagzeile „Tihange-1 gefährlicher als bislang bekannt“, was unterstellt, es sei bereits vorher bekannt gewesen, dass die Anlage „gefährlich“ sei; nun sei sie eben „gefährlicher“. Das nicht für atomfreundliche Aussagen bekannte SPD-geführte Bundesumweltministerium beeilte sich daher klarzustellen, dass es sich hier um eine simplifizierende Fehlinterpretation handle. „In der aktuellen Berichterstattung entsteht der Eindruck, dass man auf Grundlage der Anzahl von sogenannten Precursor-Ereignissen auf die Sicherheit einer Anlage schließen könne. Das ist aber nicht der Fall. Sie sind vielmehr probabilistisch durchgerechnete Anlässe, die dabei helfen, sich ein bestimmtes Szenario genauer anzusehen. Diese sehr komplexen Precursor-Berechnungen sind ein Element einer umfassenden Sicherheitsarchitektur. Die Wahrscheinlichkeitsberechnungen können helfen, weitere Optimierungen an einem lernenden Sicherheitssystem dieser oder anderer Anlagen vorzunehmen.“

Der für den ARD-Beitrag verantwortliche Jürgen Döschner zitiert zwei Experten, die das ganz anders sehen: alte Bekannte, die in fast jedem Döschner-Beitrag auftreten, und die unschwer als in die Jahre gekommene Vertreter jener grünen Gegen-Expertise zu identifizieren sind, welche es erfolgreich von den Bauzaun-Protesten in die Ministerien und staatlichen Fachgremien schafften. Manfred Mertins ist ein ehemaliger Mitarbeiter der Gesellschaft für Reaktorsicherheit und tritt häufig als Gutachter für die Grünen und andere atomkritische Verbände auf. Der Ingenieur Dieter Majer war nach seinem erfolgreichen Marsch in die Institutionen Ministerialdirigent unter den Umweltministern Trittin (Grüne) und Gabriel (SPD) und wirkte dort als Leiter der Abteilung kerntechnische Sicherheit. Auch er machte nie einen Hehl aus seinen Überzeugungen.

Bei der Stillegung des KKW Krümmel nach einem Transformatorbrand im Sommer 2007 war Majer eine der treibenden Kräfte, welche wider besseres Wissen Zweifel und Angst über einen ernsthaften Störfall streuten – vermutlich sollte das der Profilierung des SPD-Umweltministers Gabriel in einer CDU-geführten Regierung dienen. Der SPIEGEL, der den Hintergrund dieser Geschichte recherchierte, konstatierte seinerzeit, dass alle Beteiligten von Anbeginn an wussten, dass der Brand auf die Sicherheit der Anlage keinerlei Auswirkungen gehabt und das Betriebspersonal richtig gehandelt und die Anlage sicher abgefahren hatte.

Wider besseres Wissen zum Kriminalfall aufgeblasen

Trotzdem wurde die Angelegenheit zum Kriminalfall und gefährlichen Nuklearstörfall aufgeblasen, was das Ende für Krümmel bedeutete. Nach Beendigung seiner Ministerialkarriere fungierte Dieter Majer, wie sein Experten-Kollege Mertins, als Berater atomkritischer Initiativen, etwa als „gemeinsamer Beobachter von Luxemburg, Rheinland-Pfalz und dem Saarland“, jener Länder und Bundesländer, die sich für die Stillegung des französischen KKW Cattenom stark machen.

Döschners Atomexperten liefern keine fachlichen Hintergründe zum besseren Verständnis und zur Einordnung des Schreibens, sondern die bestellte Panikorchester-Musik für einen Bericht, dessen Ergebnis vermutlich schon feststand, bevor sie überhaupt befragt wurden. Mertins lässt sich mit folgenden Worten zitieren: „Precursor kann man schon als einen Indikator für den Sicherheitszustand der Anlage einstufen“, und begibt sich mit dieser vereinfachenden Aussage in Widerspruch sowohl zu den Papieren seines Ex-Arbeitgebers GRS als auch zu den Aussagen des BMU. Dieter Majer, Gabriels Mann für’s nukleare Grobe unter Rot-Schwarz, tönt unisono. Er sieht in den Befunden ein Anzeichen, „dass die Anlage sicherheitstechnische Schwachstellen hat.“

Was bleibt zu sagen? Das Kernkraftwerk Tihange hat noch einen dritten Block, und wir erwarten, dass auch diese bislang noch nicht gewürdigte Anlage bald in den Fokus des Herrn Döschner gerät. Er muss nur noch einen Anlass finden – sagen wir, in einem Vierteljahr? Zweifelsfrei feststellbar ist jedoch, dass die ARD mit den Standards einer sachlichen und vorurteilsfreien öffentlich-rechtlichen Berichterstattung offensichtlich ein Problem hat, wenn sie Themen der Energieversorgung, insbesondere der Kernenergie, anspricht.

Würde der WDR dieselben Qualitätsmaßstäbe, die er bei seiner Atom-Berichterstattung setzt, bei der Diskussion über den Familiennachzug von Flüchtlingen anlegen, dann dürfte er ausschließlich Experten von Pegida, AfD und NPD zu Wort kommen lassen, und müsste mit Schlagzeilen von „Asylantenflut“ und „Volkstod“ den baldigen Super-GAU Deutschlands beschwören. Dieses Verständnis von Journalismus ist nur eines: gefährlicher als angenommen.

Dr. Anna Veronika Wendland ist Osteuropa-Historikerin am Herder-Institut für historische Ostmitteleuropaforschung in Marburg. Ihr Habilitationsprojekt „Atomgrad. Kerntechnische Moderne im östlichen Europa“ ist dem Sonderforschungsbereich SFB/TR 138 „Dynamiken der Sicherheit“ assoziiert. Sie lebt mit Mann und drei Söhnen in Leipzig. 

Übernommen von ACHGUT hier



Warum 2017 als „dritt­wärmstes Jahr jemals“ ein Lang­weiler ist

Die New York Times trompetete: „2017 war eines der wärmsten Jahre jemals“ und fügte hinzu: „NASA-Wissenschaftler listeten das vorige Jahr an zweiter Stelle seit Beginn zuverlässiger Aufzeichnungen im Jahr 1880; lediglich das Jahr 2016 war noch wärmer. Die NOAA listete es mit einem anderen analytischen Verfahren an dritter Stelle nach 2016 und 2015“.

Auch der Guardian tönte: „Dank der globalen Erwärmung war 2017 das wärmste Jahr jemals ohne El Nino“ (hier).

Ähnliche Schlagzeilen erschienen auf der ganzen Welt.

Selbst notorische „Klimaskeptiker“ wie Roy W. Spencer (führendes Mitglied der Cornwall Alliance) und John R. Christy von der University of Alabama UAH, wo man Satelliten-Temperaturdaten archiviert, berichteten „2017 war drittwärmstes Jahr während der 39-jährigen Satelliten-Ära“ (hier).

Aha! Die Debatte bzgl. der gefährlichen, vom Menschen verursachten globalen Erwärmung ist vorüber, und die Alarmisten haben gewonnen.

Zumindest ist es das, was die Alarmisten uns glauben machen wollen.

Aber das behaupten sie schon seit 30 Jahren, und die Debatte geht weiter. Man fragt sich, ob die Fakten wirklich dem Gewicht entsprechen, welches die Alarmisten ihnen beimessen.

Als Erstes bleibt festzuhalten, dass die Unterschiede bei der „globalen mittleren Temperatur“ viel zu gering sind, um irgendwelche signifikanten Auswirkungen auf irgendein Ökosystem zu haben, geschweige denn auf das Wohlergehen der Menschen – können sich diese doch besser als die meisten anderen Lebensformen an ihre Umwelt anpassen und – noch wichtiger – sie können diese so modifizieren, dass es für sie nützlich ist.

Man betrachte einmal genau die Graphik der monatlichen UAH-Satellitendaten von 1979 bis 2017 (Quelle):

Die blauen Kreise repräsentieren die Abweichung von der globalen mittleren Temperatur der unteren Troposphäre vom Mittel der Jahre 1981 bis 2010 (das entspricht dem größten Teil der Atmosphäre und ist vermeintlich am empfänglichsten für eine CO2-getriebene Erwärmung), und zwar für jeden Monat von Dezember 1979 bis Dezember 2017. Die rote Linie repräsentiert das gleitende Mittel über 13 Monate.

Man beachte vor allem die Skala der vertikalen Achse – sie reicht von -0,7°C bis +0,9°C, das ist eine Spanne von 1,6°C. Während der 39 Jahre lag die größte negative Abweichung vom Mittel der Jahre 1981 bis 2010 mit 0,51°C unter dem Mittelwert in einem Monat des Jahres 1985, während die größte positive Abweichung in einem Monat des Jahres 2016 aufgetreten war mit 0,88°C; das ergibt eine Gesamt-Schwankung von etwa 1,39°C.

Jetzt betrachte man die rote Linie etwas näher – also das über 13 Monate geglättete Mittel. Die größte Differenz zeigt sich zwischen einem Monat im Jahre 1983 mit 0,35°C unter dem Mittel und einem Monat im Jahre 2016 mit 0,5°C über dem Mittel – eine Bandbreite von etwa 0,85°C.

Die Rohdaten hinter dieser Graphik zeigen, dass 1985 das kälteste Jahr war mit 0,36°C unter dem Mittel 1981 bis 2010, während 2016 das wärmste Jahr war mit 0,511°C über diesem Mittel. Das ist eine Bandbreite von insgesamt 0,871°C.

Jetzt betrachte man die folgende Graphik von dem in den Ruhestand getretenen Atmosphären-Physiker Richard Lindzen, Professor der Meteorologie am MIT. Sie zeigt die tatsächlichen Höchst- und Tiefsttemperaturen (in °F) von Boston für jeden Tag vom 9. Februar bis zum 11 März (blaue Balken), die klimatologische Bandbreite der Temperatur für jedes Datum (dunkelgraue Balken) und die kälteste bzw. wärmste Temperatur für jedes Datum (hellgraue Balken).

Wie man sieht, bewegte sich die tatsächliche Temperatur-Bandbreite in Boston an jedem gegebenen Tag in jenem Zeitraum 2013 von vielleicht 1,1°C am 27. Februar bis etwa ca.14°C am 11. Februar. Nach Augenschein würde die mittlere Bandbreite ca. 5,6° bis 8,3°C betragen. Für den letzten gezeigten Tag, dem 11. März 2013, lag die tiefste Temperatur bei ca. 12,8°C (1939) und die höchste Temperatur bei ca. 19,4°C (1990). Die tiefste Temperatur der gesamten Periode von 31 Tagen während der letzten 175 Jahre betrug ca. -27,8°C, die höchste Temperatur ca. 22,2°C].*

[*Im Gegensatz zu den anderen Absätzen stehen hier die Angaben nur in °F. Der Einfachheit, aber auch der besseren Lesbarkeit halber habe ich alle Werte in °C umgewandelt und nur diese hier geschrieben. Wer das nachprüfen will, gehe auf den entsprechenden Abschnitt im Original. Anm. d. Übers.]

Was einem sofort ins Auge springt ist der Umstand, dass die geringste Bandbreite zwischen höchster und tiefster Temperatur eines einzelnen Tages von etwa 1,11°C um etwa ein Viertel größer ist und die mittlere Bandbreite für einen einzelnen Tag (~5,6°C bis ~8,3°C) etwa 6 bis 10 mal größer ist als die Gesamt-Bandbreite zwischen dem wärmsten und dem kältesten Jahr weltweit (0,871°C).

Oh, und was ist mit der roten Linie in Lindzens Graphik? Deren Dicke spiegelt die gesamt-Zunahme der globalen mittleren Temperatur während der letzten 175 Jahre – welche in etwa gleich ist der geringsten Temperaturdifferenz an einem einzelnen Tag in Boston ist vom 9. Februar bis zum 11. März 2013. Sie beträgt etwa ein Fünftel bis ein Achtel des mittleren Differentials eines Tages und etwa ein 25-tel des größten Tagesintervalls.

Und doch haben die Bostoner überlebt.

Aber nun ist da noch die Tatsache, dass den UAH-Satellitendaten zufolge 16 der 20 wärmsten Jahre während der Satelliten-Ära während der letzten 17 Jahre aufgetreten waren (welche wie erinnerlich nur bis zum Jahr 1979 zurückreicht). Zeigt dies nicht, dass – wie die NASA es ausdrückt – „…sich der langfristige Erwärmungstrend der Erde fortsetzt?“

Keineswegs! Man betrachte noch einem die rote Linie in der UAH-Graphik. Daraus geht eindeutig hervor, dass es seit 1998 keinen signifikanten Erwärmungstrend mehr gab. Lindzen drückte es so aus:

Die Betonung auf „wärmste Jahre jemals“ scheint eine Reaktion auf die Beobachtung zu sein, dass die Erwärmungsperiode von 1978 bis 1998 sich abgeschwächt zu haben scheint und dass die Temperaturen seit 1998 in etwa gleich geblieben sind. Natürlich, falls 1998 das wärmste Jahr jemals war, finden sich alle nachfolgenden Jahre ebenfalls unter den wärmsten jemals, da die Temperatur in jenem Jahr zu steigen aufgehört hat, was sich während der Folgejahre fortsetzte – von denen jetzt alle so warm sind wie das Rekordjahr 1998. Nichts hiervon widerspricht der Tatsache, dass die Erwärmung zum Stillstand gekommen ist.

Und noch etwas: Christy zufolge beträgt die Fehlerbandbreite bei den Schätzungen der jährlichen globalen mittleren Temperatur bei Satellitenmessungen etwa 0,1°C.

Damit im Hinterkopf zeigt sich, dass die Differenz zwischen irgendeinem gegebenen Jahr und dem nächstwärmsten Jahr nur in einem einzigen Fall über die Fehlerbandbreite hinausgegangen war: 1998 (zweitwärmstes Jahr in der Reihe) war um 0,107°C wärmer als 2017 (drittwärmstes Jahr).

Die Differenz zwischen 2016 (dem wärmsten Jahr) und 1998 betrug lediglich 0,028°C oder etwa drei Zehntel der Fehlerbandbreite. Mit anderen Worten, wir wissen gar nicht, ob 2016 wärmer war als 1998 oder umgekehrt. Das viert- und fünftwärmste Jahr (2010 und 2015) liegen ebenfalls innerhalb der Fehlerbandbreite bzgl. ihrer Differenz untereinander.

Man muss vom sechstwärmsten Jahr (2002) zum elftwärmsten Jahr (2001) gehen, um erneut eine über die Fehlerbandbreite hinausgehende Differenz zu finden; d. h. wir wissen nicht, ob das Jahr 2002, 2005, 2003, 2014, 2007, 2013 oder 2001 das sechst- oder zwölftwärmste Jahr gewesen ist – oder irgendetwas dazwischen.

All das zeigt ziemlich eindeutig, dass die globale Temperatur während der letzten 20 Jahre gleich geblieben ist. Wir wissen einfach nicht, ob der „langfristige Erwärmungstrend der Erde“ 1998 zum Stillstand gekommen ist, ob er wieder einsetzt oder ob er sich in einen Abkühlungstrend umkehrt.

Dabei geht es noch nicht einmal um die Frage der Gründe für die Erwärmung von 1880 bis heute – oder, wie aus dieser NOAA-Graphik der globalen Land- und Wasser-Temperaturanomalien hervorgeht – der Abkühlung von etwa 1880 bis 1910, der Erwärmung von etwa 1910 bis 1945, der Abkühlung von 1945 bis 1975, der Erwärmung von 1975 bis 1998 und für das Plateau von 1998 bis 2015. (Anders als die Satellitendaten sind die NASA-Werte sehr zweifelhaft wegen der räumlichen Verteilung, der Ausfälle von Stationsmessungen, von Homogenisierungs-Verfahren und anderer Probleme). Dagegen wissen wir ziemlich gut, was hinter der Erwärmung von 2015 bis 2016 bis in das Jahr 2017 hinein steckt: ein starker El Nino ähnlich dem des Jahres 1998).

Klimaalarmisten ordnen die Erwärmung gebetsmühlenartig der steigenden atmosphärischen CO2-Konzentration zu, wie es in dieser Graphik von Climate Central zum Ausdruck kommt:

Auf den ersten Blick scheint der Verlauf von CO2 und der Temperaturanomalie ziemlich gut zu passen. Aber bei näherem Hinsehen, vor allem wenn man noch einmal die UAH-Graphik oben betrachtet, erkennt man, dass der CO2-Gehalt schon während der Abkühlungs-Perioden der Jahre 1880 bis 2010 gestiegen war und sogar immer stärker stieg während des Plateaus von 1998 bis 2015. Dies zeigt, dass CO2 zumindest nicht der einzige Treiber und möglicherweise nicht einmal der Haupttreiber der Erwärmung insgesamt während der 137-Jahre-Periode ist.

Und wie das so geht, Forschungen von John Christy, Joseph D’Aleo und James Wallace ergaben, dass solare, vulkanische und ozeanische Strömungsvariationen alle beobachteten globalen Temperaturvariationen erklären können, so dass keine dieser Variationen übrig bleibt, um sie CO2 zuzuordnen.

Man lasse sich also nicht ins Bockshorn jagen durch die Schlagzeilen. Man schaue hinter dieselben, und man wird etwas ganz anderes erkennen.

Link: https://wattsupwiththat.com/2018/01/29/why-2017s-third-warmest-year-on-record-is-a-yawner/

Übersetzt von Chris Frey EIKE




Wir dürfen den Kampf gegen den Klima-Alarmismus nicht aufgeben!

Meine Damen und Herren,

herzlichen Dank für die Einladung und für die Gelegenheit, an dieser bedeutenden Zusammenkunft teilzunehmen. Es ist großartig, nach so vielen Jahren in Frankreich zu sein und Paris so zu sehen, wie es in der Ära der Massen-Migration aussieht.

Ich reise fast ununterbrochen, aber nicht nach Frankreich.

Ich weiß nicht, ob es meine Schuld oder irgendetwas anderes ist. Teilweise mag der Grund meine fehlenden Kenntnisse der französischen Sprache sein, was ich als große Bildungslücke meinerseits ansehe. Teilweise kann es aber auch der offensichtliche Graben sein zwischen meinen Ansichten und dem Mainstream-Denken in Frankreich.

Nichtsdestotrotz wurde ich während der letzten Jahre durch die Arbeit mehrerer französischer Autoren inspiriert wie Michel Houellebecq, Pascal Bruckner, Pierre Manent, Alain Finkielkraut, und nicht zuletzt durch meine alten Freunde wie Pascal Salin. Dadurch ist erneut meine Motivation erwacht, mit Frankreich und seinen Intellektuellen in Verbindung zu treten.

Ich muss zugeben, dass ich bis vor Kurzem von der French Association des Climato-réalistes, deren Aktivitäten und deren Fähigkeit ausreichen, ein solches Treffen wie das Heutige zu arrangieren, nichts wusste. Vielen Dank dafür, mich hier sprechen zu lassen vor diesem gebildeten Publikum.

Erinnerungen an den Kommunsimus

Meine Art, dieses Thema zu behandeln, ist geprägt von der sehr speziellen Erfahrung unter dem kommunistischen Regime, unter dem ich zwei Drittel meines Lebens zugebracht habe. Diese Erfahrung schärfte unsere Augen. Wir wurden hypersensitiv gegenüber allen Versuchen, Freiheit, Vernunft und freien Meinungsaustausch zu unterbinden, und wir wurden hypersensitiv dagegen, Dogmen übergestülpt zu bekommen von jenen, welche sich selbst für besser halten als die Übrigen von uns. In der kommunistischen Ära wurden wir Zeugen einer irrationalen Situation, in der Wissenschaft gleichzeitig gefördert und behindert, gepriesen und gefeiert, manipuliert und missbraucht wurde. Meine Gefühle derzeit sind dem sehr ähnlich.

www.klaus.cz/clanky/1109.)

Ich habe auf vielfältige Weise an dieser Debatte teilgenommen, am deutlichsten in Gestalt eines Buches mit dem Titel Blue Planet in Green Shackles [übersetzt „Blauer Planet in Grünen Fesseln“], welches inzwischen weltweit in 18 Sprachen übersetzt worden ist.

In diesem Jahr publizierte ich einen Artikel mit dem Titel Shall We Be Destroyed by Climate or by Our Fighting the Climate? [übersetzt „werden wir durch das Klima oder durch unseren Kampf gegen das Klima zerstört?“] Bislang gibt es diesen nur in Tschechisch, Übersetzungen folgen aber bald.

Ich widerspreche dem so genannten Konsens, welcher bzgl. dieses Themas seitens der Globale-Erwärmung-Alarmisten proklamiert wird. Der wirkliche Konsens ist sehr eng. Die Wissenschaftler – und alle rationalen Menschen – stimmen darin überein, dass sich das Klima während der letzten beiden Jahrhunderte erwärmt hat und das menschliche Aktivitäten in gewisser Weise dazu beigetragen haben können. Nichts weiter! Es ist offensichtlich, dass sowohl das Ausmaß dieser Erwärmung als auch deren Gründe weiterhin heiß diskutiert werden. Es gibt in dieser Hinsicht absolut keinen Konsens.

Die Politiker, welche vor zwei Jahren das Paris-Abkommen unterzeichnet hatte, sind sich entweder der fehlenden wissenschaftlichen Grundlage dafür nicht bewusst, oder sie haben unterzeichnet, weil es ihren persönlichen und politischen Interessen zupass kommt. Es dürfte beides sein: Ignoranz und Unehrlichkeit.

Die Politiker haben verstanden, dass das Spiel der globalen Erwärmung zu einfachen Spielregeln möglich ist, zumindest kurz- und mittelfristig. Und sie wissen gemeinsam mit dem einflussreichen britischen Ökonom John Maynard Keynes, dass wir langfristig alle sterben werden. Das Problem ist, dass Politiker nie die langfristigen Folgen ihrer Politik auf der Grundlage dieser Doktrin bedenken. Sie hoffen, dass die Wähler ihr Kümmern um Dinge substantieller als die nächsten Wahlen anerkennen.

Globale Erwärmung zusammengefasst

Die Theorie der globalen Erwärmung kann folgendermaßen zusammengefasst werden:

Sie beginnt mit der Behauptung, dass es eine unbestreitbare und unbestrittene, empirisch bestätigte, statistisch signifikante, globale und nicht lokale Erwärmung gibt. Es geht dann weiter mit dem Argument, dass die Zeitreihe der globalen Temperaturen einen zunehmenden Trend zeigt, welcher deren zyklische und Zufalls-Komponenten dominiert. Dieser Trend ist vermeintlich nicht linear, vielleicht exponentiell. Dieser Trend wird als gefährlich für die Menschen deklariert (in den Augen „weicher“ Umweltaktivisten) und für den Planeten deklariert (seitens Betonkopf-Umweltaktivisten).

Die Zunahme einer mittleren globalen Temperatur wird postuliert als ein allein oder zum größten Teil dem Menschen geschuldetes Phänomen, welches sich zuordnen lässt zu steigenden Emissionen von Kohlendioxid durch industrielle Aktivitäten und das Verbrennen fossiler Treibstoffe. Die Sensitivität der globalen Temperatur selbst gegen geringe Variationen der Kohlendioxid-Konzentration in der Atmosphäre soll vermeintlich sehr hoch sein. Der Temperaturanstieg kann umgekehrt werden mittels einer radikalen Reduktion der Kohlendioxid-Emissionen, was gesteuert werden sollte mittels Institutionen einer globalen Regierung.

Sie vergessen dabei uns zusagen, dass diese Umkehr nicht möglich ist ohne Zerschlagung der Demokratie, ohne Aufgeben der Unabhängigkeit individueller Länder, der menschlichen Freiheit, der wirtschaftlichen Prosperität und der Chance, die Armut in der Welt zu bekämpfen.

Kein wissenschaftlicher Konsens

Ich glaube an keinen einzigen dieser Glaubensgrundsätze, und ich bin froh, damit nicht allein zu stehen. Es gibt viele Natur- und auch Sozialwissenschaftler, vor allem Ökonomen, die ebenfalls nichts davon für bare Münze nehmen. Das Problem ist, dass die wahren Wissenschaftler, oder zumindest die meisten von ihnen, Wissenschaft betreiben und nicht in der Öffentlichkeit in die Diskussion über diese Doktrin involviert werden möchten.

Wie kann man das ändern? Ich wage mal zu sagen, dass die Wissenschaft selbst dies nicht bewerkstelligen kann. Die Doktrin der globalen Erwärmung [The Global Warming Doctrine (GWD)] basiert nicht auf Wissenschaft. Demzufolge kann die wissenschaftliche Diskussion selbst diese Doktrin nicht in Verruf bringen.

Ich befürchte außerdem, dass eine entscheidende Änderung auch mit neuen empirischen Daten nicht kommen wird. Es ist offensichtlich, dass die derzeitigen Temperaturdaten weder alarmistische oder apokalyptische Standpunkte der Gläubigen bestätigen noch deren quasi-wissenschaftliche Hypothesen bzgl. einer ausschließlichen Relation zwischen Kohlendioxid und Temperatur. Wie wir alle wissen, zeigten die statistischen Daten keine globale Erwärmung während der 18 Jahre von 1998 bis 2015.

Ideologie, nicht Wissenschaft

Die immer tiefere Diskussion über Formalitäten wird uns auch nicht helfen, weil die Unterstützer der Globale-Erwärmung-Doktrin daran nicht interessiert sind.

Deren Gedanken sind die Gedanken von Ideologen, nicht von Wissenschaftlern oder Klimatologen. Daten und Theorien, wie anspruchsvoll sie auch immer daherkommen, werden deren Standpunkte nicht ändern.

Gleiches gilt für die ökonomische Dimension dieser Debatte. Falls jemand Kohlendioxid-Emissionen reduzieren oder ganz eliminieren will, muss er entweder eine Revolution der ökonomischen Effizienz hinnehmen (welche die Emissions-Intensität bestimmt) oder damit beginnen, einen weltweiten wirtschaftlichen Niedergang zu organisieren. Nichts anderes ist möglich.

Unrealistische Diskontsätze

Die radikale Verminderung von Kohlendioxid-Emissionen hat sowohl kurz- als auch langfristig Konsequenzen.

Diese zu analysieren erfordert von uns, zwischenzeitliche [intertemporal] Relationen [?] genau zu verfolgen und Alternativkosten in Betracht zu ziehen.

Mit der Annahme eines sehr niedrigen Diskontsatzes nahe Null ist es offensichtlich, dass Befürworter der Globale-Erwärmung-Doktrin den Zeitfaktor und alternative Möglichkeiten vernachlässigen. Ein in den Modellen der globalen Erwärmung herangezogener niedriger Diskontsatz bedeutet, dass jetzige Genrationen gegenüber zukünftigen Generationen geschädigt werden. Wir sollten Behauptungen nicht akzeptieren, denen zufolge wir mit Übernahme niedriger Diskontsätze die Interessen zukünftiger Generationen schützen, oder dass alternative Kosten irrelevant sind, weil es im Falle der globale Erwärmung keine Wahl gibt. Dieser unökonomische oder vielleicht anti-ökonomische Denkweise darf niemals akzeptiert werden.

Als jemand, der persönlich Planwirtschaft und Versuche erlebt hat, die Gesellschaft als Ganzes durch Direktiven von oben zu steuern, fühle ich mich verpflichtet, vor den Argumenten und Absichten der Gläubigen an die Globale-Erwärmung-Doktrin eindringlich zu warnen. Deren Argumente und Absichten sind sehr ähnlich denen, die wir unter dem Kommunismus gehört haben. Diesem gefährliche Gedankengut gegenüber muss Widerstand geleistet werden. Es muss auf politischer Ebene geschehen. Wir müssen es der Allgemeinheit erklären.

Link: https://www.heartland.org/news-opinion/news/we-must-not-give-up-the-fight-against-climate-alarmism

Übersetzt von Chris Frey EIKE

 




Illustration des Scheiterns der Klimabewegung – in einer einzigen Graphik

Dr. Roger Pielke schreibt via Twitter:

Ich bereite einige Folien vor für ein bevorstehendes Gespräch (über Klimapolitik, wer hätte das gedacht!). Im Anhang bemühe ich mich, auf verständliche Art und Weise die überwältigende Größenordnung der Energie-Herausforderung zu zeigen im Zusammenhang mit grundlegender Dekarbonisierung. Was glauben Sie?

Bildinschriften: roter Kasten: „Während der Ära der Klima-Diplomatie hat der globale Verbrauch fossiler Treibstoffe um 57% zugenommen“. – Grüner Kasten: „Es sind noch rund 12.000 Tage bis zum Jahr 2050, und die Welt wird über 11.000 Millionen Tonnen Öl-Äquivalent (mtoe) im Jahre 2017 verbrauchen. – Um den Verbrauch fossiler Treibstoffe um 90% oder mehr bis zum Jahr 2050 zu erreichen, ist folglich eine Reduktion dieses Verbrauchs von ~1 mtoe pro Tag erforderlich, jeden Tag bis 2050. – Was ist 1 mtoe? a) ~1,5 X 1 GW Kernkraft, b)1500 X 2 MW Windturbinen, c) 14 Millionen X 295 W Solarpaneele. – Dies ist das Äquivalent zu den fossilen Treibstoffen, die jeden Tag ersetzt werden müssen“.

Diese Graphik des globalen Verbrauchs fossiler Treibstoffe sagt alles: Bemühungen der Grünen zur Reduktion fossiler Treibstoffe sind ohne jede Auswirkung erfolglos geblieben. Mit der Zunahme des Verbrauchs fossiler Treibstoffe um 57% seit 1992 waren deren gesamte Bemühungen umsonst.

Man verbreite diesen Beitrag und halte ihn all jenen vor Augen, die da glauben, sie hätten „etwas bewirkt“.

Aktualisierung:

Jemand stellte zu Roger Pielkes Tweet eine „was wäre wenn“- Frage zu dieser Graphik.

Frage: Falls keine „Klima-Diplomatie“ gegeben hätte, um wie viel hätte der Verbrauch fossiler Treibstoffe zugenommen? Gibt es einen Zeitraum von 25 Jahren, den man vergleichen kann?

Antwort von Roger:

Gute Frage.

1980 bis 1992 Zunahme des Verbrauchs um 1,6% pro Jahr.

1992 bis 2016 1,6% pro Jahr.

Link: https://wattsupwiththat.com/2018/01/29/illustrating-the-failure-of-the-climate-movement-in-one-graph/

Übersetzt von Chris Frey EIKE