Keine Erwärmung während der letzten 40 Jahre?

Das diese unglaubliche Tatsache unbemerkt geblieben ist, geht hauptsächlich auf die Fixierung der wissenschaftlichen Gemeinschaft auf die Erwärmung zurück, wie sie aus den statistischen Temperaturmodellen hervorgeht. Aber wie hier erklärt, sind diese komplexen Computermodelle vollständig unzuverlässig.

Die Satelliten-Messungen zeigen nun aber eine gewisse globale Erwärmung, was manch einen dazu brachte, diesen Umstand fälschlicherweise der Hypothese einer vom Menschen verursachten, CO2-induzierten Erwärmung zuzuschreiben. Eine sorgfältige Betrachtung zeigt, dass diese Hypothese falsch ist. In Wirklichkeit gibt es keinen einzigen Beweis einer Erwärmung durch CO2 während der gesamten Satelliten-Aufzeichnungen.

Um das zu erkennen, muss man die Satelliten-Aufzeichnungen im Detail betrachten. Dazu sollte man im Hinterkopf haben, dass es in der Wissenschaft ausschließlich um spezifische Details einer Beobachtung geht. Diese Details können große, allgemein akzeptierte Theorien grundlegend widerlegen.

Beispiel: Das negative Ergebnis des Michelson-Morley-Experimentes führte zu der revolutionären Speziellen Relativitätstheorie. Wenn es um globale Erwärmung geht, zeigen die 40 Jahre langen Satelliten-Messungen ein stark negatives Ergebnis für die Hypothese der Erwärmung durch CO2. Die CO2-Erwärmung ist einfach nicht da.

Dieses negative Ergebnis geht eindeutig aus einer eingehenden Betrachtung der folgenden Graphik hervor:

Quelle

Die Graphik zeigt die monatlichen, fast globalen Temperaturmessungen in der unteren Atmosphäre. Die Satelliten decken nicht den gesamten Globus ab, aber den größten Teil. In der Graphik enthalten ist auch eine rote Linie, welche ein gleitendes Mittel über 13 Monate repräsentiert.

Man beachte, dass auf der vertikalen Achse die Temperatur mit etwas dargestellt wird, das wir Anomalien nennen, es sind keine tatsächlichen Temperaturen. Eine Anomalie ist hier die Differenz in Grad Celsius zwischen der tatsächlichen Temperatur und einer willkürlich gewählten mittleren Temperatur. Diese mittlere Temperatur definiert die Null-Linie in der Graphik. Für unsere Diskussion hier ist es unwichtig, warum man das so macht.

Schauen wir zunächst auf die Periode vom Anfang bis zum Jahr 1997. Die rote Linie zeigt, dass dies etwas ist, was man einen aperiodischen Oszillator nennt. Es ist ein Oszillator, weil er immer wieder steigt und fällt, steigt und fällt usw. Es ist aperiodisch im Gegensatz zu periodisch, weil die Phasen von Anstieg und Rückgang unregelmäßig daherkommen.

Es ist wohl eindeutig, dass es alles in allem nur eine sehr geringe Erwärmung während dieses Zeitraumes gab, wenn überhaupt eine. Das heißt, die rote Linie oszilliert in etwa um die -0,1°C-Linie.

Liegt ein aperiodischer Oszillator mit so wenigen Oszillationen vor, gibt es keinen Grund zu versuchen, übertrieben präzise zu sein, weil die nächste Oszillation daran etwas ein wenig ändern könnte. Im Besonderen muss man sehr sorgfältig vorgehen, wenn man eine gerade Linie (d.h. linear) in die Trendanalyse legt, weil das Ergebnis dann sehr empfindlich darauf reagiert, wo man mit dem Trend anfängt und aufhört.

Sagen wir also einfach, dass es während dieses Zeitraumes eine geringe oder gar keine Erwärmung gegeben hat. Zu jener Zeit war das bekannt und ein wesentlicher Punkt in der Klimawandel-Debatte.

Dann ereignete sich etwas, was oftmals der Große El Nino genannt wird, obwohl es in Wirklichkeit ein großer El Nino-La Nina-Zyklus der ozeanischen Zirkulation ist. Erst steigt die Temperatur stark, dann geht sie stark zurück, bis sie sich wieder in einem natürlichen aperiodischen Oszillator stabilisiert.

Der große El Nino-La Nina-Zyklus begann Mitte 1997 und unterbrach eine abwärts gerichtete aperiodische Oszillation. Er endet irgendwann 2001, gefolgt von einer neuen aperiodischen Oszillation. Allerdings ist diese Oszillation wärmer und konzentriert sich in etwa um die +0,15°C-Linie. Diese neue Oszillation dauert bis zu einer weiteren großen El Nino-La Nina-Oszillation um das Jahr 2015. Was dieser letzte El Nino-Zyklus bewirkt, muss abgewartet werden.

Folglich scheint der Graph im Wesentlichen vier unterschiedliche Perioden aufzuweisen. Erstens die Periode mit geringer bzw. fehlender Erwärmung von 1979 bis 1997. Zweitens der große El Nino-La Nina-Zyklus von 1997 bis 2001. Drittens die wärmere Periode mit geringer oder gar keiner Erwärmung von 2001 bis 2015. Viertens der neue El Nino-La Nina-Zyklus, der immer noch im Gange ist.

Ja, es gibt eine gewisse Erwärmung, aber diese scheint fast vollständig zusammenzufallen mit dem großen El Nino-La Nina-Zyklus. Die einfachste Erklärung für den Umstand, dass die zweite flach verlaufende aperiodische Kurve wärmer ist als die erste, ist der El Nino-Effekt. Vielleicht ist ein Teil der in der Atmosphäre freigesetzten Erwärmung dort verblieben, was die Grundlinie für die nächste aperiodische Oszillation anhebt.

In keinem Falle jedoch gibt es irgendwelche Beweise einer CO2-induzierten oder einer anthropogen verursachten Erwärmung. Diese Ursachen würden zu einer relativ stetigen Erwärmung mit der Zeit führen und nicht zu einzelnen episodischen Erwärmungen, die hier vorliegen. Im Besonderen gibt es meines Wissens keine bekannte Art und Weise, mit der die graduelle CO2-Zunahme diesen gigantischen El Nino-La Nina-Zyklus verursacht haben könnte.

Folglich scheint die geringe Erwärmung während der letzten 40 Jahre mehr oder weniger vollständig natürlichen Ursprungs zu sein. In jedem normalen Wissenschafts-Fachbereich wäre dieses Ergebnis ausreichend, die Hypothese ungültig zu machen, dass die zunehmende CO2-Konzentration die globale Erwärmung verursacht.

Link: http://www.cfact.org/2018/01/02/no-co2-warming-for-the-last-40-years/

Übersetzt von Chris Frey EIKE

Anmerkung: Auch wenn ich mich wiederhole: Für jeden Laien mit halbwegs gesundem Menschenverstand ist doch glasklar, dass das Wetter – und damit das Klima – nicht nur von einem einzigen Parameter gesteuert wird, der noch dazu nur in so geringer Menge in der Atmosphäre vorhanden ist – oder? — C. F.




Von Korrelationen, Trends bei Anomalien!

Zugegeben es ist kein besonders spannendes Thema, wenn man nicht gerade ein Statistiker, Mathematiker oder ja, besonders engagierter Klimaforscher ist. Ich muss auch gestehen, dass mich erst der auch in diesen Kreisen bekannte Willis Eschenbach auf die Verknüpfung dieser Themen gebracht hat, der ein Meister darin ist, dass Offensichtliche zu hinterfragen. Er zeigt dabei häufig genug auf, dass das Offensichtliche nicht das Wahre und schon gar nicht das Wirkliche ist.

In der Klimatologie wird aus guten Gründen sehr oft mit Korrelationen gearbeitet. Diese werden gesucht, berechnet, verglichen, mit vermuteten Ursachen unterlegt, oft aber auch beides miteinander verwechselt, um der Beantwortung der schwierigen Frage näher zu kommen: Was steuert unser Klima? Oder – genauer – was steuert unsere Temperatur? Da Klimatologen es oft nicht unter „Weltklima“ machen – dabei es tunlichst unterlassen diesen Begriff zu definieren – muss die Frage lauten: Was steuert unsere Welttemperatur? Die einfachste Antwort müsste lauten: Nichts! Denn, da es eine Welttemperatur nicht gibt, kann sie auch nicht gesteuert werden! So einfach!

Damit würde man aber keine Forschungsmilliarden loseisen, der Politik kein 2°C-Ziel einreden und die (westliche) Welt nicht in Angst und Schrecken versetzen können. Also wird eine Welttemperatur per definitionem frei geschaffen. Sie soll der arithmetische Durchschnitt aller lokalen Jahresdurchschnittstemperaturen sein und die sollten zuvor möglichst genau und gleichmäßig über den Globus verteilt gemessen werden.

Nun wissen wir aus vielfältigen Berichten, dass dies zwar oft behauptet wird, man aber in der Realität weit davon entfernt ist, eine gleichmäßige Abdeckung zumindest für die Vorsatellitenzeit jemals erreicht zu haben. Und was die terrestrischen Stationen anbelangt, ist dieser Zustand nicht besser, sondern eher schlechter geworden. Zwar behauptet das britische Met. Office1 ungerührt auf seiner Website: „Die Untergruppe von Messstationen ist gleichmäßig über den Globus verteilt und gibt einen faire Übersicht über die Mitteltemperaturen in globalem Maßstab über Land“. Nun, dass das die Übertreibung des Jahrhunderts – wenn nicht Jahrtausends – ist, pfeifen inzwischen die Spatzen von den Dächern. Die Verteilung der einbezogenen Messstationen ist weit davon entfernt, gleichmäßig und/oder gleichförmig über den Erdball, oder auch nur die Landfläche, verteilt zu sein.

Abbildung 1: Verteilung der einbezogenen GHCN Messstationen 2006. Blau dargestellt mit kontinuierlicher Messung, rot mit diskontinuierlicher Messung.

Aber, die Frage sei erlaubt: Wie kommen die wackeren Wissenschaftler vom Met. Office zu dieser ebenso falschen wie naiven Behauptung? Nun, hier kommen vermutlich die oben erwähnten Korrelationen2 ins Spiel. Sie beziehen sich evtl. auf einen grundlegenden Aufsatz des damals noch jungen, aber schon sehr aggressiven Klimaforschers James Hansen und seines Kollegen Lebedeff aus dem Jahre 1987. Hansen ist auch derjenige, der 1988 dem amerikanischen Senat bei drückend heißem Wetter und unter tatkräftiger Mithilfe seines Kumpels – des Politprofis Al Gore – die Nachteile der künftigen vermutlich katastrophalen Erwärmung näherbrachte.

In einem Aufsatz von 1987 3 im damals noch angesehenen JOURNAL OF GEOPHYSICAL RESEARCH durften die Autoren „peer reviewed“ verkünden, dass es dank ihrer Forschung möglich sei, aus der Not eine Tugend zu machen. Nämlich aus der Not keine flächenmäßig ausreichende Abdeckung mit Klimamessstationen zu haben, die Tugend, diese auch gar nicht zu brauchen. Und nur weil man nun die Vorzüge von Korrelationen für unbekannte Trends einzusetzen imstande sei.

In der Zusammenfassung des Aufsatzes steht:“..Wir zeigen, dass die Temperaturen von Messstationen mittlerer und hoher Breite über 1000 km miteinander hoch korreliert sind. Bei Stationen in niederer Breite fällt die Korrelation mit der Entfernung stärker ab“ Und etwas später ebenda: “.. Fehlerabschätzungen basieren in Teilen auf Studien wie genau die derzeitigen Stationsverteilungen in der Lage sind Temperaturänderungen in einem globalen Datensatz zu repoduzieren, die von einem dreidimensionalen GCM (General Circulation Model) mit realistischer Variabilität erzeugt wurden.“ In diesem hochtrabenden, etwas sehr verschwurbelten Satz steht also im Klartext:“ Wir haben eine Fehlerabschätzung (in Teilen? Welche Teile?) gemacht, indem wir die Ergebnisse mit Modellen, die „realistische“ Temperaturvariationen zuvor errechnet hatten, verglichen haben.“ Also nix mit Realitätsvergleich, nix mit Überprüfung der Daten der einbezogenen Stationen, sondern stattdessen Überprüfung mit Modellen! Der künftige modellverliebte Kurs der Klimaforschung des IPCC wurde hier schon vorgezeichnet.

Und so sah das Ergebnis dann auch aus. Dank der großzügigen 1000 km Regel, die im Text dann nochmals auf noch großzügigere 1200 km Radius erweitert wurde, schaffte man

Abbildung 2: Verteilung der einbezogenen GHCN Messstationen nach Hansen & Lebedeff von 1870 bis 1960 sowie deren postulierte Abdeckung

das Kunststück aus einer unvollständigen auf die Nordhalbkugel bezogenen Abdeckung eine weltweite zu machen. Die Welt wurde überall schwarz. Dabei meint man, dass es genüge wenn in mittleren und hohen Breiten ein „mittlerer“ Korrelationskoeffzient von 0,5 nicht unterschritten wird und (nur noch) von 0,33 in niederen Breiten. Mit diesem trefflichen Handwerkszeug ausgestattet und abgesichert durch „präzise“ Vergleiche mit Modellrechnungen der damaligen Modelle (GCM´s) wurde die Welttemperatur bzw. ihre Abweichung vom gedachten Normal, die Anomalie und deren Trend bestimmt.

Diese Methode wird vom GISS unter seinem Chef James Hansen und seinem Nachfolger Gavin Schmidt bis heute angewendet und niemand in der IPCC Klimatologenbranche hat bisher öffentlich Zweifel an diesem überaus groben und unbestimmten, daher oft falschen Verfahren4 angemeldet.

Jüngst erst wieder in einer Studie über die Temperaturentwicklung in der Arktis. Auch dort wurden die wenigen Messstationen am Rand der Arktis benutzt, um die Temperaturtrends der ganzen Arktis zu berechnen. Und die steigen natürlich.

Abbildung 3 Satellitendarstellung der Arktis mit Nordpol und nächstgelegenen Messstationen. Die Kreise um die Stationen haben einen Durchmesser von 250 km! Der 80 ° Breitenkreis hat ca. einen Radius von 1200 km. Also wie von Hansen et al 1987 vorgeschlagen

Und hier die Temperaturtrends, die das GISS veröffentlicht, obwohl es dort keine Messstationen gibt.

Abbildung 4 GISS Darstellung der Temperaturtrends weltweit von 1881-2010, Man beachte die braune Färbung im Norden am Pol – dort wo es keine Messstationen gibt.

Der Ingenieur Willis Eschenbach hat sich von dieser „schwarzen Kunst“ nicht beeindrucken lassen und sich die Frage gestellt, inwieweit sich denn aus Korrelationen stichhaltige Trends ableiten lassen, oder umgekehrt. Er zeigte sich darüber verwundert, wie man Temperaturen und deren Trends für weite Teile der Welt berechnen kann, wo es keinerlei Temperaturmessstationen gibt.

Wie immer geht er die Sache grundsätzlich an und erzeugt zuerst beliebige Trends, errechnet deren Korrelationen und geht dann weiter zu natürlichen Temperaturverläufen und deren Anomalien und Trends sowie Korrelationen.

Wir sehen sie in Abbildung 5:

Abbildung 5: Trendverläufe künstlich erzeugter Pseudotemperaturen.

Die zugehörigen Korrelationen sehen wir in der folgenden Tabelle:

Abbildung 6: Korrelationen der in Abbildung 5 erzeugten Pseudotemperaturen

Allen gemeinsam ist, dass die Korrelation sehr hoch ist. Keine ist kleiner als 0,9!

Wir erinnern uns: Die Korrelation die Hansen & Lebedeff noch zuließen lagen bei > 0,5 in mittleren und hohen Breiten und nur noch 0,33 in niederen Breiten. Es fällt aber jetzt schon auf, dass diese sehr hoch korrelierten Pseudotemperaturen doch sehr, sehr verschieden (mehrere Grad Unterschied) und trotzdem hoch korreliert sind. Und (nicht nur) Eschenbach 5 folgert daraus:

„.Die unausweichliche Folgerung daraus ist, dass hohe Korrelationswerte zwischen Temperatur-Historien nicht bedeuten, dass deren Trends sich ähneln.

In Ordnung, ich kann schon hören, was Sie denken: „Ja, stimmt, für einige imaginäre kurze 20-jährige Pseudo-Temperatur-Historien kann man einige wilde Daten finden, die unterschiedliche Trends aufweisen. Doch was ist mit den realen 50-jährigen Temperatur-Historien, wie sie Hansen und Lebedeff benutzten?“

Abbildung 7: Natürliche Trends in Alaska mit Korrelationen zwischen 0,51 bis 0,94 im Mittel 0,75 bezogen auf Anchorage

Gut, dass diese Frage kommt … hier sind neunzehn 50-jährige Temperatur-Historien von Alaska. Alle korrelieren mit Anchorage höher als 0,5 (max 0.94, min 0.51, Durchschnitt 0.75).

Man sieht, die Trends rangieren von etwa einem Grad in 50 Jahren bis nahe drei Grad. Trotz dieser riesigen Spannweite (ca. 300%) bei den Trends haben alle eine gute Korrelation (größer +0,5) mit Anchorage. Das zeigt klar, dass eine gute Korrelation zwischen den Temperatur-Historien nichts aussagt über deren korrespondierende Trends.

Was ergibt sich daraus?

Hansen und Lebedeff lagen richtig damit, dass die jährlichen Temperatur-Historien von weit auseinander liegenden Messstationen dazu neigen, gut korreliert zu sein. Allerdings lagen sie nicht richtig mit ihrer Meinung, dass dies für die Trends der gut korrelierten Temperatur-Historien gälte. Deren Trends können völlig ungleich sein. Im Ergebnis ist die Extrapolation von Trends aus einer bis zu 1200 km entfernten Messstation ein unzulässiges Verfahren ohne jegliche mathematische Basis.

Soweit der pfiffige, misstrauische Willis Eschenbach. Er unterzieht dann gleich die kühnen Angaben des GISS über die Temperaturerhöhung der Arktis einer kritischen Betrachtung.(http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728) Denn dort wird so gut wie nirgends gemessen: „Macht nichts sagen die GISS Leute: Wo keine Temperaturen bekannt sind, erfinden wir eben welche“ Richtige seriöse Klimaforschung sollte anders aussehen.

Meint

Michael Limburg EIKE

1 Met Office(Quelle: http://www.metoffice.gov.uk/corporate/pressoffice/2009/pr20091205.html) …The subset of stations is evenly distributed across the globe and provides a fair representation of changes in mean temperature on a global scale over land.

2„Korrelation“ ist ein mathematisches Maß für die Ähnlichkeit (Wikipedia spricht allgemeiner von Wechselbeziehungen) zweier Datenzeitreihen. Sie rangiert von „null“, d. h. keine Ähnlichkeit, bis plus oder minus “eins”, d. h. sehr ähnlich. Ein negatives Vorzeichen verändert die Ähnlichkeit nicht, aber wenn der Wert eines Datenbestandes nach oben geht, nimmt der andere ab.

3 HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.

4 Damit sind nicht die Klimarealisten, Ross McKittrick, MacIntyre, Watts um nur diese zu nennen, gemeint. Die schießen seit Jahren gegen diese zu grobe und zu falschen Schlüssen führenden Methode

5 Quelle mit vielen weiteren Beispielen und Anmerkungen hier: http://wattsupwiththat.com/2010/03/25/gisscapades/#more-17728




Künstlich fabrizierter Konsens: Historie der Anfänge des IPCC

Bernie Lewin hat ein bedeutendes neues Buch geschrieben: SEARCHING FOR THE CATASTROPHE SIGNAL:The Origins of The Intergovernmental Panel on Climate Change

Die Bedeutung dieses Buches manifestiert sich in den Danksagungen sowie im Zusammenhang von Assistenz und Beiträgen von frühen Führern und Teilnehmern am IPCC:

Dieses Buch hätte nicht geschrieben werden können ohne die Dokumente, welche ich über Mike MacCracken und John Zillman erhalten habe. Ihr fortwährendes Interesse an einer wahren und genauen Präsentation der Fakten verhinderte, dass ich im Zuge meiner Recherchen vom Weg abkomme. Viele von denen, die an den hier beschriebenen Ereignissen teilhatten, widmeten großzügig ihre Zeit der Beantwortung meiner Anfragen. Darunter waren Ben Santer, Tim Barnett, Tom Wigley, John Houghton, Fred Singer, John Mitchell, Pat Michaels … und noch viele mehr.

Vielleicht erinnert sich der eine oder andere an einen früheren Beitrag hier auf Climate etc. mit dem Titel Consensus by Exhaustion, an Lewins 5-teilige Reihe über Madrid 1995: The last day of climate science.

Das Buch ist lesenswert. Der Schwerpunkt meiner Zusammenfassung des Inhalts dieses Buches liegt bei den Kapiteln 8 bis 16 im Zusammenhang mit dem Thema ,Erkennung und Zuordnung‘, ,politischer Karren vor dem wissenschaftlichen Pferd‘ und ,Fabrikation des Konsens‘.

Hier also Auszüge aus dem Buch:

Die Energiekrise der siebziger Jahre

Mit einer Verbindung, die ich zuvor nicht hergestellt hatte, zeigt Lewin den historischen Kontext des Schwerpunktes auf der CO2-Forschung in den siebziger Jahren, angeblich wegen der „Ölkrise“, und Bedenken hinsichtlich Energiesicherheit. Es gab eine bedeutende Debatte darüber, ob Kohle oder Kernkraft das Öl ersetzen sollten. Aus dem 8. Kapitel:

Aber in dem Streit zwischen Kernkraft und Kohle hatten die Befürworter der Kernkraft einen bedeutenden Vorteil. Dieser ergab sich als Folge der Neuausrichtung des riesigen Netzwerkes der von der Regierung finanzierten R&D-Laboratorien [=Forschung und Entwicklung] innerhalb der bürokratischen Maschinerie. Es waren diese ,nationalen Laboratorien‘ jener Zeit, in denen das Kohlendioxid-Programm ins Leben gerufen worden ist. Diese Flutwelle neuer Ergebnisse bedeutete, dass die Forschung bzgl. eines spezifischen menschlichen Einflusses auf das Klima zu einem Hauptbereich der Klimaforschung allgemein werden würde. Heute könnten wir das übersehen, und zwar aus dem einfachen Grund, dass die ,Kohlendioxid-Frage‘ schon lange den gesamten Bereich der Klimaforschung dominiert – wobei die wörtliche Bedeutung des Terminus‘ ,Klimawandel‘ gleichzeitig auf diesen Bereich eingeengt wurde.

Dieser Schwerpunkt wurde NICHT von Atmosphären-Wissenschaftlern gesetzt:

Das stärkste Interesse an Klima unter den atmosphärischen Wissenschaftlern war eine internationale Klimakonferenz in Stockholm im Jahre 1974 sowie eine Publikation des ,US-Komitees für GARP‘ (GARP = Global Atmospheric Research Programme) im darauf folgenden Jahr. Der GARP-Report erhielt das Motto [übersetzt] ,Klimawandel verstehen: Ein Programm für Maßnahmen‘, wobei sich der ,Klimawandel auf den natürlichen Klimawandel bezog, und mit ,Maßnahmen‘ war ein ambitioniertes Forschungsprogramm gemeint.

Es gab ein koordiniertes und gut ausgestattetes Forschungsprogramm bzgl. katastrophaler Auswirkungen, bevor es irgendwelche einzelnen Bedenken innerhalb der meteorologischen Gemeinschaft hinsichtlich dieser Auswirkungen gab und bevor es irgendwelche signifikanten öffentlichen oder politischen Ängste gab, die diesen Bedenken Vorschub leisteten. Es begann mitten in einer Debatte über die relativen Vorzüge der Energieerzeugung durch Kohle oder durch Kernkraft (nach der Ölkrise der siebziger Jahre). Es wurde koordiniert durch Wissenschaftler und Manager mit Interessen an der Kernkraft-Seite dieser Debatte, wobei die Finanzierung infolge Ängsten bzgl. der Energiesicherheit kanalisiert wurde hin zu einer Untersuchung eines potentiellen Problems mit Kohle, um mehr Unterstützung für die Option Kernkraft zu gewinnen.

Das Auftauchen der ,globalen Erwärmung‘

Im Februar 1979, auf der ersten Weltklimakonferenz jemals, erhoben Meteorologen zum ersten Mal Bedenken bzgl. Erwärmung. Die Weltklimakonferenz mag den Abkühlungs-Alarm beseitigt haben, aber sie hat nicht die Erwärmungs-Angst losgetreten.

Während die Führung des UN-Umweltprogramms UNEP stur blieb hinsichtlich globaler Erwärmung, lag die Last vorherrschend bei der Weltwetterorganisation WMO. Als die UNEP-Forderung nach der Modellierung von Klima-Szenarien pünktlich das WCRP (World Climate Research Programme)-Komitee erreichte, scheute man diesen Gedanken: Computer-Modellierungen waren zu primitiv, und besonders auf regionaler Ebene könnten damit keine bedeutenden Ergebnisse gewonnen werden. Das Voranschreiten bei der Entwicklung von Klima-Szenarien würde lediglich die Entwicklung irreführender Abschätzungen der Auswirkungen riskieren.

Es dauerte nicht lange, bis die wissenschaftliche Forschung bzgl. Klimawandel im politischen Prozess marginalisiert wurde, und zwar im Kontext mit dem Vorsorgeprinzip:

Zu Beginn der Klimavertrag-Bewegung im Jahre 1985 in Villach entfernte sich die Rhetorik der politischen Bewegung bereits von seiner Verankerung in der Wissenschaft. Zweifel hinsichtlich der wildesten Spekulationen wurden gewendet in einer Rhetorik von Vorsorgemaßnahmen: wir sollten in jedem Falle aktiv werden, nur für den Fall. Mit der Umkehrung der Beweislast kann die Forschung weitergehen, während die Frage weiterhin offen bleibt.

Ursprünge des IPCC

Hinsichtlich der Ursprünge des IPCC:

Jill JÅNager äußerte ihre Ansicht, dass einer der Gründe der aktiven Unterstützung der USA für ein zwischenstaatliches Gremium zu Klimawandel war, dass das US State Department befürchtet hatte, dass die Lage ,außer Kontrolle gerät‘, wobei ,frei stehende Kanonen potentiell die Agenda festlegen‘ konnten, obwohl dies den Regierungen vorbehalten bleiben sollte. Ein Gremium zwischen Regierungen, so diese Denkrichtung, würde die politische Diskussion wieder unter die Kontrolle der Regierungen bringen. Es würde außerdem die Wissenschaft den Politikern näher bringen, ohne dass Politik-Unternehmer [policy entrepreneurs ?] dazwischen funken. Nachdem sich ein solches Gremium über die Wissenschaft geeinigt hatte, so dieser Gedanke weiter gesponnen, kann man zu einer Diskussion über irgendwelche politischen Implikationen kommen.

Während die Politik bereits die Wissenschaft zunehmend irrelevant machte, brachten Bert Brolin und John Houghton den Schwerpunkt zurück in die Wissenschaft:

Innerhalb eines Jahres der ersten IPCC-Sitzung würde sich der Abschätzungs-Prozess transformieren von einem Report der Repräsentanten eines Landes im Volumen eines Pamphlets zu einem Prozess, welcher drei dicke Bände hervorbringt, geschrieben von unabhängigen Wissenschaftlern und Experten am Ende des komplexesten und teuersten Verfahrens, das jemals von einem UN-Gremium zu einem einzelnen meteorologische Thema durchgeführt worden ist. Die Ausdehnung der Abschätzung und die Machtverschiebung zurück zu den Wissenschaftlern erfolgte ziemlich genau zu der Zeit, als eine Welle des politischen Enthusiasmus‘ erfolgreich kanalisiert werden konnte hin zu Investitionen in den UN-Prozess mit dem zwischenstaatlichen Gremium im Zentrum.

John Houghton, Vorsitzender der Arbeitsgruppe I, brachte das IPCC näher an die Linien einer von Experten gesteuerten Begutachtung: er nominierte einen oder zwei wissenschaftliche Experten – ,Leitautoren‘ – um individuelle Kapitel zu entwerfen, und er etablierte ein Verfahren, mittels welchem diese Entwürfe auf Treffen der Leitautoren begutachtet werden.

Die Hauptänderung war, dass er die Verantwortung von den Delegierten der Regierungen zu praktizierenden Wissenschaftlern verschob. Die Entscheidung, Assessoren zu rekrutieren, welche führend in ihrer jeweiligen Wissenschaft waren, brachte jedoch ein anderes Problem mit sich, nämlich dass die Tendenz dieser Wissenschaftler zutage trat, aus ihren eigenen Arbeiten zu zitieren, selbst wenn diese noch gar nicht veröffentlicht waren.

Das Problem der Marginalisierung der Wissenschaft blieb jedoch bestehen:

Das Vertrags-Verfahren lag jetzt in den Händen von Karriere-Diplomaten und dürfte wahrscheinlich dominiert werden von unfreundlichen südlichen politischen Agitatoren. Daher standen die Wissenschaftler vor der sehr realen Perspektive, dass ihr Klima-Gremium aufgelöst und ersetzt wird, sowie die Framework Convention on Climate Change ihre Arbeit aufnehmen würde.

Und viele Wissenschaftler waren skeptisch:

Mit der Erkenntnis, dass es eine unaufhaltsame Bewegung hin zu einem Vertrag gab, kam von der wissenschaftlichen Gemeinschaft eine Welle des Skeptizismus‘. Dieser Chor der Bedenken war jedoch durch den Lärm auf dem Weg zu einem neuen Vertrag kaum zu hören und ist jetzt weitgehend in Vergessenheit geraten.

Zu jener Zeit legte John Zillman einem Politikforum eine Studie vor, in der er versuchte, all jenen, die in die politische Debatte verstrickt waren, ein wenig mehr Einsicht zu geben, welch großer Unterschied bestand zum Standpunkt innerhalb der Forschungsgemeinschaft. Zillmann stellte dazu fest, dass…

…die Treibhausgas-Debatte jetzt abgekoppelt wurde von wissenschaftlichen Betrachtungen, welche diese ausgelöst hatte; dass es viele Agenden gab, dass darin jedoch höchstens peripher enthalten war zu ergründen, ob Wetter- und Klimaänderungen für die Welt gut oder schlecht waren“

Beispielhaft für das Ausmaß der grassierenden Frustration unter den Klimaforschern jener Zeit zitierte Zillman den Direktor des WCRP [World Climate Research Programme, ein Projekt der WMO. Anm. d. Übers.]. Das war damals Pierre Morel, erklärter er, welcher ,die internationale Klimaforschung über das vergangene Jahrzehnt vorangetrieben hatte‘. Einige Monate, bevor Zillman mit der Studie aufwartete, hatte Morel dem WCRP-Komitee einen Report zugeleitet, in welchem er die Lage wie folgt beschrieb:

„Die zunehmende direkte Einmischung der Vereinten Nationen in Angelegenheiten des globalen Klimawandels, in Umwelt und Entwicklung war Ausdruck des Erfolges derjenigen Wissenschaftler, die um #politische Aufmerksamkeit‘ wetteiferten und einer ,Kenntnisnahme der Öffentlichkeit‘ der Probleme in Verbindung mit dem Weltklima. Das Thema Klimawandel hat jetzt ein Niveau erreicht, auf dem es in den Händen professioneller Unterhändler für auswärtige Angelegenheiten liegt und damit die grenzen wissenschaftlicher Erkenntnisse (und Unsicherheiten) verlassen hat“

Die Unterhänlder, so Morel, hatten kaum Interesse an weiteren Informationen von wissenschaftlichen Agenturen einschließlich des IPCC und sogar noch weniger Interesse für die komplizierten Statements seitens der wissenschaftlichen Gemeinschaft.

Es tat sich eine immer größer werdende Kluft auf zwischen der Politik/den Politikern einerseits und der Wissenschaft andererseits:

Das allgemeine Gefühl in der Forschungsgemeinschaft, dass der politische Prozess die Wissenschaft breit überholt hat, hatte oftmals eine andere Auswirkung auf jene Wissenschaftler, die mit dem Thema globale Erwärmung mittels der üppigen Finanzierung desselben zu tun hatten. Für sie war die Lage so wie von Präsident Bush zu verstehen gegeben hatte, als er mehr Förderung versprochen hatte: die Tatsache, dass ,Politik und Meinung die Wissenschaft hinter sich gelassen haben‘, brachte die Wissenschaftler unter Druck, ,die Kluft zu überbrücken‘.

Tatsächlich gab es jede Menge Skeptizismus hinsichtlich der Modellierung, die innerhalb und um das Carbon Dioxide Program frei ausgesprochen wurde während jener Tage, bevor das Klimavertrags-Verfahren begann. Jene, die darauf bestanden, sich weiter um wissenschaftliche Validierung zu bemühen, blieben stecken vor dem Problem, die natürliche Variabilität im Hintergrund besser herauszuarbeiten.

Die Herausforderung von ,Erkennung und Zuordnung‘

Hinsichtlich der Aussage von Jim Hansen vor dem Kongress-Komitee im Jahre 1998:

Ein Beitrag im Magazin Science im folgenden Frühjahr eröffnete Einblicke in den Aufruhr. Bei ,Hansen gegen die Welt bzgl. Treibhaus-Bedrohung‘ erklärte der Wissenschaftsjournalist Richard Kerr: ,während Wissenschaftler die Aufmerksamkeit des Capitol Hill bzgl. Treibhauseffekt begrüßten‘, distanzierten sie sich jedoch ,von der wiederholt unwissenschaftlichen Art und Weise, mit der ihr Kollege James Hansen diese Aufmerksamkeit zu errungen hatte‘.

Eindeutig war die wissenschaftliche Opposition gegen jedwede Erkennungs-Behauptungen im Jahre 1989 erheblich, als die IPCC-Abschätzung im Gange war.

Erkennung und Zuordnung des anthropogenen Klimasignals war das Entscheidende:

Während des IPCC-Begutachtungsprozesses (zum 1. Zustandsbericht) wurde Wigley aufgefordert, eine Frage zu beantworten: Wann wird die Erkennung erreicht werden? Er antwortete mit einem Zusatz zu dem IPCC-Kapitel, in welchem erklärt wird, dass wir warten müssten, bis das halbe Grad Erwärmung, zu dem es bereits im Laufe des 20. Jahrhunderts gekommen war, sich wiederholt. Nur dann haben wir gute Aussichten herauszufinden, wie viel dieser Erwärmung dem Menschen geschuldet ist. Falls die von Kohlendioxid getriebene Erwärmung am oberen Ende der Prophezeiungen liegt, wäre das Anfang des 21. Jahrhunderts, aber bei geringer Erwärmung dürften wir kaum Erkenntnisse dazu vor dem Jahr 2050 haben.

Der erste IPCC-Zustandsbericht war für die ,Kausa‘ der Politiker keine Hilfe. Auf dem Weg zum Erdgipfel von Rio:

Um die Diskussionen der Framework Convention auf dem Erdgipfel von Rio zu stützen, stimmte man dafür, dass der IPCC eine ergänzende Einschätzung abgab. Diese ,Rio-Ergänzung‘ erklärte:

„…das Klimasystem kann auf viele Antriebe reagieren, und es muss noch bewiesen werden, dass das Treibhaus-Signal ausreichend unterscheidbar ist von anderen noch zu entdeckenden Signalen, es sei denn, es erfolgt eine so erhebliche Zunahme der troposphärischen Temperatur, dass andere Erklärungen dafür unwahrscheinlich sind“.

Nun ja, diese Zusatz-Einschätzung half auch nicht viel. Die Wissenschaftler unter Leitung von Bolin und Houghton waren gehalten, sich Druck nicht zu beugen. Aber das IPCC riskierte die Marginalisierung in diesem Vertragsverfahren.

Auf dem Weg zur COP1 in Berlin bedrängte das IPCC selbst das Verhandlungs-Komitee, es in dem politischen Prozess zu halten, aber Spannungen ergaben sich, als es sich weigerte, seine eigenen Verfahren zurückzufahren, um den politischen Erfordernissen zu genügen.

Allerdings blieb der Schub für Maßnahmen auf dem Weg zu Rio ausreichend stark, dass diese Schwierigkeiten mit der wissenschaftlichen Rechtfertigung ignoriert werden konnten.

Der zweite Zustandsbericht:

Im Zusammenhang mit den Vertrags-Aktivitäten wurde der zweite IPCC-Zustandsbericht als sehr wichtig erachtet, um Implementationen in das Kyoto-Protokoll zu rechtfertigen.

Im Jahre 1995 saß das IPCC zwischen den Stühlen Wissenschaft einerseits und Politik andererseits. Der einzige Weg, sich aus dieser realen Gefahr, politisch in Vergessenheit zu geraten zu befreien war, dass man die wissenschaftliche Diagnose in eine positive Richtung lenken und sie in Übereinstimmung mit politischen Maßnahmen bringen konnte.

Das entscheidende wissenschaftliche Thema war Erkennung und Zuordnung:

Die Abfassung von Kapitel 8 (in dem es um Entdeckung und Zuordnung geht) verspätete sich wegen der späten Ernennung von dessen koordinierendem Leitautor. Es dauerte bis zum April, dass jemand sich bereit erklärte, diese Position zu übernehmen. Das war Ben Santer, ein junger Klima-Modellierer am Lawrence Livermore Laboratory.

Das Kapitel, das Santer zu entwerfen begann, wurde erheblich beeinflusst von einer Studie, die im Wesentlichen von Tim Barnett geschrieben worden war, bei der jedoch auch Santer als Autor gelistet war. Es war diese Studie, die in Kurzform all die Schwierigkeiten beschrieb hinsichtlich des Strebens nach ,Erkennung‘. Es war ein neuer Versuch, den alten hinderlichen Block zu überwinden der ,First Detection-Forschung‘: nämlich angemessen den ,Maßstab‘ der natürlichen Klima-Variabilität zu etablieren. Die Studie beschreibt, wie dieses Projekt gescheitert ist, und das fabelhaft.

Im von Santer für das IPCC verfassten Erkennungs-Kapitel gibt es viele Querverweise auf diese Studie. Mehr als alle anderen in Kapitel 8 genannten Referenzen ist sie der Spoiler sämtlicher Behauptungen bzgl. Zuordnung, finden sich diese nun in Verteilungsstudien oder in einer Analyse des globalen Mittels. Sie ist die prinzipielle Grundlage der Schlussfolgerung des Kapitels 8:

„…bis auf den heutigen Tag hat keine Studie eine signifikante Klimaänderung ausgemacht und diese Änderung ganz oder teilweise mit anthropogenen Ursachen in Verbindung gebracht“.

Das finale Treffen der 70 Leitautoren der WG I für den zweiten Zustandsbericht sollte den Entwurf für die Summary for Policymakers absegnen und diesen der zwischenstaatlichen Begutachtung zuleiten. Der von Houghton für das Treffen vorbereitete Entwurf war nicht so skeptisch hinsichtlich der Erkennungs-Wissenschaft wie der Haupttext des Erkennungs-Kapitels von Santer; tatsächlich enthielt er eine schwache Behauptung bzgl. Erkennung.

Diese Behauptung bzgl. Erkennung schien unvereinbar mit dem Skeptizismus im gesamten Haupttext des Kapitels und stand in direktem Widerspruch zu dessen zusammenfassender Schlussfolgerung. Sie repräsentierte eine Änderung des Standpunktes, zu der Santer erst vor Kurzem gekommen war aufgrund eines Durchbruchs in seinen eigenen ,Fingerabdruck‘-Untersuchungen. Diese Ergebnisse waren so neu, dass sie noch nicht veröffentlicht oder auf andere Weise verfügbar waren, und tatsächlich hatte Santer zum ersten Mal die Gelegenheit, diese Ergebnisse einer breiteren wissenschaftliche Bewertung vorzustellen, als Houghton ihn aufforderte, auf dem Treffen der Leitautoren einen Sondervortrag zu halten.

Allerdings wurden auch die Ergebnisse bei diesem Treffen auf den Prüfstand gestellt: Santers Fingerabdruck-Ergebnis und der neuen Erkennungs-Behauptung wurde von vielen Experten in dem Fachbereich heftig widersprochen.

Am ersten Tag der WG I-Sitzung in Madrid im November 1995 hielt Santer erneut einen erweiterten Vortrag über sein neues Ergebnis, dieses Mal vor Delegierten, die zumeist keine Experten waren. Als er geendet hatte, erklärte er, dass das Kapitel im Lichte seiner neuen Ergebnisse überholt war und geändert werden muss. Nach einiger Diskussion forderte John Houghton eine Ad-Hoc-Gruppe, um sich hinsichtlich des Themas Erkennung zu einigen im Lichte dieser bedeutenden neuen Ergebnisse und die entsprechende Passage in der Summary for Policymakers zu ändern, so dass sie anschließend erneut der Vollversammlung zur Genehmigung vorgelegt werden kann. Während dieser Verlauf des Ganzen weitgehend auf Zustimmung stieß, sprachen sich ein paar Delegationen heftig dagegen aus, vor allem, als klar wurde, das Kapitel 8 geändert werden musste. Der Widerstand gegen die Änderungen dominierte weiterhin das dreitägige Treffen. Nach weiterer Debatte entschloss man sich zu einer finalen Version der Erkennungs-Behauptung ,unter dem Strich‘:

„Die Gesamtheit der Beweise zeigt einen erkennbaren menschlichen Einfluss auf das globale Klima.

All das löste Vorwürfe der ,Schwindelei‘ aus:

Ein Meinungsartikel von Frederick Seitz mit dem Titel [übersetzt] ,Großer Schwindel bzgl. „globaler Erwärmung“‘ erschien am 12. Juni 1996 im Wall Street Journal:

„Dieser IPCC-Bericht wird wie alle anderen deshalb so hoch gehängt, weil er begutachtet ist. Das heißt, er wurde gelesen, diskutiert, modifiziert und genehmigt von einem internationalen Experten-Gremium. Diese Wissenschaftler haben ihren Ruf eingebracht. Aber dieser Bericht ist nicht das, was er zu sein vorgibt – es ist nicht die Version, welche die auf der Titelseite gelisteten beitragenden Wissenschaftler genehmigt haben. Während meiner über 60 Jahre Mitgliedschaft in der amerikanischen wissenschaftlichen Gemeinschaft einschließlich meiner Funktion als Präsident der NAS und der American Physical Society habe ich niemals eine noch verstörendere Korruption des Begutachtungsprozesses erlebt als die, welcher zu diesem IPCC-Report geführt hat.

Beim Vergleich des finalen Entwurfs des Kapitels mit der gerade veröffentlichten Version erkannte er, dass grundlegende Feststellungen skeptisch gegenüber irgendeinem menschlichen Einfluss verändert oder gelöscht worden waren. Er führte folgende Beispiele gelöschter Passagen an:

Keine der o. g. Studien hat klare Beweise erbracht, dass wir die beo bachteten (Klima-)Änderungen dem spezifischen Grund Zunahme der Treibhausgase zuordnen können.

Keine Studie hat bis auf den heutigen Tag den (bis heute beobachteten Klimawandel) ganz oder teilweise anthropogenen Ursachen zugeordnet.

Jedwede Behauptung einer positiven Erkennung eines bedeutenden Klimawandels wird wahrscheinlich kontrovers bleiben, bis die Unsicherheiten der natürlichen Gesamt-Variabilität Klimasystems reduziert sind.

Am 4. Juli schließlich veröffentlichte Nature Santers Studie bzgl. des menschlichen Fingerabdrucks. In Science zitierte Richard Kerr Barnett mit den Worten, dass er nicht völlig überzeugt davon ist, dass das Treibhaus-Signal erkannt worden ist und dass eine ,Anzahl nagender Fragen‘ verbleibt. Später im Jahr würde eine ins Herz von Santers Erkennungs-Behauptung zielende Kritik als Erwiderung veröffentlicht.

Der künstlich fabrizierte Konsens des IPCC

Was man aus all diesen Aktivitäten seitens der Wissenschaftler in der engeren Umgebung des zweiten und dritten Zustandsberichtes des IPCC erkennen kann, ist die Existenz eines bedeutenden Meinungschores, der mit der IPCC-Botschaft einer Erkennung eines Katastrophensignals nur schwer in Übereinstimmung zu bringen ist, welcher die Grundlage für politische Maßnahmen darstellt.

Die wissenschaftliche Debatte um Erkennung und Zuordnung wurde effektiv im 2. IPCC-Bericht unterdrückt:

Kritik wird weiterhin insgesamt ausgespart, ist sie doch eine Politisierung der Wissenschaft seitens Interessengruppen, während die mächtigen politischen Unterstützer des Gremiums sicherstellen, dass dessen Rolle als wissenschaftliche Autorität bei den weiter gehenden Klimavertrags-Verhandlungen niemals wieder ernsthaft bedroht werden darf.

Und natürlich wurde der ,Totenglocke‘ wissenschaftlicher Argumente mit Bedenken hinsichtlich der Erkennung im Dritten Zustandsbericht Rechnung getragen, in welchem die Hockeyschläger-Analyse des Paläoklimas auf der Nordhemisphäre effektiv die Existenz einer hemisphärischen mittelalterlichen Warmzeit ebenso wie die Kleine Eiszeit eliminiert hatte. Damit war der gordische Knoten bzgl. Erkennung durchschlagen.

Bemerkungen der Autorin Judith Curry

Das Buch von Bernie Lewin ist eine wirklich wichtige und gut dokumentierte Historie des Zusammenhangs und der frühen Historie des IPCC.

Ich sprach über Lewins Buch mit Garth Partridge, der in den frühen Jahren des IPCC in denselben involviert war, und er sandte mir per E-Mail folgenden Kommentar:

Ich bin schon etwas erbost, weil ich von die siebziger bis Anfang der neunziger Jahre dabei war, weil ich an einer ganzen Reihe der Treffen teilgenommen habe, über die Lewin spricht, weil ich ein Jahr in Genf zugebracht habe als ein Mitglied der „Belegschaft“ des frühen WCRP und ein weiteres Jahr (1990) als Mitarbeiter beim US National Program Office in Washington DC, weil ich die meisten der Leute getroffen habe, über die Lewin spricht … und ich kann mich einfach nicht daran erinnern, was vor sich ging, soweit es die Politik betraf. Wie naiv kann man sein?? Ich habe den Verdacht, dass der Grund dafür darin zu suchen ist, dass viele Menschen meiner Zeit darin geübt (??) waren, absichtlich all den Müll zu ignorieren und/oder darüber zu lachen, der mit den politischen Betrügereien der internationalen Politik in der wissenschaftlichen Welt verbunden war. Offensichtlich kann die Arroganz von Wissenschaftlern ziemlich außerordentlich sein!

Wissenschaftlicher Skeptizismus hinsichtlich AGW war vor dem Jahr 1995 lebendig und in guter Form; brach aber ein nach der Veröffentlichung des 2. Zustandsberichtes. Danach trug man dem Skeptizismus im 3. Zustandsbericht und mit der Hockeyschläger-Graphik Rechnung in der Hoffnung, diesem Skeptizismus den Todesstoß zu versetzen.

Ein ziemlich fadenscheiniges Gebäude für eine überzeugende Zuordnung der jüngsten Erwärmung zum Menschen.

Ich denke, dass Bernie Lewin recht hat, wenn er das Treffen in Madrid 1995 als den Wendepunkt ausmacht. Es war John Houghton, der die Zuordnungs-Behauptung in den Entwurf der Summary for Policymakers einfügte, was im Gegensatz zu den in Kapitel 8 beschriebenen Ergebnissen stand. Typischerweise wird Ben Santer dafür verantwortlich gemacht, aber es ist eindeutig Houghton, der dies wollte und ermöglicht hat, so dass er und das IPCC einen Sitz am Tisch der Großen Politik erhalten konnte, welche in den Vertrag involviert war.

Man kann den IPCC-Führern ihren Umgang mit neuer Wissenschaft und einer sehr schwierigen politischen Lage im Jahre 1995 nachsehen, worin sie ihr Wirken übertreiben. Allerdings ist es dem 3. Zustandsbericht vorbehalten, in welchem Houghtons Betrügereien mit dem Hockeyschläger wirklich enthüllten, was los war (einschließlich der Selektion von Michael Mann als Leitautor, obwohl dieser gar nicht von der US-Delegation nominiert war). Der Hockeyschläger machte Schluss mit jenem ,nervtötenden‘ Erkennungs-Problem.

Ich vermute, dass die Zurückweisung von all dem seitens der ,wirklich AGW-Gläubigen‘ erfolgte, weil Politik chaotisch ist, aber seht mal, die Klimawissenschaftler hatten von Anfang an recht, und die Temperatur steigt weiter. Jüngste Forschungen lassen das Vertrauen bzgl. der Zuordnung zunehmen, welche uns schon seit Jahrzehnten ,bekannt‘ ist.

Nun, zunehmende Temperaturen sagen nichts über die Ursachen von Klimawandel. Wissenschaftler diskutieren immer noch über den ,Hot Spot‘ in der oberen Troposphäre über den Tropen, welcher die von Santer 1995 identifizierte ,smoking gun‘ war (hier). Und es gibt immer mehr Beweise, dass die natürliche Variabilität im Zeitmaßstab von Jahrzehnten und Jahrhunderten viel größer ist als bisher gedacht (und größer auch als die Simulationen der Klimamodelle hergeben; hier).

Ich müsste wirklich weitere Blogbeiträge schreiben über Erkennung und Zuordnung und werde mich bemühen, mir die Zeit dafür zu nehmen.

Und schließlich, diese gesamte Geschichte scheint die Merton’sche Norm von Universalismus zu verletzen:

Universalismus: Wissenschaftliche Validität ist unabhängig vom soziopolitischen Status/persönlichen Zuordnungen von den daran Teilhabenden

Man stelle sich vor, wie sich all das entwickelt hätte, wenn Pierre Morel oder John Zillman Leiter der WG I gewesen wären, oder falls Tom Wigley oder Tim Barnett oder John Christy beitragende Leitautoren zum Kapitel 8 gewesen wären. Und wie die Klimawissenschaft dann heute aussehen würde.

Ich hoffe, dass dieser Ablauf der künstlichen Fabrizierung des Konsens‘ vernünftigen Menschen Gründe gibt innezuhalten, bevor man Argumenten hinsichtlich eines Konsens‘ über Klimawandel akzeptiert.

Link: https://judithcurry.com/2018/01/03/manufacturing-consensus-the-early-history-of-the-ipcc/

Übersetzt von Chris Frey EIKE




Ministerin Hendricks: Wir haben im Gegenteil sogar gigantische Stromüber­schüsse

Pressemitteilung Nr. 391/17 Endlagerprojekte

Herr Trump twittert, bei uns gibt es noch die bekannten Pressemitteilungen zu wichtig erachteten Themen.
Frau Hendricks gab eine solche zur Abschaltung von Block B des KkW Grundremmingen heraus:
29.12.2017 | Pressemitteilung Nr. 391/17 Endlagerprojekte (Hervorhebungen durch den Autor): Hendricks: Wichtiger Schritt beim Atomausstieg
AKW Gundremmingen B geht am 31. Dezember 2017 vom Netz
… Bundesumweltministerin Barbara Hendricks: „Ich bin froh über das Abschalten des Atomkraftwerks Gundremmingen B. Der Atomausstieg in Deutschland kommt damit einen wichtigen Schritt voran. Die Atomkraft war ein technologischer Irrweg – sowohl Fehlerfreiheit als auch Kostengünstigkeit waren Versprechen, die nie eingehalten wurden. Ich bin um jedes AKW froh, das nicht mehr in Betrieb ist. Mit der Abkehr von dieser gefährlichen und nicht nachhaltigen Energieform haben wir den Grundstein für eine international wettbewerbsfähige Energiestruktur in Deutschland gelegt.
Auch für die Stromversorgung ist das schrittweise Abschalten der Atomkraftwerke richtig. Anders als von einigen prophezeit wurde, leiden wir in Deutschland nicht unter einer Stromlücke. Wir haben im Gegenteil sogar gigantische Stromüberschüsse. Unsere Stromversorgung ist sicher, daran wird auch die Abschaltung von Gundremmingen B nichts ändern.“

Die Suche nach den „gigantischen Stromüberschüssen“

Der Autor hat sich aufgemacht und nach den von Frau Hendricks in ihrer Pressemitteilung ausgewiesenen, „gigantischen Stromüberschüssen“ gesucht. Anbei der Bericht.

Als Erstes hat er dazu Agora nach den Stromdaten 2017 gesehen und im Bild 1 eine Zusammenfassung über die EEG-Versorgung im Jahr 2017 Jahr zusammengestellt.

Bild 1 Ganglinienverlauf Ökoenergien und Verbrauch im Jahr 2017. Quelle: Agora Viewer

Um die Suche zu präzisieren, dazu noch eine Tabelle der aktuellen Energie- und Leistungsdaten. Dabei beachten, dass mangels überall aktueller Daten diese wechselnd von 2016 / 2017 stammen. Dadurch bedingte Fehler sind für die folgenden Betrachtungen allerdings zu vernachlässigen.

Bild 2 Energiedaten Deutschland eines Jahres. Einspeisungen 2016, Leistungen 2017 Daten installierte Leistung: Bundesnetzagentur Startzeitpunkt 01.1.2017 Daten Einspeisung 2016: Fraunhofer ISE: Stromerzeugung in Deutschland im Jahr 2016

Zum Schluss im Bild 3 Ganglinien von 2016 mit den zusätzlichen Verläufen der Kernkraft und dem Strom-Exportsaldo.

Bild 3 Ganglinienverläufe 2016: Verbrauch, Erzeugung Kohle+Gas, Kernkraft, Exportsaldo. Quelle: Agora Datensatz. Grafik vom Autor erstellt

Ganglinien ergeben zwar anschauliche Bilder. Daten erhält man aber erst mittels dem Histogramm. Bild 4 zeigt dieses die EEG-Leistungsbereitstellung im Jahr 2016.

Bild 4 Histogramm der EEG-Einspeisung 2016. Bezug: 100 % = Anschlussleistung. Roter Balken: Installierte Leistung. Grafik vom Autor aus den Daten von Agora erstellt

Bild 5 Datentabelle zu Bild 4

Bild 6 Parallel die Histogramme EEG-Leistung und Kernkraft im Jahr 2016. Bezug: 100 % = Anschlussleistung. Grafik vom Autor aus den Daten von Agora erstellt

Die parallele Darstellung zeigt, wie sich der Unterschied im Histogramm:
– eines „Flatterstromerzeugers“, hier die gesamte EEG-Versorgung
– eines stabilen, planbaren Kraftwerkes, hier Kernkraftwerk (gilt für Kohle und Gas natürlich auch),
darstellt.

Dunkelflaute“

Ergänzend zum Bild 1 ein Beispiel für die Begriffe „Zappelstrom“ und „Dunkelflaute“. Dass Solar nachts keinen Strom liefert, hat sich so langsam herumgesprochen. Wie groß der Unterschied zwischen Sommer und Winter sein kann, zeigt Bild 7. Wenn während solcher „Durstmonate“ auch noch der Wind etwas schwächelt, kann das gesamte EEG nichts liefern,selbsr wenn man die installierte Leistung vervielfacht.
Eine Aussage: [9] „Schon heute werden Windparks zweitweise wegen Überkapazitäten vom Netz genommen – und die Stromkunden müssen den Ausfall bezahlen … was sie nicht müssten, wenn die Leitungen frei wären und nicht durch den überschüssigen Kohlestrom belegt. Fakt ist: Wir haben in Deutschland einen Stromangebotsüberschuss, weil noch immer zu viel konventioneller Strom im System ist …“,
getätigt von Frau C. Kemfert, zeigt, wie auch von angeblichen „Fachpersonen“ bewusster Unsinn erzählt (und begierig aufgenommen) wird, sofern er zu ihren politischen Zielen passt. Natürlich gibt es „Überschussstrom“. Aber nur für kurze Zeiten im Jahr und selbst diese vollkommen unplanbar. Leider lässt sich gerade Frau Hendricks wohl gerne von solchen Personen in ihren Überzeugungen „bestärken“.

Bild 7 Solarangebot im Juni und im Dezember 2017 im Vergleich. Quelle: Agora Viewer

Das Suchergebnis

Nach Tabelle 2 ist die Installierte Leistung der konventionellen Kraftwerke gerade (noch) groß genug, um die in „EEG-Dunkelflauten“ (rote, gestrichelte Pfeile im Bild 1) benötigte Energie liefern zu können. Das in Bild 1 anhand der Ganglinien Dargestellte, ist in Bild 4 als Histogramm, in Bild 5 tabelliert zu sehen.

Fazit: Alle verbliebenen, konventionellen Kraftwerke sind zur „Dunkelflautenüberbrückung zwingend erforderlich

So lange es keine Energiespeicher gibt – die derzeit in Deutschland wirklich nirgens ausreichend in Sicht sind – sind alleine zur Überbrückung der vielen Energieeinbrüche der „Erneuerbaren“ alle (noch) vorhandenen, konventionellen Kraftwerke erforderlich. Außer man hofft, dass das Ausland Deutschland währen jeder „Dunkelflaute“ bei der Energiebereitstellung aushelfen kann.

Nimmt man die EEG-Bereitstellung von lediglich ca. 20 % der benötigten Energie als „Dunkelflaute, dann „herrschen“ solche extremen Minderbereitstellungen derzeit über mehr als 100 Tage im Jahr (in der Tabelle von Bild 5 nachsehbar).

Ohne die konventionellen Kraftwerke würde Deutschlands Energiesystem also über mehr als 100 Tage (grob über mehr als 1/4 des Jahres) vollkommen zusammenbrechen (genau genommen, die restliche Zeit meistens auch).
Eine „Rettung“ vom Ausland wäre eine Illusion. Neben der Schweiz „schwenkt“ auch Österreich auf EEG um [6]. Diese Länder können dann mit ziemlicher Sicherheit keine planbaren Exportquoten für Deutschland zur Verfügung stellen.
Einen Teil vielleicht noch Frankreich aus seinem Atomstrom-Kontingent. Da Frankreichs, gerne die „Welt bewegender“ Präsident, zur Sanierung seiner Nation viel Geld (billig) aus Deutschland benötigt, kann man sich nahezu jeden Deal vorstellen. Sogar, dass Deutschland dann auch noch KkW-Strom- Ausgleichszertifikate „generiert“, um beim Bezug von Atomstrom das „nachhaltige“ Gesicht zu wahren.

Der Exportsaldo ist im Verhältnis gering (zudem, warum soll ein Hochtechnologieland keinen Strom exportieren dürfen) , was zeigt, dass die Vorrangs-Einspeisungs-bedingten Abregelungen eines Teils der konventionellen Kraftwerke (wie man es in Bild 3 gut sieht), recht konsequent (auf Kosten der Stromverbraucher) vorgenommen wird.
Trotzdem sind die Kosten des erforderlichen Abregelns von EEG-Energie schon enorm. R. Schuster vom Verein VERNUNFTKRAFT, Landesverband Hessen e.V., schätzt die Kosten für das Jahr 2017 auf ca. 900 Mio EUR.

Warum hat die Abschaltung eines Teils von Grundremmingen (noch) keinen Einfluss?

Richtig ist, dass die Abschaltung eines Teils des KkW Grundremmingen bei dem geringen, verbliebenen Rest an Kernkraft wenig Bedeutung hat. Allerdings nähert sich die Versorgung mit jeder Reduzierung konventioneller Kraftwerkskapazitäten immer mehr den kritischen Versorgungs-Grenzen.
Dass es bisher nicht zu Netz-Zusammenbrüchen kam, liegt nur daran, dass Deutschland früher Kraftwerks-Zusatzkapazitäten hatte. Strom für gutes Geld exportieren war früher eben keine „Schande“. Vorwiegend auf diesen früheren (Zusatz-) Kapazitäten funktionierte der bekannte Spruch: „Schau, wir schalten die bösen, konventionellen Kraftwerke ab und nichts passiert“. Leider sind nun viele überzeugt, dass dieser Spruch eine physikalische Beschreibung wäre und „ewig“ weiter gelten würde.

Wer Stabilität (der Stromversorgung) „liebt“, sieht diesen – von fast allen Parteien „geforderten“ – Weg mit Sorge. Die aktuelle Meldung über bereits 1 Milliarde EUR Stabilisierungskosten im Netz hat zwar nicht (nur) diese Ursache, ist aber ebenfalls eine direkte Folge der EEG-Strompolitik:
Epoch Times 1. January 2018: [4] Stromnetz unter Druck – Tennet meldet Rekordkosten für Noteingriffe (dpa)
Fast eine Milliarde Euro musste der Netzbetreiber Tennet 2017 für sogenannte Noteingriffe ins Netz zahlen. Ursache ist der Ausbau der erneuerbaren Energie … … Der Präsident der Bundesnetzagentur, Jochen Homann, sieht Milliardenkosten auf die Verbraucher zukommen.

Neben bisher zwei Energiesystemen wird nun ein drittes aufgebaut

Die Tabelle von Bild 2 zeigt überdeutlich, wie in Deutschland zwei parallele Strom-Versorgungssysteme existieren.
Ein zuverlässiges – Beispielhaft Bild 6 – und eines, welches ausschließlich „Flatterstrom liefert – Beispielhaft Bild 1 und 4.

Wenn nun – wie gefordert – Kernkraft und Kohle weiter zwangsreduziert werden, ist dafür ein Ersatz zu schaffen. Da weder der EEG-Zubau Schritt hält – und die dann benötigten Speicher nicht in Sicht sind, werden es zwangsweise Gaskraftwerke werden. Nur diese lassen sich schnell genug errichten. Das Einzige, was der Stromkunde davon merken wird, sind höhere Energiepreise, denn Strom aus Gas ist der teuerste, konventionell erzeugte.

Frau Hendricks hat erkennbar Mühe (sehr positiv formuliert), das Stromversorgungssystem zu verstehen

Das gilt nicht nur Sie, sondern auch für ihre „Redenschreiber“. Weil ihr erkennbar einiges an Kenntnis, ganz sicher aber Verständnis fehlt [1] kann (und will) sie das wohl auch nicht.

Von dem von Frau Hendricks genannten „Stromüberschuss“: [5] „ Anders als von einigen prophezeit wurde, leiden wir in Deutschland nicht unter einer Stromlücke. Wir haben im Gegenteil sogar gigantische Stromüberschüsse „,
kann nur jemand reden, der die EEG-Einspeisungen fälschlicher Weise immer auf die der konventionellen Kraftwerke hinzu addieren. Macht man das auf die installierte Leistung der konventionellen Kraftwerke, lässt sich daraus auf dem Papier ein „gigantischer Stromüberschuss“ fabulieren.
Dieser „Überschuss“ besteht jedoch nur zeitweise., ist nicht planbar und kann jederzeit auch fast gegen Null sinken. Das gilt nicht nur aktuell – wie in den vorhergehenden Kapiteln gezeigt wurde -, sondern auch in der „versprochenen“ EEG-Zukunft:
[2] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

Bild 8 [2] EEG-Verteilung der Einspeisung im Jahr 2050 (Netz im Jahr 2050 bei Erzeugung von 80 % des Strombedarfs)

Die EEG-Erzeuger im Jahr 2050 stellen (in einer Simulation) an Leistung bereit [2]:
– über 61 Tage des Jahres nur zwischen 5 … 20 % der Anschlussleistung (dass es nicht auf null geht, liegt an der Biogas und Wasserkraft-Einspeisung).
– über 224 Tage des Jahres nur zwischen 20 … 100 % der zur Versorgung Deutschlands erforderlichen Leistung.
– über 350 Tage des Jahres nur zwischen 5 … 50 % der Anschlussleistung.
– Im gesamten Jahr werden gerade einmal über 1,4 Tage zwischen 65 … 70 % der versprochenen Leistung als Maximalwerte bereitgestellt.

Was sagen andere Parteien

Ein „GRÜNEN-Experte“ der Bundestagsfraktion für Energie, Oliver Kritscher (Studium: Biologie ohne Abschluss) schoss mal wieder den Vogel ab: (dpa 02.01.2017) „ … solange Kohle- und Atomkraftwerke weiterlaufen, auch wenn viel erneuerbare Energien im Netz sind, steigen logischerweise die Kosten für Netzeingriffe“. Der Kohleausstieg sei nötig, um die Zahl der Eingriffe und die Kosten zu reduzieren.
Erschreckend, mit welcher ideologischen Unbekümmertheit ein angeblicher „Experte“ Fakten „hinbiegt“ und die abschließende Sabotage des deutschen Energiesystems fordert, nach dem Motto: Wenn keiner in unserer Partei davon eine Ahnung hat – aber viele davon viel Dummes dazu sagen:
EIKE 15.08.2017: Cem Özdemir versucht sich in Energie,
glauben es wieder viele Bürger (denn niemand glaubt, dass wir uns trauen, bedenkenlos so viel Unsinn zu erzählen).

Und niemand widerspricht diesem offen zur Schau gestelltem Wahnsinn, bei dem man sarkastisch meinen könnte, im Bundestag agieren öffentlich (und von allen hoffierte) Sabotagegruppen unseres Energiesystems.
Es wären Steilvorlagen für eine Protestpartei – von welcher man dazu jedoch nichts hört (positiv gesehen: Immer noch besser nichts, als die Aussagen der anderen Parteien dazu). Doch nichts zu sagen, reicht nicht dauerhaft als Wahlbegründung.

So lange es dazu keine richtigstellende Oppositions-Information gibt, haben Bürger das Sagen, welche ihr „Wissen“ von solchen „Ökoparteien“ beziehen:
BR 24: [3] Zum Jahreswechsel Block B im AKW Gundremmingen ist endgültig abgeschaltet
Ein typischer Blogbeitrag daraus: Antwort von xxx , Sonntag, 31.Dezember
Deutschland hat in diesem Jahr 2017 soviel Strom ins Ausland exportiert, wie alle 8 Atomkraftwerke in Deutschland zusammen produziert haben. ALLE Atomkraftwerke sind somit überflüssig, blockieren nur mit ihrem Atomstrom in den Stromnetzen die erneuerbaren Energien und gehören abgeschaltet.
Wer jetzt noch die Argumente der ewig Gestrigen hervorholt, lebt in der Vergangenheit. Die Zukunft heißt 100 % erneuerbaren Energien! Entwicklungen kannst Du verzögern, aber nicht aufhalten! ..,
Sowie die Vertreter eigener Verbandsinteressen:
Bundesverband Erneuerbare Energie 07. November 2017: Mit Erneuerbarer Energie Kohlestrom ersetzen. Energiemarkt stärken statt schwächen
„Das in den vergangenen Tagen von Politikern häufig geäußerte Problem, es sei nichts gewonnen, wenn Deutschland Kohlekraftwerke abschalte und anschließend Kohlestrom aus Polen oder Kernenergie aus Frankreich importiert werde, lässt sich mit einem höheren Ausbau Erneuerbarer Energien praktikabel lösen“, sagt Dr. Peter Röttgen, Geschäftsführer Bundesverband Erneuerbare Energie.
„Was Deutschland sofort tun kann und muss, ist einfach: Die Ausbaudeckelung für Erneuerbare Energie streichen.“ So können die wegfallenden Kohlestrommengen sicher ersetzt werden. Die Kosten für Erneuerbare Energien sind in den vergangenen Jahren massiv gesunken. Strom aus Wind- und Solarstromanlagen ist bereits deutlich günstiger als Strom aus neuen konventionellen Kraftwerken. Mehr Erneuerbare Energie heißt dann zugleich auch mehr Klimaschutz. „Ein schrittweiser Kohleausstieg und mehr Erneuerbare Energie sind somit direkt miteinander verbunden …

Die Welt zu retten, hat (in Deutschland) immer Priorität

Bezahlen musste und muss es immer der Bürger. Als Abgeordneter bekommt man ja automatisch und bedingungslos bis ans Lebensende gesichert mindestens einen Inflationsausgleich. Die ganz Armen trifft es nicht (denen bezahlt es der Staat und die Kommunen), der Mittelstand, den es wirklich trifft, benötigt man wohl nicht mehr. Andere Länder kommen ja auch ohne einen solchen zurecht.
Reuters, 03. Januar 2018: SPD fordert höhere Sprit-Steuer
… Vor den Sondierungsgesprächen mit der Union kommen aus der SPD Forderungen nach höheren Abgaben auf Gas, Benzin oder Heizöl.
Das Steuer und Umlagesystem im Energiebereich müsse zugunsten von Strom und für die Klimaziele reformiert werden, heißt es in einem 14-Punkte-Papier aus der SPD, das der Nachrichtenagentur Reuters am Mittwoch vorlag. „Dabei muss ein klar definiertes CO2-Steuerungselement eingeführt und die Abgaben auf fossile Energieträger entsprechend erhöht werden.“ Auf der anderen Seite könne dann mit diesen Einnahmen Strom aus erneuerbaren Energien verbilligt werden.

Wenn Geld zu verdienen ist, hilft auch die Industrie gerne, ja fordernd, bei der „Sabotage“

manager magazin 07.11.2017: … Mehr als 50 Unternehmen fordern raschen Kohleausstieg
Mit einem eindringlichen Appell an die künftige Bundesregierung haben sich mehr als 50 deutsche Unternehmen in die Debatte um Klimaschutz und Energiewende eingeschaltet. Wie die „Stiftung 2 Grad – Deutsche Unternehmer für den Klimaschutz“ mitteilte, fordern die Unterzeichner des Schreibens, das am Dienstag veröffentlicht wurde, unter anderem den Abschied aus der Kohleverstromung über „einen verlässlichen und sozialverträglichen Ausstiegspfad“. „Spiegel Online“ hatte zuvor über die Initiative berichtet, die zur in Bonn laufenden Weltklimakonferenz an die Öffentlichkeit geht.
Während die Jamaika-Gespräche in Berlin über Klima und Energiewende scheitern könnten, zeigten die Unternehmen, wie Klimaschutz und Energiewende zu einem Modernisierungsprojekt für Deutschland werden könnten, hieß es weiter.
Unterzeichnet haben die Erklärung unter anderem die Dax-Konzerne Siemens, SAP, Deutsche Telekom und Deutsche Börse sowie Aldi Süd, Metro, Tchibo und der Paketdienstleister Hermes. Selbst Energiekonzerne wie Eon und EnBW, die vor einigen Jahren noch in der Kohleverstromung aktiv waren, gehören dazu …

Man muss das „verstehen“. Die Industrie verkauft ja nicht „Wissen“, sondern Produkte und Dienstleistungen. Und ein EEG-basierendes Versorgungssystem benötigt (im Gegensatz zum stabilen, konventionellen) ein Mehrfaches an viel schneller veraltenden Investitionen und vor allem eine überbordende und ständige IT-Betreuung.
Man denke nur daran, dass 40.000.000 Elektroautos DV-technisch als „Schwarmspeicher“ verbunden werden sollen (um für 5 Stunden Strom zu liefern) [7]. Alleine dies erfordert 40.000.000 bidirektional arbeitsfähige Ladesäulen, eine Datenvernetzung im Hintergrund, Steuersoftware und Betreuung. Wahrscheinlich (da es unstabil bleiben wird) einen regelmäßigen, die Aktualisierungspflichten bis zum einzelnen Nutzer überwachenden „TÜV“ und, und, und …. Dazu die „Intelligenz“ in den Netzen, ebenfalls DV-technisch verknüpft und gesteuert. Und so geht es „modern“ weiter. Damit wird alles passieren, nur keine – früher als normal empfundene Stabilität der Stromversorgung -.
Sicherer, als mit einem so hoch-komplexen, systembedingt unstabilen System, lässt sich kein Geld mehr verdienen, da alles staatlich alimentiert und reglementier werden wird.
Die Mechanismen des Gesundheitssystems und des öffentliche Rundfunks werden damit auch in diesem Umfeld wahr: Geld „verdienen“ ohne das geringste Risiko und bei Problemen ausschließlich auf Geldmangel verweisen zu müssen.

Als i-Tüpfelchen kann man als CEO damit auch noch – wie (und warum) es Aldi vormacht – gesellschaftlich endlich als „Weltretter“ brillieren und wird endlich einmal als Unternehmer in der Öffentlichkeit „bauchgepinselt“. Noch nicht ganz so, wie ein E. Musk in Amerika, aber daran kann man ja arbeiten. Wenn schon eine Frau Hendriks als „ … die Beste .. „ [8] tituliert wird, wird es CEOs bei uns ja wohl auch irgendwann gelingen.

Wenn eine zuständige Ministerin nichts weiß, können Interessensvertreter besser „lenken“

[8] SZ 18./19. November 2017, Nachruf auf Frau Hendricks von Michael Bauchmüller.
Darin Zitat: „ … Ich halte Barbara Hendricks für die beste Umweltministerin seit Klaus Töpfer“, sagt etwa Hubert Weiger, Chef des Umweltverbandes BUND ...

Nun hält Herr Weiger auch Herrn Schellnhuber für einen wohl genialen Klimaforscher, denn er glaubt fest an die von Herrn Schellnhuber vertretende Klima-Kipppunkt-Theorie.
Aber Herr Bauchmüller hätte ja auch mal jemand anderen Fragen können. Vielleicht wäre ihm dann aufgefallen, dass es mehr (als zwei gleiche) Meinungen dazu gibt.

Etwas EEG-„Weisheit“ als Abschluss

Anbei ein paar Bilder aus einem Foliensatz von Herrn R. Schuster, VERNUNFTKRAFT Landesverband Hessen e.V.
Herr Schuster möge nachsehen, dass wegen der flüssigeren Lesbarkeit nicht unter jedem Bild die Quelle angegeben ist.

Quellen

[1] EIKE 20.07.2017: Randalen von Atomfrontkämpfern werden von Frau Hendricks ausdrücklich als „Freunde des Staates und der Gesellschaft“ gelobt

[2] EIKE 27.12.2017: Offshore lieferte jeden Tag Strom und onshore gab es im Jahr 2016 deutschlandweit keine einzige Stunde ohne Windstromerzeugung

[3] BR 24: Zum Jahreswechsel Block B im AKW Gundremmingen ist endgültig abgeschaltet

[4] [4] Epoch Times1. January 2018: Stromnetz unter Druck – Tennet meldet Rekordkosten für Noteingriffe

[5] 29.12.2017 Pressemitteilung Nr. 391/17 Endlagerprojekt: Hendricks: Wichtiger Schritt beim Atomausstieg

[6] Tiroler Tageszeitung 01.12.2017: Koalition plant bis 2030 Umstieg auf erneuerbare Energie

[7] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[8] SZ 18./19. November 2017, Nachruf auf Frau Hendricks von Michael Bauchmüller.

[9] KLIMARETTER.INFO 22. Juni 2016: „EEG-Systemwechsel ist falsches Rezept

[10] EIKE 21. August 2017: POLITISCHE BILANZ: Nicht „ob“, sondern „wie schnell“




Schummel, Schummel! Wie sie daran scheiterten, die Kluft zwischen prophe­zeiter und gemessener Erwär­mung zu verschleiern

Abbildung 1: Die Regression kleinster Quadrate über die monatlichen globalen Anomalien während des gesamten Satelliten-Zeitraumes zeigt von Dezember 1978 bis Dezember 2017 eine Erwärmung mit einer Rate äquivalent zu lediglich 1,28°C pro Jahrhundert.

Nimmt die Rate der globalen Erwärmung unaufhaltsam zu? Die Antwort lautet Nein, wie aus Abbildung 2 hervorgeht:

Abbildung 2: Der Trend kleinster Quadrate im UAH-Datensatz zeigt von Februar 1997 bis Dezember 2017 Erwärmung mit einer Rate äquivalent zu 0,85°C pro Jahrhundert.

Die Erwärmungsrate der 251 Monate mit Daten über die Hälfte des gesamten UAH-Datensatzes ist nicht höher als die Rate über den gesamten Zeitraum von 469 Monaten. Sie liegt ein Drittel niedriger, von 1,28 auf 0,85°C pro Jahrhundert. Ich habe den Startzeitpunkt für Abbildung 2 gewählt, weil er den Beginn der längsten Periode des Großen Stillstands markiert, welche dem RSS-Satelliten-Datensatz zufolge spektakuläre 18 Jahre und 9 Monate dauert, von Februar 1997 bis Oktober 2015, wie Abbildung 3 zeigt:

Abbildung 3: Der Trend kleinster Quadrate im RSS-Satelliten-Datensatz zeigt keinerlei globale Erwärmung von Februar 1997 bis Oktober 2015, also 18 Jahre und 9 Monate lang. Das ist die längste Periode des Stillstands, obwohl ein Drittel aller anthropogenen Antriebe in diesen Zeitraum fällt.

Ein wenig Historie. Im Zuge seiner Vorbereitung auf eine Debatte im Senat Ende 2015 ist Senator Ted Cruz an das Heartland Institute herangetreten und hat um eine einzelne Graphik gebeten, welche am Besten den klimaskeptischen Standpunkt belegt. Man wählte Abbildung 3, und Senator Cruz zeigte sie im Senat, zum sichtlichen Unbehagen der Demokraten. Bob Carter schrieb mir kurz vor seinem viel zu frühen Tod, wie erfreut er war von unserer Linie zu hören, dass ein Drittel des gesamten Einflusses des Menschen auf das Klima seit 1750 während des Stillstands aufgetreten war, jedoch ohne auch nur die geringste Erwärmung auszulösen.

In meinem Bericht über den Stillstand im November 2017 bei WUWT prophezeite ich, dass der RSS-Datensatz rasch manipuliert werden würde, um den Stillstand daraus zu entfernen. Nur wenige Wochen später verkündete der Betreiber jenes Datensatzes, Dr. Carl Mears, welcher dazu neigt, Skeptiker als „Leugner“ zu diffamieren, dass es tatsächlich eine Revision geben würde. Als diese dann erschien, war der Stillstand daraus verschwunden.

Interessant dabei ist, dass dieser Vorgang, d. h. die Veränderung von Daten ex post facto, um sie an die Parteilinie anzupassen, immer noch weitergeht. Aus dem Datensatz, so wie er vor ein paar Monaten gezeigt worden ist, war der empörende Null-Trend während des 18 Jahre und 9 Monate langen Stillstands daraus verschwunden und ersetzt worden durch einen Trend äquivalent zu 0,77°C pro Jahrhundert (Abbildung 4).

Allerdings reichte diese Temperatur-Manipulation* nicht aus. Der RSS-Datensatz, so wie er heute gezeigt wird, zeigt eine Erwärmungsrate äquivalent zu 0,83°C pro Jahrhundert über genau den gleichen Zeitraum (Abbildung 5).

[*Monckton verwendet hier eines seiner unübersetzbaren und auch unnachahmlichen Wortspiele. Er schreibt tamparature change, zusammengesetzt aus tamper und temperature. Anm. d. Übers.]

Abbildung 4: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands auf der Grundlage der Mitte 2017 gezeigten Daten.

Abbildung 5: Der Trend kleinster Quadrate im RSS-Datensatz über die 18 Jahre und 9 Monate des Stillstands, diesmal mit den Daten, wie sie heute gezeigt werden.

Man vergleiche die Abbildungen 4 und 5 mit Abbildung 6, den derzeitigen UAH-Daten über die 18 Jahre und 9 Monate des Stillstands. Sie zeigen eine statistisch nicht signifikante Erwärmung äquivalent zu 0,05°C pro Jahrhundert über den Stillstands-Zeitraum.

Zu der Zeit des Stillstands zeigten die UAH-Daten eine höhere Erwärmungsrate als RSS. Seitdem sind die UAH-Daten überarbeitet worden mit dem Effekt der Reduktion der zuvor erkennbaren geringen Erwärmungsrate während der Stillstands-Periode, während die RSS-Daten weiterhin und immer noch dergestalt überarbeitet werden, dass die offensichtliche Erwärmungsrate über den gleichen Zeitraum immer stärker in Erscheinung tritt.

Aus all diesen Daten geht klar hervor, dass die Rate der globalen Erwärmung sehr erheblich unter dem liegt, was ursprünglich prophezeit worden war. In einem weiteren Beitrag werde ich für jedermann verständlich zeigen, wie groß die Diskrepanz ist zwischen nervös machender Prophezeiung und belangloser Beobachtung, und wie falsch die vielfachen künstlichen Behauptungen in gewissen begutachteten Studien waren, die belegen sollten, wie recht das IPCC mit seinen ursprünglichen Prophezeiungen hatte, und wie falsch jene Prophezeiungen wirklich waren.

Und schließlich werde ich zu gegebener Zeit genau zeigen, welcher Fehler in dem Modellen zu diesen außerordentlichen Über-Prophezeiungen geführt haben, und wie gering die angemessen prophezeite Erwärmungsrate ist, nachdem dieser verhängnisvolle Fehler korrigiert ist.

Abbildung 6: Der Trend kleinster Quadrate des gegenwärtigen UAH-Datensatzes stimmt überein mit dem Original-RSS-Datensatz und zeigt während der 18 Jahre und 9 Monate von Februar 1997 bis Oktober 2015 eine globale Erwärmung mit einer Rate, die nicht unterscheidbar ist von Null.

Link: https://wattsupwiththat.com/2018/01/03/tamper-tamper-how-they-failed-to-hide-the-gulf-between-predicted-and-observed-warming/

Übersetzt von Chris Frey EIKE