Nissans Plan, dass Elektroautos Energie zurück speisen können, kann Britanniens Stromnetz zum kippen bringen

Europäische Länder wie Großbritannien, Niederlande, Norwegen und Frankreich [und Deutschland] schreiten fort, in dem Bemühen, die Automobilmärkte zum Produzieren von Elektrofahrzeugen zu stimulieren und diese [auch] vermehrt zu verkaufen. Großbritannien ist dabei die Elektrofahrzeuge zu fördern, indem Nissan die Erlaubnis erhält, ein Programm zu erstellen, so dass Kunden überschüssigen Strom zurück in das Netz des Energienetzbetreiber National Grid schieben können.

Der japanische Autohersteller sagte am Dienstag, das er einen Probelauf mit dem Mega-Power-Unternehmen Enel plant, um 100 Fahrzeug-zu-Netz Einheiten für Privat- und Geschäftskunden zu installieren.

Die Entscheidung wird wahrscheinlich die Belastung auf das Netz weiter verstärken, welches durch die Schließung von Kohlekraftwerke bereits stark in Mitleidenschaft gezogen ist [im Original ~ zerschlagen ist]. Britische Behörden haben eine Verpflichtung hergestellt, alle Kohlekraftwerke innerhalb der nächsten zehn Jahre zu schließen, um Umweltvorschriften einzuhalten. Diese Aktion reduziert die Erzeugungskapazität bereits sehr stark.

Das Abschalten der restlichen Kohlekraftwerke des Landes wird eine große Menge an Strom [Erzeugerkapazität] aus dem Netz nehmen, und es bedeutet, das fast 35 Prozent der britischen Energie durch andere Quellen ersetzt werden müssen.

Diejenigen, die mit dem Betrieb des Stromnetzes beauftragt sind, warnen, dass diese Regelung der Zurückspeisung unnötigen Stress auf das Netz bringen wird, wenn keine entsprechenden Vorsichtsmaßnahmen getroffen werden.

"Es ist unsere Aufgabe, das nationale Übertragungsnetz zukunftssicher zu gestalten“, sagte National Grid Non-Executive Director und ehemaliger CEO Steve Holliday gegenüber Reuters. "Die schnelle Aufnahme von Elektrofahrzeugen ist sicherlich positiv, könnte aber auch eine Herausforderung sein, wenn wir nicht im Voraus planen."

Etwa 3 Prozent der Fahrzeuge in Großbritannien die im Jahr 2015 verkauft wurden, waren Plug-in-Hybriden und Elektroautos. Diese Zahl ist um Größenordnungen in diesem Jahr gewachsen, als die Verkäufe von Elektrofahrzeugen und Hybrid-Fahrzeug- um 24 Prozent gestiegen sind. [also auf etwa 3,72% aller Verkäufe]

Nissan Europe sagte ihren Elektroauto – Kunden, dass sie überschüssige Energie nutzen könnten, um ein wenig Geld zu machen, indem sie während der Spitzenzeit Energie zurück an das Netz verkaufen.

"Der Wert für den Verbraucher ist, dass sie ihre Energie in Schwachlastzeiten beziehen können, so in der Nacht", meint der Vorsitzende von Nissan Europa Paul Willcox gegenüber Reuters.

Erschienen auf The Daily Caller am 10. Mai 2016

Übersetzt durch Andreas Demmig

http://dailycaller.com/2016/05/10/nissans-electric-vehical-energy-sell-back-scheme-could-topple-britains-strained-grid/




Umweltaktivismus der Linken ist religiöser Sozialismus

Im Gegensatz zu dem, was die meisten Leute glauben, wird Umweltaktivismus als politische Agenda nur durch extrem wohlhabende und mächtige Linksgruppen getrieben, die ihr Geld mit der Ausbeutung der Umwelt machten. Die Psychologie dahinter ist nicht Thema dieses Beitrags, aber man betrachte die Scheinheiligkeit von George Soros, Maurice Strong, Bill Gates, der Rockefellers, Leonardo DiCaprio, Ted Turner und vielen anderen. Die Verwirrung ist ähnlich wie in Bezug auf eine andere Person, von dem die meisten Menschen glauben, dass er ein Rechtsaußen-Faschist war, der aber hinsichtlich Umweltaktivismus ein Sozialist war – Adolf Hitler.

Die meisten dieser Leute agierten mittels ihrer privilegierten Gruppe, genannt der Club of Rome. Das Gründungstreffen dieses Clubs fand im Jahre 1968 auf dem Anwesen von David Rockefeller in Bellagio, Italien, statt. In ihrem im Jahre 1994 erschienenen Buch „The First Global Revolution“ schreiben sie:

Der gemeinsame Feind der Menschheit ist der Mensch. Auf der Suche nach einem neuen Feind, der uns vereinigen kann, kamen wir auf den Gedanken, dass Verschmutzung, die Bedrohung durch die globale Erwärmung, Wasserknappheit, Hunger und dergleichen dafür gute Dienste leisten können. Alle diese Gefahren sind menschlichen Eingriffen geschuldet, und nur mit verändertem Verhalten können sie überwunden werden. Der wirkliche Feind ist also die Menschheit selbst“.

[Es fällt mir wirklich schwer, einen solchen Quatsch zu übersetzen! Anm. d. Übers.]

Sie behaupten, dass die Liste der Feinde erschaffen worden ist, um die Menschen zu vereinen. Tatsächlich besteht die Notwendigkeit, das zu überwinden, was sie als die Teilung in Nationalstaaten ansehen, und die Rechtfertigung einer Eine-Welt-Regierung oder globaler Sozialismus. Die globale Erwärmung ist ein globales Problem, das nationale Regierungen für sich allein nicht lösen können.

Schließlich einigten sie sich auf die globale Erwärmung als das Umweltthema, das ihrem Ziel am dienlichsten ist. Natürlich ist dieser Plan nur der Anfang. Einer meiner Lieblings-Cartoons aus dem New Yorker zeigte Moses auf dem Berg mit den Zehn Geboten. In der Legende heißt es: „Großartige Idee, wer wird es finanzieren?“ Globale Erwärmung und die Identifizierung des anthropogen erzeugten CO2 als das Problem passte zu sämtlichen politischen, finanziellen und religiösen Kontrollmechanismen, die sich eine sozialistische Gruppe nur wünschen kann.

Das Kyoto-Protokoll wurde als eine Lösung des Problems der vom Menschen verursachten globalen Erwärmung präsentiert. Aber jene, die das Protokoll erzeugt haben, haben auch das Problem erzeugt. Via das IPCC erzeugten sie die zur Stützung ihrer Behauptung erforderliche Wissenschaft. Es ist ein gut durchdachter und gut geplanter, klassischer Zirkelschluss: Erzeuge das Problem, fabriziere den Beweis für das Problem, dann biete die Lösung an. Sie sagten irrigerweise, dass eine Zunahme des CO2-Gehaltes eine Temperaturzunahme verursacht. Sie boten Beweise. Sie programmierten ihre Computermodelle so, dass eine CO2-Zunahme eine Temperaturzunahme zur Folge hatte. Sie ließen ihre Modelle laufen, wobei sie alles andere gleichbleibend hielten, was man in der Wissenschaft ,Alles Andere bleibt gleich‘ [ceteris paribus] nennt. Natürlich zeigten die Modelle denn auch die Temperaturzunahme, welche sie dann flugs als Beweise für ihre Behauptung anführten.

CO2 wurde schließlich zur religiösen Grundlage für die sozialistische Agenda. Nationen, deren Ökonomien aufblühten und die mittels CO2 wohlhabend wurden, sollten für ihre Sünden bezahlen, indem sie Geld an diejenigen Nationen überweisen, die leiden. Es war eine Buße. Katholiken zahlten Bußgelder für ihre Sünden, was auch eine Verzögerung bei ihrem Eintritt in den Himmel [heaven] bewirkte. In der mittelalterlichen katholischen Kirche konnte man Ablassbriefe kaufen, um diese Bestrafung zu umgehen. Kohlenstoff-Zertifikate sind das moderne Pendant dazu, und Al Gore war das Pendant zum Ablassprediger (hier), der Ablassbriefe verkaufte und in den Canterbury Tales von Geoffrey Chaucer gefeiert wurde.

CO2 via Kyoto stellte schließlich die politische Grundlage für die sozialistische Agenda. Es war eine Umverteilung des Wohlstands, wobei man den erfolgreich entwickelten Nationen Geld wegnahm und es an die weniger erfolgreich entwickelten Länder gab. Diese Operation erforderte eine Eine-Welt-Regierung und eine Welt-Bankagentur.

CO2 via Kyoto bot auch die Grundlage für die finanzielle sozialistische Agenda. Das für die Finanzierung der sozialistischen Regierung erforderliche Geld sollte in Form einer globalen Kohlenstoff-Steuer hereinkommen. Auf der COP15-Klimakonferenz in Kopenhagen im Jahre 2009 ging es auch um die Festlegung der finalen Details einer Kohlenstoffsteuer, die vom International Monetary Fund erhoben werden sollte. Mancher wusste, dass die politische Agenda auf der falschen Wissenschaft beruhte, wie die durchgesickerten Klimagate-E-Mails der CRU bewiesen hatten. Die maßgeblichen, das IPCC kontrollierenden Wissenschaftler arbeiteten an der CRU. Die Enthüllungen verzögerten effektiv den politischen Prozess, weil die COP nur auf Grundlage der Wissenschaft agieren kann, die vom IPCC vorgegeben wird. Die Verzögerung war nur vorübergehend, weil die meisten die Wissenschaft nicht verstanden hatten oder um die Implikationen der durchgesickerten E-Mails wussten. Im Jahre 2010 schuf man auf der COP 16 in Durban das als Ersatz fungierende sozialistische Programm unter der Bezeichnung Green Climate Fund (GCF). Auf der COP21 in Paris im Dezember 2015 wurde dieser Prozess autorisiert.

[Leugnen die Alarmisten nicht bis heute die Klimagate-E-Mails? Anm. d. Übers.]

Vaclav Klaus, vormals Präsident der Tschechischen Republik, war der einzige Führer der Welt, der klar benannte, was da vor sich ging. Ich hörte ihn sprechen auf der Heartland Klimakonferenz 2004 in New York. In seinem Eröffnungskommentar führte er aus, dass die Welt durch 70 Jahre Kommunismus gegangen war, und stellte die Frage, warum zum Teufel man dahin zurückkehren wolle. Noch deutlicher wurde er in seinem Buch Blue Planet in Green Shackles [Blauer Planet in grünen Fesseln]. Dort schrieb er:

Inzwischen sollte allgemein jedem klar sein, dass Umweltaktivismus zu einer allgemeinen Ideologie über die Menschen wird, über ihre Freiheit, über ihre Beziehung untereinander und gegenüber dem Staat und über die Manipulation der Menschen im Mäntelchen eines „noblen“ Gedankens. Es ist weder ein ehrliches Verfolgen „nachhaltiger Entwicklung“ noch elementarer Umweltschutz noch Suche nach rationalen Verfahren, um eine gesunde Umwelt zu erhalten. Nein, vielmehr gehen Dinge vor sich, die Kopfschütteln auslösen, wird man doch daran erinnert, dass man nicht mehr in der kommunistischen Stalin-Ära und auch nicht mehr in der Orwell’schen Utopie von 1984 lebt“.

Bild oben rechts: Der Präsident Boliviens Evo Morales übergibt Papst Franziskus eine Bronzeplastik mit Christus, gekreuzigt auf Hammer und Sichel.

Link: http://drtimball.com/2016/environmentalism-of-the-left-is-religious-socialism/

Übersetzt von Chris Frey EIKE

Der Übersetzer bedankt sich bei Herrn H. R. Vogt für den Hinweis auf diesen Beitrag. Er kommentierte hier.




Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k

Glaubt man den „offiziellen“ Informationen, so ist das Klima der Vergangenheit genau bekannt. Schaut man sich jedoch die zugrunde liegenden Daten an, kann man feststellen, dass diese ganz andere Bilder zeigen. Konkret: Sie sind so ungenau, dass man darauf basierend praktisch beliebige Klimaverläufe rekonstruieren kann!

Proxidaten und statistische Methoden

Im EIKE Beitrag „Rekontruierte Temperaturverläufe der letzten zwei Jahrtausende“ wurde bereits angesprochen wie unterschiedlich viele Proxidaten sind und anhand des folgenden Bildes aus einem IPCC Bericht gezeigt, zu welchen „Spaghettimustern“ dies führt.

Bild 1 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

Diese „Spaghettimuster“ zeigen signifikante Probleme auf:

— Drastische Zeitverschiebungen der Temperaturextreme zwischen Rekonstruktionen der gleichen Gegend

— Teilweise gegensätzliche Max- / Min-Kurvenverläufe

— Wie im Artikel gezeigt wird den Verdacht, dass viele Proxis mehr Rauschen als Daten beinhalten

Es stellt sich die Frage, ob eine statistische Weiterverarbeitung solch chaotischen Datenmaterials überhaupt zulässig ist. Solche Verläufe können nicht wie zwingend erforderlich aus gleichwertigem und vor allem homogenen Datenmaterial stammen und es ist auch zu bezweifeln, ob sie den Verlauf der Temperaturen ausreichend repräsentieren.

Alternativaussage: Oder der Klimaverlauf wäre wirklich so lokal begrenzt wie es verschieden Proxis angeben – womit es dann aber nirgends einen globalen, nicht einmal einen großflächig einheitlichen Klimaverlauf geben würde.

Das Ergebnis wird bei der Hockey Stick Kurve (Bild 2) erkennbar.

Obwohl eine hohe Spannweite (graue Schatten) besteht, ergibt sich eine „ruhige“ Mittelwertkurve mit angeblich geringer Varianz. Diese hat nur einen Mangel: Sie repräsentiert nicht einen wahrscheinlichen Temperaturverlauf, sondern die Fehler des Datenmaterials.

Allerdings wird es anders verkündet:

WIKIPEDIA Hockeyschläger-Diagramm:

Das Hockeyschläger-Diagramm wurde von verschiedenen Seiten mehrfach auf Fehler überprüft. Die Ergebnisse von Mann et al. wurden damit mehrfach bestätigt.

Prof. Rahmstorf PIK:

[9] Von der Wissenschaft glänzend bestätigt, von der “Klimaskeptiker”-Lobby verunglimpft

In der Fachwelt gelten die Arbeiten von Mann et al. als hoch respektierte Pionierleistung (die Forscher erhielten eine Reihe von Preisen, Mann und Bradley z.B. beide die Oeschger-Medaille der European Geosciences Union).

Bild 2 Hockey Stick-Kurve

Quelle: IPCC Report AR2 von 2001, Figure 1: Variations of the Earth’s surface temperature over the last millennium.

Warum der Autor trotz solcher immer wiederholten Darstellungen bekannter und hoch gelobter Wissenschaftler bei seiner gegensätzlichen Ansicht bleibt, versucht er mit diesem Beitrag zu begründen.

Probleme der Proxi-Temperaturrekonstruktionen

Anbei ohne viel Mathematik anschaulich darstellbare Problematiken.

Zeitverschiebungen

Bild 3 zeigt, wie alleine durch Verschiebungen oder Fehler der Zeitdatierung zweier Proxis aus einer Warmzeit durch Mitteln eine Kaltzeit wird. Gleiches passiert, falls Weltgegenden Klimaveränderungen zeitlich verschoben „erleben“, wie es sein könnte falls z.B. die mittelalterliche Warmzeit als eine „Welle“ um die Welt ging und nicht zeitgleich überall auftrat. Dieser mathematische Effekt ist sicher einigen vom Drehstrom bekannt. Obwohl in allen drei Drehstrom-Phasenleitungen Strom fließt, ist der arithmetische Mittelwert des Summenstromes im Mittelpunktsleiter null, da sich die Phasenverschiebungen aufheben. Nach den AGW-Rechenregeln dürfte aus der Drehstromsteckdose somit keine Energie fließen.

Bild 3[4] Darstellung wie durch Zeitversatz zweier Proxis aus einer Warmzeit (Kurven: dunkelblau, grün) durch Mittelung eine Kaltzeit wird (Kurve: Globally Cooler, hellblau)

Wie extrem Zeitverschiebungen in Proxis enthalten sind, ist in Bild 21 gezeigt.

Problem Temperaturrekonstruktion

In der Hockeystick-Kurve ist die Temperatur in 0,1 Grad Schritten aufgeteilt und so dargestellt, als wäre die Mittelwertkurve mit ihrer Verlaufsspanne von ca. +- 0,25 Grad sicher ermittelt.

Jedoch: Eine moderne, sorgfältig geeichte elektronische Temperatur-Messstation misst die Temperatur auf +- 0,2 Grad genau. Diese werden seit ca. 1990 … 2000 verwendet. Vorher las man vom Thermometer ab. Es wird angenommen, dass die absolute Messgenauigkeit vor 1980 ungefähr ±1°C betrug und aktuell auch nicht viel besser als ca. +- 0,6 Grad ist [5]. Und dies gilt nur für den gleichen Mess-Standort – nicht für Flächenbetrachtungen.

Proxis müssen immer kalibriert werden. Schon dadurch kann das Ergebnis nicht genauer werden als der des Kalibrierwertes, in der Regel noch mit Temperaturwerten vor 1980 durchgeführt. Dazu kommen noch die Fehler der Kalibrierkette.

Es ist deshalb vollkommen unglaubwürdig, Temperaturen der Vergangenheit im Bereich von +-0,1 Grad bestimmen zu können. Solche systematischen Fehler lassen sich auch nicht durch Mittelung beseitigen, da die dazu nötign Anforderungen an die Datenbasis nicht eingehalten werden.

Um die Problematik zu zeigen, hat der Autor die Hockey-Stick-Kurve und PAGES 2k Projektion auf ein Proxi von Deutschland[6] gelegt (Bild 4). Die Temperaturvariabilität unterscheidet sich mit einem Faktor nahe 10 um eine ganze Größenordnung. Man beachte auch den Unterschied im Jahr 2000.

Proxi Deutschland, Moschen at al[6].

— Spannweite Temperatur: > 10 Grad

— Spannweite Mittelwertkurve ca. 6 Grad

Hockey-Stick (Zeitraum vor 1850):

— Spannweite Temperatur: ca. 1,5 Grad

— Spannweite Mittelwertkurve: ca. 0,4 Grad

Bild 4 Ein Proxi von Deutschland und den Hockey-Stick-Verlauf übereinander gelegt

Quellen: Proxi Deutschland: Moschen at al. 2011, Temperature variability at Durres Maar[6], Hockey-Stick: [9]

Der Verlauf Deutschland und auch der Stand zum Jahr 2000 sind nicht so exotisch wie man meinen könnte. Eine Proxirekonstruktion aus Island und Japan zeigen einen ähnlichen Verlauf. Erkennbar sind jedoch bei diesen beiden Proxis eklatante Zeitverschiebungen und gegensätzliche Max / Min-Verläufe (Bild 5). Gemeinsam ist ihnen eine große Temperaturspanne und das vollkommene Fehlen des Hockey-Stick-Endes.

Bild 5, Proxiverläufe Island [7] und Japan[8]

Quellen: [7] Sicre at al. 2008: Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142. Quelle: Co2Science. [8] Kitagawa at al., Japan, Quelle: Co2Science.

Problem Jahreszeiten- Abhängigkeit

Viele Proxis stammen von Pollen und Baumringen. Sie bilden das Jahr deshalb nicht vollständig ab. Welche enormen Unterschiede sich für das Jahresmittel daraus ergeben können sei indirekt an der folgenden Proxidarstellung welche Sommer und Winter getrennt ausweist gezeigt.

Anmerkung: Diese Rekonstruktion (so sie stimmen sollte) zeigt auch, dass die aktuelle Erwärmung fast vollständig durch wärmere Winter erzeugt wird (die zum Schluss sogar wärmer als die Sommer werden!) – ein eklatanter Widerspruch zur CO2-Theorie. Anmerkung: Dieses Phänomen ist in der Publizierung Das Phänomen der „Temperaturstufen“ [14] ebenfalls gezeigt.

Bild 6[12] Rekonstruktionsverlauf Mitteleuropa getrennt für Sommer, Jahreswert, Winter (vom Autor mit den gestrichelten Linien ergänzt)

Bildtext: Abb. 5.5.: Multi-Proxy-Reihe für Mitteleuropa. Die Reihe ist 31-jährig geglättet. Die grau hinterlegt Fläche zeigt den Fehler, welcher aus der Unsicherheit bei der Indexbildung resultiert. Der Vergleich mit dem Mittel der Sommer und Wintertemperaturen des GMD zeigt eine hohe Übereinstimmung (r=0.9).

Erklärung zum Bild (in der Dissertation):

[12]Bei Betrachtung des Verlaufs der rekonstruierten Temperaturen fällt der Gegensatz zwischen Sommer- und Wintertemperaturen auf. Die Sommertemperaturen weisen eine hohe und konstante mittelfristige Variabilität auf, welche auch in den letzten 50 Jahren keinen auffälligen positiven Trend zeigt. Hingegen weisen die Wintertemperaturen deutlichere Unterschiede sowohl in der Stabilität der Variabilität als auch im langfristigen Verlauf auf

Problem Rauschanteil

Ein weiteres, großes Problem ist der deutlich erkennbare Rauschanteil von Proxiverläufen (Bilder 10 und 11). Dieser ist jedoch schwer zu klassifizieren und in den Auswirkungen zu berechnen, weshalb er – obwohl sehr signifikant – als Einflussgröße nur gestreift wird.

Das Projekt PAGES 2k

Zwischenzeitlich wird eine neue, groß angelegte Rekonstruktion des Temperaturverlaufs der Nordhemisphäre durchgeführt (PAGES 2k-Projekt ) (Bild 7). Diese hat laut den Studienautoren den Hockey Stick neu bestätigt. Prof. Rahmstorf vom PIK berichtete darüber:

Prof. Rahmstorf Paläoklima: Die Hockeyschläger-Debatte:

Vorige Woche haben wir hier die neue Klimarekonstruktion des PAGES 2k-Projekts besprochen, die einmal mehr den Hockeyschläger-Verlauf der Klimageschichte der letzten tausend Jahre bestätigt hat.

Bild 7[9], Hockey-Stick und PAGES 2 k Rekonstruktion

Bildtext: Grüne Punkte zeigen die 30-Jahresmittel (flächengewichteter Mittelwert über die Kontinente) der neuen PAGES 2k-Rekonstruktion. Die rote Kurve zeigt die globale Mitteltemperatur laut HadCRUT4 Messdaten ab 1850 (mit einem 30-Jahresfenster geglättet). Dazu in blau der ursprüngliche hockey stick von Mann, Bradley und Hughes (1999) mit seinem Unsicherheitsbereich (hellblau). Grafik: Klaus Bittermann.

Komischerweise zeigt das PAGES 2k Ergebnis einen noch geraderen Verlauf des Mittelwertes als der Hockey-Stick.

Bei diesem Ergebnis stellt sich die Frage: Ist der Verlauf mit neuen, viel besseren – bedeutet sicher statistisch auswertbaren Daten – generiert und damit genauer, oder wurden die Fehler der Vergangenheit nur wiederholt?

Eine kleine Sichtung soll zeigen, was wahrscheinlicher ist.

Die Urdaten des PAGES 2k-Projektes sind in Excel verfügbar. Der Autor hat daraus örtlich konzentrierte Datensätze zweier Erdteile (Nordeuropa, Südamerika) herausgezogen und gesichtet. Leider sind die Temperaturwerte in den Daten nicht in Grad, sondern unterschiedlichsten Dimensionen angegeben, weshalb nur die Verläufe, aber nicht die Absolutwerte vergleichbar sind.

PAGES 2k Proxivergleich Raum Norwegen, Schweden, Finnland

Aus der Arktis sind die Proxis: ARC_55; 38¸26; 13 dargestellt (Bild 8). Diese repräsentieren einen begrenzten räumlichen Bereich und man sollte erwarten, dass sie deshalb ähnliche Verläufe zeigen.

Bild 8 Proxis Bereich Arctic ARC_55; 38¸26; 13 des PAGES 2k Datensatzes vom Autor übereinander gelegt. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben.

Jedoch erkennt man in Bild 8 stattdessen deutliche Zeitverschiebungen und teils gegensätzliche Verläufe, zudem große Streuungen. Bildet man die Mittelwerte, sind natürlich die Streuungen verschwunden. Dafür werden die anderen Probleme deutlicher (Bild 9).

Ersichtlich ist, dass über erhebliche Zeitabschnitte keine vernünftige Korrelation besteht. Das kann man sich bei Datensätzen aus der gleichen Gegend aber schwer vorstellen.

Bild 9, Mittelwerte aus Bild 8 (Proxis des Projekt PAGES 2k Datensatzes ARC_55; 38¸26; 13) vom Autor übereinander kopiert. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben und wurden vom Autor verschoben.

Detailsichtung der Datensätze Arktik ARc_34 und ARc_36 aus der gleichen Gegend von Grönland

Die Datensätze ARc_34 und ARc_36 (Eisbohrkern-Daten) wurden vom Autor auf gleiche Spannweite und den Endwert 0 (im Jahr 1973) normiert. Bild 10 zeigt die sich ergebenden Proxiverläufe.

Bild 10 Proxi ARc_34 (blau) und ARc_36 (rot) (beides Eisbohrkern-Daten) des PAGES 2k Datensatzes. Normiert auf gleiche Spannweite und Endwert 0 im Jahr 1973

Im folgenden Bild sind normalverteilte Zufallszahlen dargestellt. Die Ähnlichkeit mit den vorhergehenden Proxi-Bildern ist verblüffend.

Bild 11 Bild normalverteilter Zufallszahlen

Bild 12 zeigt zusätzlich die Mittelwerte und Regressionsgeraden. Im Bild sieht man, dass die Kalibrierungen zum Jahr 1973 nicht übereinstimmen, denn die Mittelwertkurven und Regressionsgeraden haben zueinander einen erheblichen Offset. Die zugefügte Mittelwertkurve aus den Zufallswerten von Bild 11 (braun) zeigt eine fast identische Verlaufscharakteristik (vor allem zur blauen Proxikurve), womit die Wahrscheinlichkeit dass die Proxis im Wesentlichen Rauschen darstellen erhärtet wird.

Bild 12 30-Jahre Mittelwerte der Proxis ARc_34 (blau) und ARc_36 (rot) des PAGES 2k Datensatzes. Normiert auf gleiche Spannweite und Endwert 0 im Jahr 1973. Zugefügt eine Mittelwertkurve normalverteilter Zufallswerte (braun) mit gleicher Auflösung und entsprechend der blauen Kurve schief gestellt

Doch auch die Übereinstimmung der Mittelwertverläufe selbst ist desaströs (Bild 13). Eine Übereinstimmung welche einen Münzwurf überschreitet (K >= +0,5) besteht nur für 42 % des Zeitraums, eine vollständig negative Korrelation (K < 0) besteht für 27 % des Zeitraumes.

Bild 13 Korrelationsverlauf der 30-Jahre Mittelwerte der Proxis ARc_34 und ARc_36 (Bild 9.2) des PAGES 2k Datensatzes vom Jahr 613 – 1973

Aussagen des Korrelationskoeffizienten:

Koeffizient = +1: Übereinstimmung

Koeffizient = +0,5: Übereinstimmung entspricht einem Münzwurf (50 %)

Koeffizient = 0: Keinerlei Übereinstimmung

Koeffizient = -1: genau entgegengesetzte Übereinstimmung

Beispiele Kontinental-globaler Proxisammlungen

Bevor noch weitere Detailsichtungen erfolgen, eine Übersicht wie es aussieht wenn alle Proxiverläufe eines Kontinentes gemeinsam dargestellt sind.

Über einen WEB-Viewer „Aktive viewer for the Pages 2K Proxis“ lassen sich die PAGES 2k Daten direkt ansehen. Daraus beispielhaft der Proxiverlauf der gesamten Arktis (Bild 14) und Nordamerika (Bild 14.1). Man sieht auch ohne Statistik, dass diese Bilder keinen globalen Klimaverlauf sondern ein Chaos durch Proximängel zeigen.

Dazu die einfache Frage: Welche Statistik soll daraus den wirklichen Verlauf extrahieren? Ein stur berechneter Mittelwert erzeugt jedoch immer einen mehr oder weniger geraden Strich. Und dieser Strich wird um so „gerader“, je mehr solch unbrauchbare Datensätze „zusammen gepackt“ werden. Durch das Erhöhen der Anzahl Proxis wird rechnerisch der Mittelwert immer genauer (die Vier-fache Probenmenge verdoppelt die Genauigkeit), wie es viele Rekonstruktionen stolz ausweisen – in Wirklichkeit wird es aber schlechter, weil die fehlende Datenintegrität nur Rauschen zufügt und das „Wissen“ über die Grundgesamtheit nicht verbessert, sondern „verwässert“.

Bild 14 Alle Proxis Arctic des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Nun der „Spaghettiverlauf“ von Nord-Amerika. Auch hier das identische Problem (Bild 11).

Bild 14.1 Alle Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Bild 14.2 Liste aller Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

PAGES 2k Proxivergleich Raum Südamerika Westküste

Das Vorgehen zur orientierenden Analyse von Arktisdaten nun wiederholt für Proxis aus Süd-Amerika. Die ausgewählten drei Samples stammen alle aus dem mittleren Bereich der südamerikanischen Westküste. Die Datensätze SAm_1;_2 stammen sogar vom gleichen Eisfeld. Die Klimaverläufe (SAm_1;_2) wurden jedoch nach unterschiedlichen Verfahren ermittelt.

SAm_1 Quelccaya Peru Ice-Core, Verfahren accumulation

SAm_2 Quelccaya Peru Ice-Core, Verfahren δ180

SAm_3 Laguna Aculeo Chile, Verfahren Lake sediment

Bild 15 Proxis Bereich Südamerika SAM_1, SAM_2¸ SAM_3 des PAGES 2k Datensatzes vom Autor übereinander gelegt. Zeitachse genau, die Vertikalachsen sind nicht in vergleichbaren Maßstäben.

Wieder zeigen sich erhebliche Zeitverschiebungen, teils gegensätzliche Verläufe und große Streuungen. Im übereinander gelegten Verlaufsbild der Mittelwerte (Bild 16) erkennt man es noch deutlicher.

Bild 16 Proxis des PAGES 2k Datensatzes SAM_1; 2¸ 3 vom Autor übereinander kopiert. Mittelwerte (von Bild 15), Zeitachse genau, die Vertikalachsen sind in den Originalen nicht in vergleichbaren Maßstäben und wurden vom Autor deshalb auf eine ungefähr gleich große Spanne verschoben.

Bild 17 zeigt den Datensatz SAm_2 im Original ohne verbindende Linien. Wieder besteht der große Verdacht, dass der Datensatz im Wesentlichen aus Rauschen besteht.

Bild 17 Proxi SAm_2 des PAGES 2k Datensatzes

Detailsichtung der Datensätze Südamerika SAm_1 und SAm_2 vom gleichen Eisfeld

Die Datensätze SAm_1 und SAm_2 wurden vom Autor auf gleiche Spannweite und den Endwert 0 (im Jahr 1995) normiert. Bild 18 zeigt die sich ergebenden Mittelwertverläufe und Regressionsgeraden.

Es zeigt sich:

— Die Mittelwerte verlaufen teils über mehrere Hundert Jahre gegensätzlich

— Die Regressionsgeraden ergeben für SAm_1 (schwarz) einen minimalen Anstieg , für SAm_2 (rot) einen deutlichen Temperaturabfall.

Bild 18 Mittelwert (n = 30 Jahre) SAm_1 (schwarz) SAm_2 (rot). Regressionsgeraden SAm_1 (schwarz) SAm_2 (rot)

Die Korrelationskurven der beiden Mittelwertverläufe zeigt Bild 19. Zwischen den beiden Kurven besteht weder im 30 Jahre noch im 100-Jahre-Intervall und nicht einmal in der jüngeren Zeit eine längere Korrelation über dem „Münzwurfwert“ + 0,5. Für über 50 % der Zeit besteht sogar ein gegensätzlicher Verlauf.

Korrelationen innerhalb des 30-Jahre Intervalls (Bild 19):

K >= 0,5 16 % des Zeitraums

K < 0 53 % des Zeitraums

Es besteht deshalb mehr als der Verdacht, dass die Proxis im Wesentlichen nur Rauschen darstellen.

Bild 19 Korrelation der 30-Jahre Mittelwertkurven von SAm_1 / SAm_2 über die Zeitabschnitte 30 Jahre (grün) und 100 Jahre (braun).

Zuletzt noch das Gesamtbild aller Proxis Südamerika (Bild 20). Auch darin sind wieder vollkommen gegensätzliche Verläufe und Zeitverschiebungen erkennbar.

Bild 20 Alle Proxis SAmerica des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Damit wiederholend die Feststellung:

Entweder gab es auch in diesem begrenzten Bereich von Südamerika kein einheitliches Klima – was unwahrscheinlich erscheint – oder die Proxis spiegeln es einfach nicht wieder.

Auch in dieser Gegend kann man leicht belegen, dass Proxis der gleichen Gegend (hier sogar vom gleichen Eisfeld) vollkommen gegensätzliche Klimaverläufe anzeigen und extrem fehlerbehaftet sein müssen – sich sogar die Frage stellt, ob sie überhaupt einen Klimaverlauf wiederspiegeln.

Zwei Proxis aus der gleichen Höhle in Afrika

als ein Beispiel für eklatante Proxi-Zeitfehler.

In zwei Studien welche im MWP-Projekt von CO2SCIENCE verwendet (und gemittelt) wurden:

[2] Tyson at al., Cold Air Cave, Makapansgat Valley, South Africa und

[1] Holmgren at al. Cold Air Cave, Makapansgat Valley, South Africa

ist jeweils eine Proxirekonstruktion aus der gleichen Höhle gelistet. Legt man diese zwei Rekonstruktionen aus den Studien übereinander zeigt sich das Bild 21. Man könnte meinen, die Höhle hat gleichzeitig zwei vollkommen verschiedene Klimate erlebt. Auf jeden Fall wird das Ergebnis durch Mitteln (was in dem Projekt erfolgte) niemals richtig.

Bild 21 Zwei Proxis [1][2] aus der Höhle Makapansgat Valley, South Africa vom Autor im angegebenen Zeitmaßstab übereinander platziert

Komprimiert man allerdings die Zeitachse der Proxirekonstruktion aus [2] um ca. 300 Jahre!, dann werden beide Verläufe deckungsgleich (Bild 22). Ein exemplarisches Beispiel für teils extreme Probleme der Zeitzuordnungen und leider dem extrem laschen (eher sträflichen) Umgang damit.

Bild 22 Proxis [1][2] von Bild 16. Proxi [2] vom Autor zeitlich komprimiert und dadurch mit [1] in Deckung gebracht

Dazu bedenke man, dass im Projekt aus den Daten von Bild 21 durch Mitteln ein „wahrscheinlicher Verlauf“ „ermittelt“ wurde – der wie gezeigt jedoch vollkommen falsch ist. Und solche Verschiebungs- Konstellationen sind ein häufiger Fall.

Fazit PAGES 2k Projekt

Es ist erkennbar, warum das Projekt PAGES 2k die Hockeystick-Kurve bestätigen muss. Es wurden auch bei der Wiederholung gleich ungeeignete Datensätze und statistische Verfahren verwenden. Damit muss das gleiche Ergebnis – eine ziemlich linear verlaufende Mittelwertkurve – herauskommen. Da nutzt es nichts, dass zum Projekt 79 Haupt-Autoren gelistet sind.

Auch die Darstellung bei RealClimate dazu kann der Autor nicht teilen und würde anstelle des dort zustimmenden „ … forward“ ganz konkret ein desaströßes „ … backward“ sagen:

RealClimate: The PAGES-2k synthesis, Guest commentary by Darrell Kaufman (N. Arizona U.)

…In a major step forward in proxy data synthesis, the PAst Global Changes (PAGES) 2k Consortium has just published a suite of continental scale reconstructions of temperature for the past two millennia in Nature Geoscience.“

Dazu ein leicht angepasster Statistikseminar-Einsteigerwitz:

Patient steht mit einem Fuß in kochendem Wasser und mit dem anderen im Trocken-Eis. Der Computer berechnet mit höchster Signifikanz, dass sich der Patient im Mittel pudelwohl fühlt und die Standardabweichung dazu sehr gering sei. Kurz darauf stirbt der Patient. Ein Klimawissenschaftler folgert nun: Die Standardabweichung war noch zu groß. Mit mehr Probanden wird sie aber kleiner und sie fühlen sich immer signifikanter pudelwohl.

Merkt das niemand?

Doch, natürlich. Aber es wird ignoriert – da man keine Lösung hat. Die richtige Lösung: Zugeben, dass man falsch angefangen hat und unbedingt neu aufsetzen müsste – ist politisch derzeit nicht vorstellbar. Es wäre auch ein schlimmes Desaster – nicht nur für die beteiligten Wissenschaftler.

Man geht da doch lieber in die Offensive und verkauft weiterhin sogar solche offensichtlichen Mängel und Fehler als Erfolg und heftet sich (noch kurz vor dem Untergang?) möglichst viele Orden an die Brust, Nobelpreis-Aspiranz gleich inbegriffen, Beispiele:

Prof Rahmstorf mit seinem uneingeschränkten Lob zum PAGES 2k Ergebnis „Paläoklima: Die Hockeyschläger-Debatte“ und Klimaretter.Info „Einen Nobelpreis für James Hansen!

Prof Rahmstorf in „Paläoklima: Die Hockeyschläger-Debatte“: In der Fachwelt gelten die Arbeiten von Mann et al. als hoch respektierte Pionierleistung (die Forscher erhielten eine Reihe von Preisen, Mann und Bradley z.B. beide die Oeschger-Medaille der European Geosciences Union).

Nur selten werden Hinweise auf Probleme publiziert. Ein positives Beispiel ist die zu einer Studie des Alfred Wegener Instituts – deren Kommentierung jedoch schon fast einer Bankrotterklärung entspricht:

[11] NEUE STUDIE ZEIGT ERHEBLICHE DIFFERENZEN ZWISCHEN KLIMAARCHIVEN UND KLIMAMODELLENDas Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht.

Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.

Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.

Ein Kommentar aus einem Blog zum PAGES 2k Datensatz zeigt, dass nicht nur der Autor (und vielleicht ein paar politisch nicht ausreichend umgeschulte Forscher des AWI) die Datensätze und das statistische Vorgehen als ungeeignet betrachten:

Blog: RealClimate, The PAGES-2k synthesis

Kommentar

To my eye, flipping between the proxies from a given region shows there to be lots of noise both within a given series and between any pair of series. This is very evident for the various ‘CAN composite’ series, which from Nick’s map appear to be geographically close together. When I spend some time flipping between these it is really impossible for me to say with any confidence that they are measures of the same thing – whatever that thing might be – and that if they are then the signal to noise ratio is miniscule.

If I had a student who brought data like this to me along with a statistical analysis I would send him back to the lab to get better data. Paleoclimate studies can’t do this, of course, but I’m wondering if it would at least be worthwhile to calculate correlations between proxies absent any underlying assumptions in order to assess whether the data has any value.

For example, wouldn’t one expect all the geographically close ‘CAN composite’ series to be more similar to each other than they are to, say central Asia? Shouldn’t it be a requirement that this be true before going ahead and throwing it into the mix? Otherwise it seems to me that garbage is being mixed with what is already a very small signal and I can’t see any good coming of that.

If I had to give an overall impression of the state of progress of paleoclimate reconstructions over the past 15 years I would say that it largely consists of taking more and more data and dumping it into ever more elaborate statistical procedures in the hope that a silk purse will emerge. It’s not at all clear to me that we wouldn’t be better off going back a step and trying to improve the data.

[Übersetzung von Chris Frey: Meiner Ansicht nach zeigt das Hin- und Herschwingen zwischen Proxys einer bestimmten Regioneine Menge Rauschen erzeugt, sowohl in einer gegebenen Einzelreihe als auch in jedwedem Satz von Reihen. Dies ist sehr offensichtlich bei den verschiedenen ,CAN-Komposit-Reihen‘ der Fall, welche Nicks Graphik zufolge geographisch nahe beieinander zu liegen scheinen. Wenn ich eine Weile zwischen diesen hin- und herschalte, ist es mir wirklich unmöglich, mit einiger Sicherheit zu sagen, dass es Messungen der gleichen Sache sind – was auch immer diese Sache sein mag – und falls das so ist, dann ist das Signal im Verhältnis zum Rauschen minimal.

Falls mir ein Student mit einer Analyse wie dieser unterkommen würde, , würde ich ihn in sein Laboratorium zurückschicken, um bessere Daten zu bekommen. Mit paläoklimatischen Studien geht das nicht, aber ich frage mich, ob es nicht zumindest wert ist, Korrelationen zu berechnen zwischen Proxys, denen jedwede zugrunde liegende Hypothese fehlt, um abzuschätzen, ob die Daten überhaupt von Wert sind. Beispiel: Würde man nicht erwarten, dass alle geographisch benachbarten ,CAN-Reihen‘ miteinander ähnlicher sind als beispielsweise mit Zentralasien? Sollte nicht die Notwendigkeit bestehen, bevor man weitergeht und alles in den Mix hineinwirft? Anderenfalls scheint mir , dass Müll mit etwas vermischt wird, dass bereits nur ein sehr geringes Signal ist, und ich kann daran nichts Gutes finden.

Falls ich einen Gesamteindruck des Status‘ des Fortschritts bei paläoklimatischen Rekonstruktionen während der letzten 15 jahre geben müsste, würde ich sagen, dass dieser Status im Wesentlichen gekennzeichnet ist durch das Sammeln von immer noch mehr Daten und diese mit immer weiteren statistischen Verfahren zu bearbeiten – in der Hoffnung, dass sich irgendetwas zeigt. Mir ist in keiner Weise eingängig, warum es nicht besser wäre, einen Schritt zurückzugehen und bessere Daten zu bekommen versuchen.]

Antwort des Admin

[Response: And what specific suggestions for “improving the data” do you have in mind? It is worth noting that in my experience, the correlation among weather station data is no higher than among similarly spaced paleoclimate data. To me, this says that the paleoclimate data quality if just fine– and that the noise is in regional vs global climate, not the quality of the proxies themselves. In short, we need more data, not “better” data (though better is fine, obviously). Getting more data, of course, it exacty what the authors of the PAGES 2k paper are trying to do.–eric]

[Übersetzung von Chris Frey: Erwiderung: Und welche spezifischen Vorschläge zur „Verbesserung der Daten“ schweben Ihnen vor? Man muss sagen, dass meiner Erfahrung nach die Korrelation unter den Daten von Wetterstationen nicht höher ist als unter ähnlich gelagerten paläoklimatischen Daten. Ich schließe daraus, dass die Qualität der paläoklimatischen Daten einfach gut ist – und dass das Rauschen dem Unterschied zwischen regionalem und globalem Klima geschuldet ist und nicht der Qualität der Proxys selbst. Kurz gesagt, wir brauchen mehr Daten, nicht „bessere“ Daten (obwohl natürlich ,besser‘ sehr schön wäre). Und mehr Daten zu erhalten ist natürlich genau das, was die Autoren der PAGES 2k-Studie versuchen.]

Kommentierung

Bei der Antwort des Admin bleibt einem wirklich „die Spucke weg“. Weil die Daten von Temperatur-Messstationen genau so wenig übereinstimmen (wie Proxidaten) müssen es Proxidaten auch nicht. Dazu die Aussage, nicht die Daten müssen genauer werden, sondern man benötigt eben mehr (schlechte). Und die Bestätigung, dass dies das Vorgehen im Projekt PAGES 2k bestimmt (hat).

Dabei macht der Admin genau den im Artikel angesprochenen Fehler:

— Bei den Temperaturmessungen hat man eine Genauigkeit, bei der eine größere Abdeckung durch mehr Messstellen die bisherige Ungenauigkeit globaler Kurven verringert.

— Bei den Temperaturproxis ist die erforderliche Basisgenauigkeit, Datenhomogenität, Zeitzuordnung und Rauschfreiheit nicht gegeben, so dass mehr Proxis kein besseres Ergebnis, sondern nur eine immer geradere, falsche Kurve liefern können.

Nachtrag

Als Bonmot noch eine Darstellung, was jemand der für die CRU-Datensammlung eingesetzt wurde über die Datenqualität in Mails sagte. Es könnte vom Autor stammen, dem es bei seinen Recherchen ganz genau so geht. Denn es ist wirklich so: Die Datenqualität – ob Temperaturdaten, Proxis oder Meeresspiegel – ist weltweit einfach nur grottenschlecht. Entsprechend sind es auch die Zukunfts-Projezierungen „Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel“

Es wäre alles kein Problem – wenn diese Mängel und offensichtlichen Fehler nicht das Geld der Bürger kosten würden.

CRU: Datensammlung oder Datenmüll?

Quelle: ScienceSkepticalBlog, 16. Januar 2010: Ilmastogate – Finnische Doku zu Klimagate mit deutscher Übersetzung

Eine wichtige Aufgabe der CRU ist die Pflege der Daten und des Computer-Codes zur Berechnung der globalen Durchschnittstemperatur. Es ist dieses Material, dass Jones so standhaft vor externer Überprüfung geschützt hat. Die bekannt gewordenen Dokumente enthüllen jetzt einen möglichen Grund für die Geheimhaltung. Die wissenschaftlichen Daten und der Computer-Code im Zentrum der Weltpolitik sind in einem Zustand, dass sie nicht einmal für Leute zu entschlüsseln sind, die verantwortlich für die Pflege der Daten sind. Vor kurzem wurde junger Computer Programmierer, genannt Harry, eingestellt um das Chaos in Ordnung zu bringen. Harrys genervte Anmerkungen sind jetzt für die Öffentlichkeit verfügbar (Anm.: Der im Original hier eingestellte Link verweist nicht mehr auf die richtige Fundstelle).

OH VERF****. Es ist Sonntag Abend, ich habe das gesamte Wochenende gearbeitet, und gerade als ich dachte, ich wäre fertig, finde ich schon wieder ein neues Problem. Es gibt keine einheitliche Datenintegrität. Es ist eine einzige Ansammlung von Problemen die anwachsen sobald man sie gefunden hat.“

Es ist genau ebendiese Datenbank, welche Harry so verflucht, mit der die Welt-Mitteltemperatur ermittelt wird, die im 20. Jahrhundert um 0,7 °C angestiegen sein soll. Diese Daten sind auch wichtig für die Zukunft. Die Computermodelle zur Vorhersage eines zukünftigen Anstiegs der Globaltemperatur werden mit Hilfe dieser CRU-Statistik getestet und kalibriert. Wenn sie in der Lage sind, den Anstieg im letzten Jahrhundert zu reproduzieren, wie er von der CRU konstruiert worden ist, sollen sie angeblich in der Lage sein, das Klima bis zum Ende des 21. Jahrhunderts vorhersagen zu können.

Quellen

[1] Holmgren, K., Tyson, P.D., Moberg, A. and Svanered, O. 2001. A preliminary 3000-year regional temperature reconstruction for South Africa. South African Journal of Science 97: 49-51.

[2] Tyson, P.D., Karlen, W., Holmgren, K. and Heiss, G.A. 2000. The Little Ice Age and medieval warming in South Africa.  South African Journal of Science 96: 121-126.

[3] ScienceScepticalBlog, 12. Oktober 2013 : Der Hockeystick: Rise and Fall des Symbols für den menschgemachten Klimawandel

http://www.science-skeptical.de/klimawandel/der-hockeystick-rise-and-fall-des-symbols-fuer-den-menschgemachten-klimawandel/0010940/

[4] itsnotnova: Nova’s Warm Period https://itsnotnova.wordpress.com/2012/09/03/novas-warm-period/

[5] EIKE, 26.04.2016: Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

http://www.eike-klima-energie.eu/news-cache/systematischer-fehler-bei-klimamessungen-die-aufzeichnung-der-lufttemperatur-an-der-erdoberflaeche/

[6] Moschen at al. 2011, Temperature variability at Durres Maar

Moschen et al. present "a high resolution reconstruction of local growing season temperature anomalies at Durres Maar, Germany [50°52’N, 6°53’E], spanning the last two millennia

[7] Sicre at al. 2008: Decadal variability of sea surface temperatures off North Iceland over the last 2000 years. Earth and Planetary Science Letters 268: 137-142. Quelle: Co2Science

[8] Kitagawa at al. 1995: Climatic implications of δ13C variations in a Japanese cedar (Cryptomeria japonica) during the last two millennia. Geophysical Research Letters 22: 2155-2158. Bildquelle: Co2Science.

[9] SciLogs 23. Mai 2013 von Stefan Rahmstorf in Klimadaten: Paläoklima: Die Hockeyschläger-Debatte

http://www.scilogs.de/klimalounge/palaeoklima-die-hockeyschlaeger-debatte/

[10] ScienceSkepticalBlog, 16. Januar 2010: Ilmastogate – Finnische Doku zu Klimagate mit deutscher Übersetzung

[11] kaltesonne 22. November 2014: Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

http://www.kaltesonne.de/neue-awi-studie-zeigt-erhebliche-differenzen-zwischen-klimaarchiven-und-klimamodellen/

[12] Riemann, Dirk 2010, Dissertation: Methoden zur Klimarekonstruktion aus historischen Quellen am Beispiel Mitteleuropas

[13] SciLogs, Prof. Rahmstorf 17. Juni 2013: Paläoklima: Das ganze Holozän

[14] EIKE 06.11.2015: Langfrist-Temperaturverläufe Deutschlands: Das Phänomen der „Temperaturstufen“

http://www.eike-klima-energie.eu/news-cache/langfrist-temperaturverlaeufe-deutschlands-das-phaenomen-der-temperaturstufen/




Der lange Marsch in die große Pleite

Als das Angstmachen professionalisiert wurde…

Es gibt ein Datum für den Beginn des Einsatzes der Angst vor angeblichen Umweltkatastrophen als staatliches politisches Instrument in Deutschland: Es ist der 22.Oktober 1969.

An diesem Tage nahm das Kabinett Brandt I seine Arbeit auf – und Vizekanzler Genscher (FDP), der das Innenministerium übernahm, brachte einen Vertrauten mit und ernannte ihn zum beamteten Staatssekretär: Günter Hartkopf. Dieser für sein „ökologisches Engagement“ bekannte Mann hatte damit eine Schlüsselstellung gefunden, in der er während seiner knapp 14 Dienstjahre im BMI nahezu unbemerkt, dabei höchst effektiv und fast immer am Parlament vorbei die Gründung und Unterstützung von Hunderten von Bürgerinitiativen und Umweltgruppen betrieb. Er lenkte ebenfalls Steuergelder in Institute und ihm genehme Wissenschaftsbetriebe.

Sein Ziel war der Aufbau einer unüberwindbaren ministerialen Gegenmacht zur Wirtschaft, die er als ständig bremsendes Hindernis bei der Verschärfung von Umweltstandards und Grenzwerten und im Grunde als seinen Feind ansah.

Dazu benötigte er eben nicht nur eine dafür ausgerüstete und starke Verwaltung, sondern auch eine mächtige Unterstützerlobby im Außenraum, die er sich mit den von ihm finanzierten Umweltverbänden selbst geschaffen hatte.

Originalton Hartkopf: „Nachdem zu Beginn der eigentlichen bundesdeutschen Umweltpolitik eine solche potente Gegenseite (Anm.: zur Wirtschaft) nicht vorhanden war, musste sie geschaffen werden….Es waren vorwiegend Beamte (Anm.: seine eigenen), die den Grundstein für die Arbeitsgemeinschaft für Umweltfragen legten und sie mit Leben und sachlichen Mitteln ausstatteten….Doch die Arbeitsgemeinschaft für Umweltfragen ist kein umweltpolitischer Kampfverband. Weil ein solcher fehlte, musste er eben gebildet werden. Es waren wiederum Beamte, die den Plan vorwärts trieben, örtliche Bürgerinitiativen zu einem Dachverband zusammenzuschließen, und die Gründungsversammlung und noch einiges zu finanzieren.“

Dass diese Finanzierungen aus Steuermitteln jemals vom Bundestag in seinen Haushaltsberatungen akzeptiert worden wären, ist nicht vorstellbar.

In einem 1986er Vortrag in Bad Kissingen zog er stolz Bilanz und verwies auf das bis dahin geschaffene Potenzial: Zitat: „Eine Mitgliedschaft von rund vier Millionen Bürgern kann jederzeit mobilisiert werden (!) und bildet daher ein beachtliches Potenzial, an dem die Politik nicht vorbeigehen kann.“

Hartkopf konnte sich auch als Initiator der Menschenmanipulation mittels der Medien rühmen und sprach in seinem Vortrag stolz von „Tendenzinformationen, mit denen die Zeitungsmacher gefüttert wurden“. Er verwies auf die Masse der zur Glaubwürdigkeitssteigerung gezielt erzeugten Berichte in Wissenschaftsjournalen, die nach Hartkopf „aus der Feder von Beamten stammen, wenn man die Veröffentlichungen von Professoren und ihren beamteten Mitarbeitern an Unis mit einbezieht.“ Mit dieser Veröffentlichungs-Welle werde die widerspenstige Wirtschaft mundtot gemacht. Zitat: „Die Fülle der substanziellen Fachartikel ist so groß, dass die Wirtschaft weder von der Menge noch von der Qualität mithalten kann.“ Als einzelne Bundesländer in den 70er Jahren versuchten, überzogene Grenzwerte abzuschwächen, wurden sie nach Hartkopfs Aussage „mithilfe der Medien wegadministriert.“

Dieser unauffällige FDP-Mann, dessen jeweilige Chefs – Genscher, Maihofer, Baum (alle FDP), Schmude (SPD) und Zimmermann (CSU) – anscheinend nie bemerkten, was er mit großem Einsatz und Steuergeld so alles trieb, war der Urvater und Züchter des deutschen Angst- und Ökowahns, den wir heute zum Gespött des Auslands mit über 20 Milliarden Euro jährlich allein für den „Klimaschutz“ bezahlen dürfen.

Dass heute Hunderte von Bürgerinitiativen gegen eine umweltzerstörende Politik – nicht der Wirtschaft, sondern der Regierung – kämpfen, ohne von Beamten „mit sachlichen Mitteln ausgestattet“ zu werden, ist eine traurige Ironie der Geschichte.

Staatssekretär Hartkopf erhielt nach seinem Ausscheiden aus dem Dienst das Große Bundesverdienstkreuz mit Stern und Schulterband. 

Hartkopfs zweiter großer Trumpf, die von ihm hoch gelobte effiziente und mit überlegenem know-how ausgestattete Verwaltung – insbesondere die der Bundesministerien – ist allerdings  inzwischen zerfallen. So hat das Wirken von Jürgen Trittin als Bundesumweltminister im Kabinett Schröder I (10.1989-10.2002) und Schöder II (10.2002-10.2005) zu einem fast totalen Kahlschlag bei den Fachleuten im BMU geführt, die durch grüne Aktivisten aus den Ökoinstituten ersetzt wurden. Die Mitleid erregenden, zwar ideologisch korrekten aber z.T. selbst der Physik widersprechenden Gesetze und Verordnungen aus diesem Haus, die der Energiewende und dem „Klimaschutz“ dienen sollten, sind eine Folge dieses Fachleute-Exorzismus‘.

Dass hierbei auch das stets beteiligte Bundeswirtschaftsministerium nur eine lange Geschichte des Versagens beisteuern konnte, liegt an der FDP. Diese Partei schaffte es, das BMWi vom Kabinett Brandt II (ab 15.12.1972) bis zum Ende des Kabinetts Kohl V (26.10.1098) ganze 16 Jahre ununterbrochen zu halten.

In den Regierungen Schröder I und II sowie Merkel I (Ende 28.10.2009) saß die FDP nicht; jedoch  in der Regierung Merkel II (28.10.2009 – 22.10.2013) besetzte sie wieder das BMWi mit Brüderle (bis Mai 2011) und danach Rösler. Das waren zusammen 20 Jahre seit 1972, in denen die FDP eine kompromisslose, allein auf die Unterbringung von Parteimitgliedern ausgerichtete Personalpolitik betrieb. Dass dabei die fachlichen Qualifikationen erst in zweiter Hinsicht eine Rolle spielten, schwächte dieses Ressort zunehmend. Der Einfluss dieses einst wichtigen Ministeriums in der Regierung, das schließlich einst von Ludwig Erhard und Karl Schiller geleitet wurde und in den 7 Jahren der Regierungen Schröder unter ihren Chefs Werner Müller und Wolfgang Clement die schweren Defizite nicht mehr beheben konnte, wurde unbedeutend – man brauchte es nicht mehr ernst zu nehmen. Das BMWi war nicht mehr in der Lage, der Ideologen-Mannschaft des BMU wirksam zu begegnen. 

Den Tiefpunkt erreichte dieses Ressort unter Rösler, als es der Forderung der Offshore-Lobby nachgab und das Gesetz zur Übernahme der finanziellen Haftung bei Verzögerungen und anderen Problemen der Windparks durch die Stromverbraucher formulierte, vorlegte und verabschiedete: Eine planwirtschaftliche Todsünde, die nicht nur den Niedergang dieses einst die Marktwirtschaft verteidigenden Ressorts, sondern auch den Niedergang der FDP deutlich machte. 

Man hätte nun annehmen können, dass zumindest das Bundesfinanzministerium BMF angesichts der Aussicht auf schwerste Schäden für die Wirtschaft sowie eine viel höhere Belastung der Bürger durch die Strompreise – also stark sinkende Steuereinnahmen – irgendwann die Notbremse ziehen musste. Aber das Gegenteil ist der Fall: Das BMF ist bislang einer der größten Profiteure der Strangulierung von (konventionellen) Stromerzeugern und         -Verbrauchern, weil eine ganze Serie von Steuergesetzen (siehe Kap.8) eine riesenhafte Einnahmequelle darstellt – allen voran die Stromsteuer und die Mehrwertsteuer, die auf alles noch obendrauf kommt. Damit finanzieren die Regierungen den Sozialstaat, ebenso wie sie von den enormen Einnahmen, die den privaten Autofahrern mit diversen Steuern abgenommen werden, schon immer einen beträchtlichen Anteil zweckentfremdet haben.

Das Bundesfinanzministerium beschleunigt also den Niedergang der Wirtschaft aus kurzfristigem Einnahmeinteresse. Was ohne eine deutliche Kursänderung in 10 oder 15 Jahren passiert, interessiert dort niemand. 

Auch das Erneuerbare-Energien-Gesetz (EEG), mit dessen desaströsen Auswirkungen sich hier mehrere Kapitel beschäftigen, ist nicht erst von der Großen Koalition erfunden worden; auch nicht in der Ära Trittin (1989 – 2005), sondern es wurde als „Gesetz über die Einspeisung von Strom aus erneuerbaren Energien in das öffentliche Netz“ am 7.12.1990 von der Regierung Kohl III beschlossen und galt seit 1991. Umweltminister war Töpfer und Bangemann Wirtschaftsminister.

Es wurde danach von den 7 folgenden Bundesregierungen immer weiter ausgebaut und „verbessert“: Seit März 2000 hieß es dann EEG und enthielt die bedeutenden „Verbesserungen“ der Einführung des Vorrangprinzips, eines bundesweiten Wälzungsmechanismus und einer starken Anhebung der Vergütungssätze für die Photovoltaik – also starke Beschleunigungselemente für die Fahrt in die wirtschaftliche Katastrophe. Und das waren jetzt  tatsächlich die üblichen Verdächtigen Schröder und Trittin, die vermutlich noch heute darauf stolz sind.

Als die Probleme zunahmen,  befassten sich die späteren Regierungen zunehmend mit verschlimmbessernden Reparaturmaßnahmen, gaben das groteske Vorhaben aber nicht auf. Und so wird es weitergehen, bis der angerichtete Schaden vollends untragbar geworden ist. 

Mit diesen Ausführungen soll deutlich gemacht werden, dass die Ursachen für die jetzige Situation, in der die Regierung scheinbar ratlos, hilflos und unter dem Spott des Auslands auf die Zerstörung der deutschen Energiewirtschaft zusteuert, während sie sich mit längst widerlegten Ausreden zu rechtfertigen versucht, eine lange Vorgeschichte haben. Hartkopfs größte Hinterlassenschaft – die Angst als politisches Instrument – ist nach wie vor präsent.

Selbstverständlich tragen auch einige der bekannten Politiker aus der jüngeren Vergangenheit und  Gegenwart – stellvertretend seien Merkel, Trittin, Töpfer, Gabriel und Rösler genannt – Schuld am jetzt erreichten Zustand.  Aber das Problem hat wesentlich tiefer gehende Wurzeln.




Gavin Schmidt und seine „Trickserei“ mit Referenz-Perioden

Schmidt erhob alle Vorwürfe, die er schon zu oft zuvor erhoben hatte:

@curryja use of Christy’s misleading graph instead is the sign of partisan not a scientist. YMMV. tweet;

@curryja Hey, if you think it’s fine to hide uncertainties, error bars & exaggerate differences to make political points, go right ahead.  tweet.

[Übersetzung extra, weil ich nicht weiß, ob diese links erhalten bleiben: Der Gebrauch von Christys irreführender Graphik ist ein Zeichen dafür, dass er ein Partisan und kein Wissenschaftler ist.

Falls Sie glauben, dass es in Ordnung ist, Unsicherheiten und Fehlerbalken zu verstecken sowie Differenzen zu übertreiben, dann machen Sie einfach weiter.]

Als Folge hiervon hat sich Curry entschlossen, Christys Graphik nicht bei ihrem jüngsten Vortrag vor einem Komitee des Kongresses zu zeigen. Im heutigen Beitrag möchte ich die Validität von Schmidts Kritik untersuchen (oder das Fehlen derselben).

Soweit ich das verstehe, ging es bei Schmidts primärem Streit darum, dass Christy seine Modell- und Beobachtungsdaten so aufbereitet hatte, dass sie beide im Jahre 1979 ihren Ausgang nahmen, also dem Beginn der Satelliten-Ära. Dieses Verfahren zeigt (offensichtlich) eine größere Diskrepanz am Ende des Zeitraumes als als wenn die Daten in der Mitte des Zeitraumes platziert wären. Ich werde die Unterstützung für Christys Verfahren durch seinen vieljährigen Kontrahenten Carl Mears unter die lupe nehmen, dessen eigene Vergleiche zwischen Modell und Beobachtungen eine kurze Periode (1979 bis 1983) überdeckten, „damit die Änderungen mit der Zeit besser erkennbar waren“. Während sowohl Christy als auch Mears rationale Argumente für ihre Grundsatzentscheidung vorbrachten, war Schmidts Argumentation nur wenig mehr als Geschrei.

Hintergrund

Die ganze Geschichte der Kontroverse um die Diskrepanz zwischen Modellen und Beobachtungen in der tropischen Troposphäre ist literaturmäßig voluminös. Während die wesentlichen Protagonisten Christy, Douglass und Spencer auf der einen Seite sowie Santer, Schmidt, Thorne und andere auf der anderen Seite waren, haben auch Ross McKitrick und ich selbst zu diesem Thema bereits Einiges gesagt, und [die Kommentare von] McKitrick et al. (2010) wurden ausführlich im AR 5 diskutiert, allerdings unglücklicherweise wie so oft hinsichtlich der Schlüsselpunkte betrügerisch.

Startzeitpunkte und Referenzperioden

Christy und Spencer haben viele Jahre lang stilistisch ähnliche Graphiken erstellt. Roy Spencer zeigte hier im Jahre 2014 eine ähnliche Graphik um den Zeitraum 1979 bis 1983 (unten). Tatsächlich war es diese frühere Version, die Bart Verheggen zu wüsten Kommentaren veranlasste, Kommentare, die offenbar ihren Ursprung in einigen der vorherrschenden alarmistischen Memes* haben.

[Wer wie ich mit dem Begriff „Meme“ nichts anfangen kann – hier steht eine gute Erklärung. A. d. Übers.].

Abbildung 1: Version 2014 der Graphik von Christy, entnommen dem Blog von Roy Spencer hier. Sie verwendete den Referenzzeitraum 1979 bis 1983. Dies wurde später hier von Bart Verheggen kritisiert.

Christys Vortrag vom Februar 2016 erklärte diesen allgemeinen Ursprung als die geeignetste Referenzperiode, wobei der Start eines Rennens als Metapher angeführt wurde:

Hierzu sage ich im Gegenteil, dass wir die Daten auf bedeutsamste Art und Weise dargestellt haben. Es geht hier um die Rate der Erwärmung des Großteils der Atmosphäre, d. h. den Trend. Diese Metrik sagt uns, wie schnell sich Wärme in der Atmosphäre akkumuliert – die fundamentale Metrik der globalen Erwärmung. Um dies visuell zu verdeutlichen habe ich alle Datensätze adjustiert, so dass sie einen gemeinsamen Startzeitpunkt haben. Man denke an folgende Analogie: Ich habe während der letzten 25 Jahre an über 500 Rennen teilgenommen, und in jedem Falle starten alle Läufer an der gleichen Stelle zur gleichen Zeit. Damit soll einfach festgestellt werden, wer der Schnellste ist und um wie viel schneller an der Ziellinie. Offensichtlich wird die Gesamt-Relativgeschwindigkeit eindeutig bestimmt durch ihre Reihenfolge bei der Überquerung der Ziellinie – aber alle müssen zusammen starten.

Das in der Graphik von 2016 angewendete Verfahren variierte in gewissem Ausmaß vom früheren Stil: sie verwendete den Wert aus dem Jahr 1979 des Trends von 1975 bis 2005 als Referenz für die Zentrierung; also einen Wert, der sehr nahe dem Mittelwert von 1979 bis 1983 lag.

Carl Mears

Ironischerweise hat Christys immerwährender Gegner Carl Mears auf der RSS-Website des Vergleichs zwischen Modell und Beobachtung eine fast identische Referenzperiode herangezogen (1979 bis 1984), damit „die Änderungen mit der Zeit einfacher erkennbar sind“. Mears schrieb: „Falls die Modelle als Ganzes akzeptable Arbeit geleistet hätten bei der Simulation der Vergangenheit, dann würden die Beobachtungen zumeist innerhalb des gelben Bandes liegen“, aber „dies war nicht der Fall“.

Das gelbe Band zeigt die 5% bis 95%-Einhüllende des Ergebnisses von 33 CMIP5-Modellsimulationen (19 verschiedene Modelle, viele davon mit multiplen Erkenntnissen). Sie sollen das Erdklima während des 20. Jahrhunderts simuliert haben. Für die Zeit vor 2005 wurden die Modelle mit historischen Werten von Treibhausgasen gefüttert, mit vulkanischen Aerosolen und solarem Output. Nach 2005 wurden hierfür geschätzte Projektionen dieser Antriebe verwendet. Falls die Modelle als Ganzes einen akzeptablen Job hinsichtlich der Simulation der Vergangenheit geleistet hätten, dann würden die Beobachtungen zumeist im Bereich des gelben Bandes liegen. Für die ersten beiden Plots (Abbildung 1 und 2), welche globale und tropische Mittelwerte zeigen, ist dies nicht der Fall.

Mears illustrierte den Vergleich mit der folgenden Graphik, deren Legende den Referenzzeitraum 1979 bis 1984 und die damit verbundene Erklärung liefert:

Abbildung 2, entnommen von RSS hier: Original-Legende: tropische (30S bis 30N) mittlere TLT-Anomalie, dargestellt als eine Funktion der Zeit. Das blaue Band ist die 5% bis 95%-Einhüllende für das RSS V3.3 MSU/AMSU-Temperatur-Unsicherheitsensemble. Das gelbe Band ist die Bandbreite von 5% bis 95% des Outputs von CMIP5-Klimasimulationen. Der mittlere Wert jeder Zeitreihe von 1979 bis 1984 wurde auf Null gesetzt, so dass die Änderungen mit der Zeit deutlicher erkennbar sind. Erneut liegen die Beobachtungen nach 1998 wahrscheinlich unter den simulierten Werten. Dies zeigt, dass die Simulation als Ganzes mehr Erwärmung prophezeit als von den Satelliten beobachtet.

Die sehr geringe Überlappung zwischen der Einhüllenden der Modelle und derjenigen der Beobachtungen ist ein klarer Beweis – für jeden geübten Beobachter – dass es eine statistisch signifikante Differenz gibt zwischen dem Ensemble-Mittel und den Beobachtungen, und zwar bei Verwendung der T-Statistik von Santer et al. 2008.

Nichtsdestotrotz war Mears nicht der Ansicht, dass die Schuld bei den Modellen zu suchen war. Sondern er argumentierte stattdessen zusammen mit Santer, dass das Phänomen Fehlern der Antriebe geschuldet war, Fehler in den Beobachtungen und der internen Variabilität (siehe hier). Trotz dieser Differenzen bei der Diagnose stimmte Mears mit Christy überein hinsichtlich der Eignung eines gemeinsamen Ursprungs für diese Art von Vergleich.

IPCC AR5

Das IPCC, das sich nach Schmidts Worten nicht scheut, „Differenzen zu übertreiben oder zu minimieren, um politisch zu punkten“, hat eine Referenzperiode inmitten des Satelliten-Intervalls ausgewählt (1986 bis 2005) für seine Graphik im AR 5, Kapitel 11, Abbildung 11.25, in der ein globaler Vergleich von CMIP5-Modellen mit dem Mittel von 4 Datensätzen mit Messungen gezeigt wird.

Abbildung 3: IPCC, AR5, WG1, Abbildung 11.25a

Der effektive Ursprung in dieser Graphik lag daher im Jahre 1995, was die Divergenz zwischen Modellen und Beobachtungen auf etwa die Hälfte der gesamten Divergenz während der Satelliten-Ära hat schrumpfen lassen. Roy Spencer präsentierte das folgende Diagramm, welches die Auswirkung illustriert, wenn man zwei Reihen mit unterschiedlichen Trends um die Mitte des Zeitraumes (oben) und am Beginn des Zeitraumes (unten) einbettet. Falls man die beiden Trendreihen in der Mitte des Zeitraumes einbettet, dann ist die Lücke am Ende des Zeitraumes auf die Hälfte reduziert im Vergleich zur Einbettung am Startzeitpunkt, wenn beide Reihen den gleichen Ursprung haben (wie im Christy-Diagramm).

Abbildung 4: Das Diagramm von Roy Spencer, welches die Differenz zeigt zwischen Einbettung am Beginn und in der Mitte.

Bart Verheggen

Das alarmistische Narrativ über vermeintlich ungeeignete Grundlinien in der Abbildung von Christy scheint seinen Ursprung in einem Blogbeitrag von Bart Verheggen zu haben, in welchem eine oben gezeigte frühere Version der Graphik von Roy Spencers Blog (hier) mit der Einbettung von 1979 bis 1983 verunglimpft wurde, obwohl diese Auswahl fast exakt identisch war mit der Einbettung 1979 bis 1984, die später von RSS/Carl Mears verwendet worden ist.

Verheggen beschimpfte derartige Grundlinien als „teilweise betrügerisch“ und warf Christy und Spencer vor, die Modellläufe nach oben zu „verschieben“, um „die Diskrepanz zu vergrößern“:

Sie verschoben die modellierte Temperaturanomalie nach oben, um die Diskrepanz mit den Beobachtungen um etwa 50% zu vergrößern.

Verheggen behautete, dass die Graphik mit einem Referenzzeitraum von 19867 bis 2005 begonnen hatte (also des im AR5 des IPCC herangezogenen Zeitraumes) und dass Christy und Spencer diesen Zeitraum auf die kürzere Periode von 1979 bis 1983 „umfunktioniert“ hätten, um „die visuelle Erscheinung einer Diskrepanz zu maximieren“:

Der nächste Schritt ist die Umfunktionierung der Abbildung, um die visuelle Präsenz einer Diskrepanz zu maximieren: Man stelle alles auf die Grundlinie des Mittels von 1979 bis 1983 (eine viel zu kurze Periode und, wie es scheint, sehr taktisch ausgewählt) … Dies sieht überraschend ähnlich aus wie Spencers Trickserei-Graphik.

Verheggen hat auch nicht die Spur eines Beweises geliefert, der zeigte, dass Christy und Spencer die Graphik zuerst mit der in der Mitte des Intervall liegenden Referenzperiode erstellt und die Graphik dann „umfunktioniert“ hatten, um die Menschen zu „täuschen“. Angesichts des Umstandes, dass die Referenzperiode von „1979 bis 1983“ klar auf der Y-Achse aufgetragen war, brauchte man auch kaum reverse engineering um zu erkennen, dass Christy und Spencer eine Referenzperiode von 1979 bis 1983 herangezogen hatten. Auch sollte es nicht „überraschend“ gekommen sein, dass eine Nachbildung mittels einer Referenzperiode von 1979 bis 1983 ähnlich aussehen würde. Außerdem hat Verheggen die Mears’sche Verwendung eines Referenzzeitraumes von 1979 bis 1984 verdammt, damit die Änderungen „klarer hervortreten“.

Verheggens Vorwürfe finden in der alarmistischen Blog-Gemeinde immer noch Resonanz. Wenige Tage, nachdem Gavin Schmidt Judy Curry herausgefordert hatte, wurde Verheggens Beitrag bei Climate Crocks als die „bislang beste Analyse von John Christys Zaubergrafik“ bezeichnet, die „in der Leugner-Sphäre [deniosphere] so attraktiv ist“.

Die Trickserei geht jedoch vollständig in die umgekehrte Richtung. Graphische Verfahren, die aus einem Ursprung in der Mitte eines Zeitraumes (~1995) resultieren anstatt zum Startzeitpunkt (1979) reduzieren die Diskrepanz zum Ende um etwa 50%, verschleiern also sozusagen die Divergenz.

Gavin Schmidt

Während sich Schmidt darüber beklagte, dass das Christy-Diagramm keine „vernünftige Grundlinie“ habe, hat er keine Kriterien dafür genannt, aufgrund derer eine Grundlinie „vernünftig“ sein sollte und eine andere nicht. Oder dafür, was falsch daran war, einen gemeinsamen Ursprung zu verwenden (oder einen Referenzzeitraum zum Beginn der Satelliten-Ära), „damit die Änderungen mit der Zeit klarer hervortreten“, wie Mears es getan hatte.

Im März 2016 erzeugte Schmidt seine eigenen Graphiken unter Verwendung zweier unterschiedlicher Grundlinien, um Modelle und Beobachtungen zu vergleichen. Schmidt nahm andere ikonographische Variationen der Graphik vor, aber für diese Analyse sind nur die Referenzperioden von Interesse.

Schmidts erste Graphik (linker Teil der Abbildung unten – leider links und rechts verstümmelt in der Twitter-Version) wurde mit dem folgenden Kommentar vorgestellt:

Hoffentlich endgültige Versionen des Vergleiches von Zeitreihen und Trends zwischen Modellen und Messungen in der tropischen mittleren Troposphäre (bis 2016!)

In dieser Version wurde die Einbettung 1979 bis 1988 verwendet, eine Wahl, die relativ geringe Differenzen im Vergleich zu Christys Einbettung zeigt. Victor Venema hänselte Schmidt wegen seiner Erzeugung von Anomalien, die denen von Christy so ähnlich waren, und fragte sich bzgl. der Referenzperiode:

Haben diese Christy-Anomalien den Bezugszeitraum 1983? Oder ist es Zufall, dass die Beobachtungen zu Beginn so gut passen? (@ClimateOfGavin)

Schmidt hat seine Graphik sofort neu erstellt, diesmal mit der Einbettung 1979 bis 1998, was die Ähnlichkeit zu den „Christy-Anomalien“ verringerte. Diese Überarbeitung (rechter Teil der Abbildung unten) kündigte er folgendermaßen an:

Die Änderung ist ganz einfach vorzunehmen. Hier folgt das Gleiche für den Zeitraum 1979 bis 1998. Vielleicht ist das besser … (@VariabilityBlog)

Nach dieser „Umfunktionierung“ der Graphik, zeigten sich die Beobachtungen jetzt während des gesamten Zeitraumes als innerhalb des Vertrauensintervalls liegend. Es war diese zweite Version, die Schmidt später Curry anbot als das Ergebnis der Auswahl einer „vernünftigeren“ Grundlinie.

Abbildung 5: Zwei Abbildungen aus den Tweets von Gavin Schmidt vom 4. März 2016. Links: aus dem Tweet vom 4. März mit der Einbettung 1979 bis 1988. Man beachte, dass Teile der Graphik am linken und rechten Rand abgeschnitten worden sind, so dass die Graphik nicht bis zum Jahr 2015 reicht. Rechts: zweite Version mit der Einbettung 1979 bis 1998, was den Modellrahmen relativ zu den Beobachtungen verringerte.

Der Vorgang ist mehr als nur etwas ironisch im Zusammenhang mit Verheggens früheren Vorwürfen. Er zeigte eine Sequenz von Graphiken einer Grundlinie von 1986 bis 2005 bis zu einer Grundlinie von 1979 bis 1983. Gleichzeitig warf er Spencer und Christy vor, die Grundlinien „umzufunktionieren“, um das „sichtbare Auftauchen einer Diskrepanz zu maximieren“ – was Verheggen „Trickserei“ nannte. Verheggen stellte diese Behauptungen ohne auch nur die Spur eines Beweises auf, dass Christy und Spencer von einer Referenzperiode 1986 bis 2005 ausgegangen waren – was zunächst einmal ein sehr fragwürdiger Zeitraum ist, wenn man Differenzen zeigen will über die Periode 1979 bis 2012, wie Mears erkannt hat. Andererseits hat Schmidt auf Veranlassung von Venema tatsächlich seine Graphik „umfunktioniert“, um das „sichtbare Auftauchen einer Diskrepanz zu reduzieren“.

Noch einmal zur Christy-Graphik

Judy Curry war sehr reserviert darüber, ob Schmidts „Umfunktionieren“ ausreichend war, um den Änderungen aus der Abbildung von Christy Rechnung zu tragen. Sie beobachtete:

Meine Reaktion war, dass diese Plots in keiner Weise wie der Plot von Christy aussahen, und das ist nicht nur eine Sache der Grundlinie.

Zusätzlich zur Änderung der Referenzperiode nahm Schmidt in seiner Graphik noch viele weitere Änderungen vor:

● Schmidt verwendete Jahresdaten anstatt eines 5-Jahre-Mittelwertes.

● Schmidt zeigte eine graue Einhüllende, welche das Vertrauensintervall 5% bis 95% repräsentieren sollte, anstatt die individuellen Spaghetti-Stränge zu zeigen.

● Anstatt 102 Läufe individuell zu zeigen, zeigte Christy Mittel für 32 Modelle. Schmidt scheint 102 Läufe individuell zu zeigen, basierend auf seiner nicht korrekten Referenz auf 102 Modelle (!) in seiner Legende.

Ich bin derzeit dabei, Schmidts Graphik zu reproduzieren. Um den Effekt von Schmidts Umfunktionieren der Christy-Graphik zu isolieren, habe ich die Christy-Graphik so genau wie möglich nachvollzogen (zweites Paneel), wobei ich das meiner Meinung nach Wesentliche berücksichtigt habe, und habe dann die Graphik mit Schmidts Einbettung reproduziert.

Das dritte Paneel isoliert den Effekt von Schmidts Einbettungs-Periode von 1979 bis 1998. Dies bringt sowohl Modelle als auch Beobachtungen nach unten, die Modelle etwas mehr als die Beobachtungen. Allerdings hat sich m. E. der visuelle Effekt gegenüber Christys Einbettung nicht materiell geändert. Dies scheint die Vermutung von Judy Curry zu bestätigen, dass die Änderungen in Schmidts Graphik auf mehr zurückgehen als nur auf eine Änderung der Grundlinie. Eine Möglichkeit ist, dass die Änderung der visuellen Erscheinung Christys Verwendung von Ensemble-Mitteln für jedes Modell geschuldet ist anstatt individueller Läufe. Um dies zu testen, zeigt das vierte Paneel die Christy-Graphik unter Verwendung der Läufe. Und wieder scheint es mir nicht so, dass die ikonographische Entscheidung grundlegend ist für den visuellen Eindruck. Während der Spaghetti-Graph nicht eindeutig ist, kann der INM-CM4-Modelllauf als Blanko-„Kalt“-Modell in allen vier Paneelen unterschieden werden.


Abbildung 1: Christy-Graphik (links) und Variationen. Siehe Diskussion im Text. Die blaue Linie zeigt das Mittel von UAH 6.0 und RSS 3.3 TLT-tropische Daten.

Schlussfolgerungen

Es ist nichts Mysteriöses an der Lücke zwischen Modellen und Beobachtungen zum Ende des Zeitraumes als eine Maßzahl für differierende Trends. Als Secretariat das Feld von 1973 Belmont um 25 Längen hinter sich ließ, haben sogar heutige Klimawissenschaftler nicht in Frage gestellt, dass Secretariat schneller gerannt ist als die anderen Pferde.

Nicht einmal Ben Santer hat in Frage gestellt, ob es eine „statistisch signifikante Differenz“ gegeben habe zwischen Steph Currys epischem 3-point shooting in 2015-6 und Führern in anderen Jahreszeiten. Kürzlich hat Sports Illustrated der NYT die Lücke zwischen Steph Curry und früheren 3-point leaders mittels einer Spaghetti-Graphik illustriert (siehe unten), die wie die Christy-Graphik den Vergleich begann mit einem gemeinsamen Ursprung. Die visuelle Kraft kommt von der Separierung zum Ende.

[In diesem Absatz konnte ich einige kursiv gesetzte Begriffe nicht vernünftig übersetzen. Anm. d. Übers.]

Falls NYT Sports die Reihe in die Mitte der Jahreszeit eingebettet hätte (nach Art von Bart Verheggen), dann wäre Currys Separierung zum Ende der Jahreszeit nur halb so groß. Falls NYT Sports die Reihe in der ersten Hälfte eingebettet hätte, wäre das Ende der Saison genauso reduziert. Offensichtlich sollte man derartige Versuche, die Separierung zu verringern, als lächerlich zurückweisen.

Es gibt eine wirkliche Diskrepanz zwischen Modellen und Beobachtungen in der tropischen Troposphäre. Falls der aktuelle Punkt die Differenz zu den Trends der Satelliten-Ära (seit 1979) ist, dann ist es vollkommen vernünftig, wie Carl Mears beobachtet hat, die Einbettung der Daten in eine frühe Referenzperiode zu verwenden, so wie der von Mears verwendete Zeitraum 1979 bis 1984 oder der von Christy und Spencer verwendete Zeitraum 1979 bis 1983, damit (Mears) „die Änderungen klarer hervortreten“.

Legt man die Worte von Schmidt aus, heißt das: Wenn man irgendetwas anderes macht, wird es in „verstecken“ hinauslaufen und in „Minimierung von Differenzen, um politisch zu punkten“, was nach Schmidts Worten „einen Partisanen kennzeichnet und nicht einen Wissenschaftler“.

Link: https://climateaudit.org/2016/04/19/gavin-schmidt-and-reference-period-trickery/

Übersetzt von Chris Frey EIKE