Standardabweichung, das übersehene, aber essentielle Klima-Statistikum

Es ist wichtig, die Isolation der Paläoklima-Gemeinschaft zu unterstreichen; selbst wenn sie sich stark auf statistische Methoden stützen, die sie anscheinend nicht mit der Gemeinschaft der Statistiker abgesprochen haben.
Offensichtlich wussten sie, dass ihr Gebrauch und Missbrauch von Statistik und statistischen Methoden niemals untersucht werden würde. Das galt für den „Hockeyschläger“, einem Beispiel von falscher Anwendung und für die Erzeugung ‚einheitlicher‘ statistischer Methoden, um das Ergebnis vorweg zu bestimmen. Unglücklicherweise ist diese Gefahr in der Statistik inhärent. Ein Statistik-Professor sagte mir: je ausgeklügelter eine statistische Methode ist, umso schwächer sind die Daten. Alles jenseits grundlegender statistischer Methoden ‚unterminierte‘ die Daten und entfernte sich immer weiter von der Realität und einer vernünftigen Analyse. In der Klimatologie ist dies wegen unzureichender Daten unvermeidlich. Im Bericht des US National Research Council vom 3. Februar 1999 heißt es:
„Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen begrenzen ernstlich das Vertrauen in die Forschungsergebnisse“.
Methods in Climatology von Victor Conrad ist ein klassisches Lehrbuch, das die meisten der grundlegenden Dinge in der Klimaanalyse anspricht. Seine Stärke liegt in der Erkenntnis, dass  die Menge und Qualität der Daten kritisch ist. Dieses Thema war für Hubert Lamb zentral, als er die Climate Research Unit (CRU) ins Leben gerufen hatte. Meiner Ansicht nach hat sich die Statistik, so wie sie hinsichtlich des Klimas angewendet wird, seitdem kaum weiterentwickelt. Es stimmt zwar, dass wir inzwischen über andere Methoden verfügen wie die Spektralanalyse, aber alle diese Methoden sind bedeutungslos, wenn man nicht akzeptiert, dass es Zyklen gibt oder dass man Aufzeichnungen hinreichender Qualität und zeitlicher Länge braucht.
Ironischerweise entfernen einige Methoden Daten, wie z. B. gleitende Mittel. Eisbohrkern-Aufzeichnungen sind ein gutes Beispiel. Die antarktischen Aufzeichnungen aus Eisbohrkernen, zum ersten Mal im Jahre 1990 gezeigt, illustrieren die Mahnung des Statistikers William Briggs:
Jetzt werde ich Ihnen die große Wahrheit über Analysen von Zeitreihen verkünden. Sind Sie bereit? Solange die Daten nicht mit Fehlern gemessen werden, darf man die Zeitreihe niemals, jemals, unter keinen Umständen und auf keinen Fall GLÄTTEN! Und wenn man dies aus irgendwelchen bizarren Gründen doch tut, werden Sie diese geglättete Reihe absolut NIE als Input für andere Analysen benutzen! Werden die Daten mit Fehlern gemessen, kann man versuchen, diese zu modellieren (das heißt zu glätten), und zwar in einem Versuch, den Messfehler abzuschätzen, aber selbst in diesen seltenen Fällen muss man eine von außen kommende Abschätzung jenes Fehlers haben, das heißt eine, die nicht Ihre gegenwärtigen Daten zur Grundlage hat (Fettdruck von ihm).
Die Aufzeichnungen der antarktischen Eisbohrkerne hat man mit einer über 70 Jahre gehenden Glättung versehen. Dies eliminiert einen großen Teil dessen, was Briggs „reale Daten“ nennt, im Gegensatz zu „fiktiven Daten“, die die Glättung hervorbringt. Die Glättung verkleinert eine wesentliche Komponente grundlegender Statistik, nämlich die Standardabweichung der Rohdaten. Dies ist teilweise der Grund, warum diese in den Klimastudien so wenig Aufmerksamkeit erfahren hat, obwohl sie ein kritischer Faktor hinsichtlich des Einflusses von Wetter und Klima auf Flora und Fauna ist. Die Konzentration auf Mittelwerte und Trends war ebenfalls dafür verantwortlich. Noch wichtiger aus wissenschaftlicher Perspektive ist deren Wichtigkeit zur Berechnung von Mechanismen.

Abbildung (Beschreibung teils aus dem Original): Rekonstruierte CO2-Konzentrationen für das Zeitintervall zwischen etwa 8700 und 6800 Kalenderjahren vor heute, basierend auf CO2, das aus Luftbläschen des antarktischen Eises an der Stelle Taylor Dome extrahiert worden ist (linke Kurve; ref.2; Rohdaten erhältlich bei www.ngdc.noaa.gov/paleo/taylor/taylor.html) und SI-Daten für fossile B. pendula und B. pubescens [?] aus dem Lille Gribso-See in Dänemark. Die Pfeile kennzeichnen accelerator mass spectrometry 14C–Chronologien, die für zeitweilige Kontrollen verwendet wurden. Das schattierte Zeitintervall markiert das Abkühlungsereignis von 8200 Jahren vor heute.
Quelle: Proc. Natl. Acad. Sci. USA 2002 September 17: 99 (19) 12011 -12014.
Die Abbildung zeigt eine Bestimmung des atmosphärischen CO2-Gehaltes in einem Zeitraum von 2000 Jahren, wobei geglättete Daten aus einem Eisbohrkern (links) und aus Stomata (rechts) verglichen werden. Unabhängig von der Wirksamkeit jeder Methode der Datengewinnung ist es nicht schwierig zu bestimmen, welcher Plot wahrscheinlich die meisten Informationen über die Mechanismen vermittelt. Wo ist das Abkühlungsereignis vor 8200 Jahren in der Kurve des Eisbohrkerns?
Zu Beginn des 20. Jahrhunderts wandte man Statistik auf die Gesellschaft an. Universitäten, ursprünglich geteilt in Natur- und Geisteswissenschaften, sahen eine neue und ultimativ größere Disziplin heraufdämmern, die Sozialwissenschaften. Viele im Bereich der Naturwissenschaften sehen die Sozialwissenschaft als einen Widerspruch in sich und nicht als ‚wirkliche‘ Wissenschaft. Um die Bezeichnung zu rechtfertigen, begann man in den Sozialwissenschaften, deren Forschungen statistisch zu untermauern. Ein Buch mit dem Titel  „Statistical Packages for the Social Sciences”  (SPSS) erschien erstmals im Jahre 1970 und wurde zum Handbuch für Studenten und Forscher. Man gebe ein paar Zahlen ein, und das Programm liefert Ergebnisse. Die Brauchbarkeit der Daten, wie der Unterschied zwischen kontinuierlichen und diskreten Zahlen, sowie die Methode waren wenig bekannt oder sind ignoriert worden, obwohl die Ergebnisse beeinflusst worden sind.
Die Meisten kennen den Kommentar von Disraeli: Es gibt drei Arten Lügen: Lügen, verdammte Lügen und Statistik“, aber nur Wenige verstehen, wie sehr die Anwendung von Statistik ihr Leben beeinflusst. Jenseits der ungenauen Anwendung von Statistiken liegt das Entfernen von allem jenseits der Standardabweichung, was die Dynamik der Gesellschaft beseitigt. Macdonald verkörpert die Anwendung von Statistiken – sie haben die Mittelmäßigkeit perfektioniert. Wir fühlen, wenn alles zu jedem passt, aber nie genau zu jedem einzelnen passt.
Klimastatistik
Klima ist ein Mittel des Wetters über einen bestimmten Zeitraum oder einem Gebiet, und bis zu den sechziger Jahren waren Mittelwerte effektiv die einzige entwickelte Statistik. Antike Griechen benutzten mittlere Bedingungen, um drei globale Klimaregionen zu bestimmen: die heißen, gemäßigten und kalten Zonen, erzeugt vom Winkel zum Sonnenstand. Klimaforschung enthält die Berechnung und Veröffentlichung mittlerer Bedingungen an individuellen Stationen oder Gebieten. Nur wenige verstehen, wie bedeutungslos eine Messung ist, obwohl schon Robert Heinlein schrieb: „Klima ist das, was man erwartet, und Wetter ist das, was man bekommt“. Auch Mark Twain war sich dessen bewusst, bemerkte er doch: „Klima ist immer, Wetter nur ein paar Tage“. Ein Landwirt befragte mich hinsichtlich der Wahrscheinlichkeit eines normalen Sommers. Er ärgerte sich über die Antwort „nahe Null“, weil er nicht verstanden hat, dass ‚Mittel‘ Statistik ist. Eine informativere Frage ist, ob es kälter oder wärmer als normal sein wird, aber dazu braucht man Kenntnis über zwei andere wesentliche statistische Parameter, nämlich Variation und Trend.
Nach dem Zweiten Weltkrieg kamen Planungen und Sozialforschung auf, als die Nachkriegs-Gesellschaften Entwicklungen einer einfachen Trendanalyse ausgelöst hatten. Man nahm an, dass ein darin erscheinender Trend immer so weiterlaufen würde. Die Mentalität hatte Bestand trotz offensichtlicher Auf- und Abschwünge; hinsichtlich des Klimas scheint es Teil der Zurückweisung von Zyklen zu sein.
Studien zu Klimatrends begannen im Wesentlichen in den siebziger Jahren mit der Vorhersage einer kommenden Mini-Eiszeit, hatten doch die Temperaturen bis dahin seit 1940 abgenommen. Als Mitte der achtziger Jahre die Temperaturen wieder stiegen, hieß es, dass sich dieser Trend ohne Abschwächung fortsetzen würde. Politische User des Klimas übernahmen etwas, das ich den Trend-Waggon nenne. Das IPCC machte den Trend unabwendbar mit der Aussage, dass das menschliche CO2 dafür der Grund war und dass CO2 immer weiter zunehmen werde, solange die industrielle Revolution noch andauert. Wie auch alle Trends zuvor hatte auch dieser Trend keinen Bestand, zeigte sich doch nach 1998 bei den Temperaturen ein Abwärtstrend.
Für das Leben und die Wirtschaft ist die Variabilität von Jahr zu Jahr wichtig. Landwirte wissen, dass die Arbeit des nächsten Jahres nicht auf der Grundlage des Wetters im vorigen Jahr geplant werden kann, aber eine reduzierte Variabilität reduziert das Risiko merklich. Die jüngste Änderung der Variabilität ist normal und durch bekannte Mechanismen erklärt, wird aber von denjenigen mit einer politischen Agenda als anomal hingestellt.
John Holdren, der Wissenschafts-Zar von Obama, nutzte die Autorität des Weißen Hauses, um die zunehmende Variation des Wetters und eines Mechanismus‘ auszuschlachten, der den meisten Wissenschaftlern, geschweige denn der Öffentlichkeit unbekannt ist, nämlich den Polarwirbel [the circumpolar vortex]. Er erzeugte eine ungenaue Propaganda-Veröffentlichung über den Polarwirbel, um zu implizieren, dass dieser etwas völlig Neues und unnatürliches sei und daher den Menschen zuzuordnen ist. Zwei der drei von den antiken Griechen festgelegten Klimazonen sind sehr stabil, nämlich die Tropen und die Polargebiete. Die gemäßigte Zone weist infolge jahreszeitlicher Veränderungen die größte kurzfristige Variabilität auf. Es gibt dort aber auch eine längerfristige Variabilität, weil der Polarwirbel zyklisch zonal und meridional hin und her schwingt. Letzteres führt zu einer zunehmenden Variation der Wetter-Statistik, wie es auch jüngst der Fall war.  
Das Scheitern der IPCC-Studien und –Vorhersagen war unvermeidlich, weil ihm Daten fehlen und Daten fabriziert wurden, weil Kenntnisse über Mechanismen fehlen und bekannte Mechanismen ausgeschlossen worden sind. Reduktion oder Entfernung der Standardabweichung führte zu Informationsverlusten und einer weiteren Verzerrung der natürlichen Wetter- und Klimavariabilität, die beide weiterhin innerhalb historischer und natürlicher Normen ablaufen.
Link: http://wattsupwiththat.com/2014/06/15/standard-deviation-the-overlooked-but-essential-climate-statistic/
Übersetzt von Chris Frey EIKE




Kernenergie-Freunde starten Petition für Atomstrom-Tarif

Jetzt zog Heinze nach und legte eine Online-Petition auf, um tausend Interessenten für einen Kernenergietarif zu gewinnen.
Frank Heinze: »Es wäre ein Durchbruch für den Klimaschutz und ein Zeichen gegen die Stromerzeugung aus fossilen Brennstoffen. Unsere Stadt könnte damit Vorreiter in Deutschland werden, getreu ihrem Motto: Erlangen ist offen aus Tradition. Gerade einkommensschwache Bürgerinnen und Bürger könnten endlich wieder von sinkenden Strompreisen profitieren, statt das Solardach des Eigenheimbesitzers zu subventionieren.«
Gelänge dieses Vorhaben, wäre es wohl der erste Kernenergietarif in Deutschland.
Rainer Klute, Vorsitzender des Nuklearia e.V.: »Wer wirklich etwas für die Umwelt tun will, setzt auf Kernenergie. Denn anders als Wind- und Solaranlagen benötigt Kernenergie keine großen Landflächen und greift kaum in die Umwelt ein. Die Abfallmengen sind sehr gering, werden nicht in die Luft geblasen, sondern abgeschlossen aufbewahrt. Moderne Reaktoren können sogar fast alles davon als Brennstoff nutzen.« Klute hofft nun auf ein Urteil des Europäischen Gerichtshofs in der nächsten Woche, das nationale Regelungen und Begrenzungen zur Förderung erneuerbarer Energien als nicht mit dem Grundsatz des freien Warenverkehrs in der EU vereinbar erklären würde. Das wäre das Aus für die Ökostromabgabe und würde Atomstrom aus dem Ausland auch finanziell attraktiv machen.
Dr.-Ing. Diethelm Schroeder-Richter, Gründer der Gruppe »Wir gegen das Erneuerbare-Energien-Gesetz – WE(E)G Erlangen« meint dazu: »Das EEG ist eine Ausgeburt der Planwirtschaft wie zu DDR-Zeiten und hat mit freiem Wettbewerb nichts zu tun. Die Subventionsabzocker des EEG dürfen damit per Gesetz dem kleinen Mann und Hartz-IV-Empfänger das Geld aus der Tasche ziehen. Der Umwelt nützt das nichts. Windräder töten Vögel und Fledermäuse und bewirken Gesundheitsschäden bei Menschen durch Infraschall. Sonnenpaneele enthalten Gifte wie Kadmiumtellurid und Dotierungsstoffe, für die es kein Endlager gibt. Geothermieanlagen gefährden wertvollen Ackerboden durch Versalzung im Falle einer Leckage des Thermalsolewassers.»
Über die Nuklearia
Der Nuklearia e.V. ist ein gemeinnütziger und parteiunabhängiger Verein zur Förderung der Kernenergie. Wir sehen in der Kernenergie eine wesentliche Säule der Energieversorgung. Fortschrittliche Reaktoren arbeiten sicher, sauber und nachhaltig. Atommüll lässt sich in Schnellen Reaktoren als Brennstoff nutzen.
Anders als erneuerbare Energien steht Kernenergie jederzeit in ausreichender Menge zur Verfügung und verbraucht keine großen Landflächen. Im Unterschied zu Kohle oder Gas ist Kernenergie CO2-arm und vermeidet Luftverschmutzung.
Kenntnisse über Kernenergie sind in Deutschland rar geworden. Das wollen wir ändern.
http://nuklearia.de/
Kontakt: Rainer Klute, E-Mail: rainer.klute@nuklearia.de, Telefon: 0172 / 2324824, Twitter: @Rainer_Klute, Facebook: Rainer Klute
Dieser Beitrag wurde auf der Nuklearia-Website in der Kategorie Pressemitteilung veröffentlicht.




Klimafehlalarm in Hannover: Die große Stefan Rahmstorf-Show beim Umweltausschuss des Niedersächsischen Landtages

In der Sache jedoch können ihm immer weniger Kollegen folgen (siehe Blogbeitrag “Rätsel Rahmstorf“). Dabei kam es in der Vergangenheit durchaus vor, dass Rahmstorf in seinem klimareligiösen Eifer die Grenzen des Erlaubten überschritt. So wurde der Forscher Ende 2011 wegen einer Blog-Attacke gegen eine Journalistin verurteilt, da er nach Meinung des Gerichts Unwahres behauptete (siehe Spiegel Online Artikel “Verurteilter Forscher: Eklat um Klimaberater der Bundesregierung” vom 1.12.2011).
In einem Blogartikel zu seinem Auftritt in Hannover schreibt Rahmstorf sehr schön:
Ich verschwende ja nur ungern meine Zeit mit “Klimaskeptiker”-Unsinn – aber manchmal wird man als Klimaforscher nolens volens damit konfrontiert.
Im folgenden wollen wir nun einige unserer wertvollen Minuten damit verschwenden, die Folien von Stefan Rahmstorf auf wissenschaftliche Plausibilität zu überprüfen. Man darf nicht vergessen, dass Vorträge in der Regel nicht durch offizielle Begutachtungsprozesse begleitet werden, ein Peer Review also fehlt. Da kann ein unabhängiger Blick von außen nur hilfreich sein.
Die Titelfolie hat Rahmstorf mit einer sahelähnlichen Dürresezene aus Frankreich aus dem Sommer 2003 verziert. Natürlich hätte er auch Schnee und Eis aus einem der unerwarteten Kältewinter der letzten 5 Jahre nehmen können. Passte aber offenbar nicht zu seinem Thema “Globale Erwärmung: Zum aktuellen Stand der Forschung”. Ein schöner Titel, der suggeriert, dass der Referent die Vielzahl der publizierten Studien in einer 360°-Rundschau diskutieren würde. Dem ist natürlich nicht so. Alles was nicht in sein alarmistisches Konzept passt, wird ignoriert. So sucht man vergebens nach Arbeiten, die so gar nicht in das CO2-dominierte Weltbild des IPCC passen wollen:
·       Neue Studie der Universität Potsdam und des Senckenberginstituts: Sonne verursachte in Kenia während der letzten 15.000 Jahre starke Schwankungen in den Niederschlägen
·       Neue Studie der Universität Kiel zur Jungsteinzeit in Irland: Klimazyklen durch Schwankungen der Sonnenaktivität ausgelöst
·       Meereisbedeckung der Ostsee war während der letzten 500 Jahre an die Sonnenaktivität gekoppelt
Auf Folie 6 geht Rahmstorf auf den Eiszeit-Warmzeit-Zyklus ein, der im 100.000 Jahresrhythmus abläuft und durch Änderungen der Erdbahnparameter gesteuert wird. Dabei wird eine PIK-Arbeit von Ganopolski, Rahmstorf et al. 1998 mit Simulationen zur Thematik zitiert. Vermutlich sollte den Hannoveraner Politikern hiermit gezeigt werden, dass die PIK-Modelle die Vergangenheit gut abbilden und daher auch für die Zukunft tauglich wären. Dem ist allerdings leider nicht so. In einer anderen PIK-Modellierung von 2012 rollen die PIK-Forscher wahre Schreckensszenarien zum Grönlandeis aus, die bei näherem Hinsehen nicht haltbar sind (siehe unseren Blogartikel “Kipp-Element auf wackeliger fachlicher Grundlage: Grönlands Eismassen lassen sich vom Potsdam-Institut keine Angst einjagen“). Und auch 2014 hat sich dies nicht gebessert. Neuer Pol, altes Spiel: “Der antarktische Geist aus der Flasche: PIK-Artikel zur Eisschmelze in der Ostantarktis enttäuscht mit schwacher Meeresspiegelanstiegsrate“.
Auf Folie 8 wird kurz die Ozeanversauerung als Gefahr dargestellt. Ein beliebtes Thema unter Klimaalarmisten in einer Zeit, wo sich die Temperaturen seit mittlerweile 16 Jahren hartnäckig weigern, weiter anzusteigen. Vermutlich wird Rahmstorf den Politikern verschwiegen haben, dass die Blütezeit der Korallenriffe in der Trias-, Jura- und Kreidezeit vor 150 Millionen Jahren stattfand, als die CO2-Konzentration der Atmossphäre ein Vielfaches des heutigen Wertes betragen hat (siehe unseren Blogartikel “Welche Rolle spielt die Ozeanversauerung? Eine Wissenschaftssparte mit noch vielen Fragezeichen“).
Auf Folie 9 wird die Klimasensibilität angesprochen, also die Erwärmungskraft des CO2. Rahmstorf führt Arrhenius von 1896 an, der – Trommelwirbel – denselben Wert herausbekam, den auch der IPCC heute immer noch vermutet. Hundert Jahre Forschung und der Wert bleibt stabil, sollen die Zuhörer des Ausschusses offenbar mit nach Hause nehmen. Aber weshalb erwähnt Rahmstorf nicht, dass neuere Arbeiten zu viel geringeren Werten kommen? Immer mehr Wissenschaftler kommen nun auf Werte um 2°C Erwärmung pro CO2-Verdoppplung. Und der Trend ist klar: Je länger geforscht wird, desto mehr sinkt die CO2-Klimasensibilität. Siehe:

·       Zwei weitere Studien finden eine stark reduzierte CO2-Klimawirkung von 1,3 Grad pro CO2-Verdopplung
·       Österreichische Zentralanstalt für Meteorologie und Geodynamik: Klimamodelle reagieren zu stark auf die Konzentration von Treibhausgasen
·       Eine weitere Studie plädiert für eine reduzierte Klimawirkung des CO2
·       Mojib Latif im Fachvortrag in den USA: Die CO2-Klimasensitivität ist vom IPCC zu hoch angesetzt worden
Auf Folie 10 zeigt Rahmstorf die Erwärmung seit 1880. Schön wäre natürlich gewesen, wenn er den Begriff “Kleine Eiszeit” in das späte 19. Jahrhundert eingefügt hätte, da ein Großteil der Erwärmung lediglich die Wiedererwärmung nach dieser natürlichen Kältephase darstelllt. Aber ohne diese Erklärung sieht es für die politischen Klimalaien in Hannover natürlich viel dramatischer aus.
Folien 11-13 zeigen den Meereisschwund der Arktis. Noch nie dagewesen? Vermutlich ist das arktische Meereis bereits vor 1000 Jahren zur Zeit der Mittelalterlichen Wärmephase ähnlich stark abgeschmolzen gewesen. Damals besiedelten die Wikinger Island und Grönland, da ihre Schiffe nun plötzlich viel einfacher die eisarmen Nordmeere befahren konnten. Auch wird Rahmstorf dem Umweltausschuss verschwiegen haben, dass die Schmelze im Kontext der letzten Jahrtausende nicht ungewöhnlich ist (siehe “Neue Studie der Universitäten Göteborg und Stockholm: Arktisches Meereis war vor 10.000-6.000 Jahren stärker geschrumpft als heute“). Natürlich geht es bei Rahmstorf fast ausschließlich um CO2 als den Hauptschuldigen. Ein Blick über den doch recht beschränkten Horizont wäre jedoch sinnvoll, da auch andere Faktoren eine große Rolle zu spielen scheinen. Siehe “NABU: „Bis zu 50 Prozent der Erwärmung in der Arktis sind auf den Einfluss von Rußpartikeln zurückzuführen““). Und wenn schon die Arktis gezeigt wird, sollte es recht und billig sein, das antarktische Meereis ebenfalls zu zeigen. Dafür gab es aber leider keinen Platz bzw. keine Lust. Ansonsten hätten die Politiker natürlich erfahren, dass das Meereiss der Antarktis in den letzten beiden Jahren stetig angewachsen ist und die höchste Ausdehnung der gesamten Satelliten-Messära erreicht hat (siehe “Noch nie seit Beginn der Satellitenära war die Ausdehnung des antarktischen Meereis Ende Juli größer als in diesem Jahr“). Keiner hatte es kommen sehen.
Auf Folie 14 werden dann reale Temperaturdaten mit einer Prognose auf Basis von Klimamodellen mit fragwürdig überhöhter CO2-Klimasensibilität unzulässig vermischt. Immerhin kann man in der Graphik erkennen, dass das “mittelholozäne Klimaoptimum”, also die Zeit 8000-4000 Jahre vor heute, mindestens genauso warm wie heute war, vermutlich sogar 1-2 Grad wärmer. Zitiert wird u.a. ein Artikel von Shakun et al. 2012 aus Nature, der bei seriöseren Fachkollegen mit Pauken und Trompeten durchfiel (siehe “2</sub> vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature">Statistik-Trick befördert CO2 vom Beifahrer zum Chauffeur: Fragwürdiger neuer Shakun-Artikel in Nature“). Aus der gleichen Truppe stammt auch ein zweites von Rahmstorf angeführtes Zitat: Marcott et al. 2013. Auch diese Studie wimmelte von Fehlern und wurde von den Fachkollegen schnell als Machwerk enttarnt (siehe “Nach drei Wochen erneutem Hockeyschläger-Alarm war der Spuk wieder vorbei und der Skandal perfekt: Wie Jungforscher Shaun Marcott die Medienwelt hinters Licht führte“). Man wundert sich, dass Rahmstorf in seinem Vortrag hochumstrittene Literatur verwendet, die sich in der Fachwelt nicht durchgesetzt hat. Die fehlende Ausgewogenheit in Rahmstorfs Darstellung bereitet Sorge.
Folie 15 zeigt eine Zukunftsprognose zur Erwärmung, die mit den mittlerweile überholten, zu hohen CO2-Klimasensibitäten rechnet. Es wäre notwendig gewesen, wahrscheinlichere Alternativmodelle mit Sensibilitäten von z.B. 1.5°C oder 2°C vorzustellen. Auf den Folien 18-19 geht es um Hitzewellen, die im 21. Jahrhundert angeblich so häufig wie noch nie waren. Wiederum fragt man sich, weshalb Rahmstorf keinen Vergleich mit der Mittelalterlichen Wärmeperiode bringt. Vor 1000 Jahren war es so warm wie heute und es erscheint plausibel, dass die Hitzewellen-Situation ähnlich wie heute gewesen sein könnte. Im Titel von Rahmstorfs Vortrag heisst es “Zum aktuellen Stand der Forschung”. Wenn sich der Potsdamer wirklich an sein Thema gehalten hätte, dann hätte man an dieser Stelle Hinweise auf neue Studien gefunden, die eine anthropogen verursachte Zunahme der Hitzewellen für abwegig halten:
·       Fata Morgana: Potsdamer Hypothese überwiegend menschengemachter Hitzewellen bestätigt sich nicht
·       Neue Studie der Universität Michigan: Kaum Veränderungen in der Häufigkeit von Hitzewellen in den USA während der letzten 80 Jahre
·       Forscherinnen der University of New South Wales in Sydney: Es gibt keine belastbaren Hinweise darauf, dass die Temperatur-Variabilität extremer geworden wäre oder werden könnte
·       US-Hitzewelle 2012 unterliegt im Temperaturwettstreit gegen die Dust Bowl der 1930er Jahre
·       Überraschung in Westeuropa: Hitzesommer aus dem Jahr 1540 deutlich wärmer als vermeintlicher Rekordinhaber 2003
Auf Folie 21 springt Rahmstorf dann zum Meeresspiegel. Er zeigt eine Anstiegskurve, die um 1700 in der Mitte der Kleinen Eiszeit beginnt. Während der Kleinen Eiszeit stagnierte der Meeresspiegel, da die Gletscher der Erde anwuchsen. Erst im Übergang zur Modernen Wärmeperiode um 1900 stieg der Meeresspiegel wieder kräftig an und die Rate beschleunigte sich. Dies macht Sinn, denn die Wiedererwärmung nach der Kleinen Eiszeit hat Eis zum Schmelzen gebracht, dessen Wasser nun verstärkt in die Weltozeane floss (siehe auch: “Meeresspiegel in der Adria stagnierte während Kältephasen und beschleunigte sich während Wärmephasen“). Unerwähnt bleibt, dass in den letzten 50 Jahren keine Beschleunigung des Meeresspiegelanstiegs mehr festgestellt werden kann und sich der Anstieg auf eine Rate von 1,5 mm/Jahr laut Pegelmessungen stabilisiert hat (siehe: “Beschleunigte Meeresspiegelanstiege gehören schleunigst in die Mottenkiste“).
Auf Folie 22 geht Rahmstorf auf seine eigenen Meeresspiegel-Forschungen an der Küste von North Carolina ein. Leider fehlt der Hinweis, dass die Ergebnisse dieser Studien von vielen Fachkollegen angezweifelt werden. Es ist bezeichnend, dass die in der Arbeit postulierte Beschleunigung des Meeresspiegelanstiegs von den Behörden in North Carolina nicht als Planungsgrundlage anerkannt wird (siehe: “Senat von North Carolina erteilt Rahmstorfs beschleunigtem Meeresspiegel eine Absage“). Auf Folie 23 werden zahllose Meeresspiegel-Kurven aus der Deutschen Bucht gezeigt. Zitiert wird eine Arbeit von Wahl et al. aus dem Jahr 2011, in der die Forscher noch einen beschleunigten Anstieg für die vergangenen Jahrzehnte feststellten. Aus der Kurzfassung von Wahl et al. 2011:
An accelerated sea level rise is detected for a period at the end of the nineteenth century and for another one covering the last decades.
Mittlerweile gibt es jedoch eine neuere Arbeit des Wahl et al.-Teams – Wahl et al. 2013 – die die Dinge jetzt sehr viel nüchterner sieht:  “Neue Studie der Universität Siegen: Meeresspiegel in der Nordsee steigt seit 100 Jahren mit konstanter Geschwindigkeit – keine Beschleunigung“. In einer Pressemitteilung stellten die Wissenschaftler klar:
„Es gibt ein relativ konstantes Anstiegsverhalten des Mittleren Meeresspiegels seit Beginn des 20. Jahrhunderts, aber keinen außergewöhnlichen Anstieg in den letzten Jahrzehnten, den wir direkt dem Klimawandel zuschreiben könnten.“
Rahmstorf möchte das Ergebnis dieser neueren Arbeit zur Deutschen Bucht den Politikern in Hannover nicht zumuten und verschweigt die neue Studie einfach. “Zum Stand der aktuellen Forschung”? Fehlanzeige!
Auf Folie 27 macht Rahmstorf kräftig für seine Bücher Werbung. Gerne hätte er auch ein Cover unseres Buches “Die kalte Sonne” abbilden können. Aber vielleicht bekommen wir demnächst ja auch eine Einladung nach Hannover, dann würden wir allen Teilnehmern der Anhörung vielleicht sogar ein kostenloses Exemplar zur Lektüre überlassen…
Nach der kleinen Werbeeinlage muss sich Rahmstorf noch um die Sonne kümmern, die seiner Ansicht nach nur eine verschwindend geringe Klimawirkung besitzt. Die Geologie sieht dies komplett anders. Unzählige Studien haben die große klimabeeinflussende Kraft von Sonnenaktivitätsschwankungen eindrucksvoll bewiesen (Übersicht siehe hier). Es ist nun an den Klmamodellierern, die realen Entwicklungen der Vergangenheit nun endlich mit ihren Modellen nachzubauen und zu reproduzieren. Rahmstorfs Bezug in Folie 28 auf Satellitenmessungen der Sonnenaktivität ist wenig hilfreich, da hier noch immer große Kalibrierungsprobleme bestehen und Langzeittrends auf Basis dieser Daten daher unsicher sind. Auf Folie 29 tappt Rahmstorf wiederum in eine Falle. Er ignoriert Zeitverzögerungseffekte beim Aufbau von klimatischen Gleichgewichten und vergisst zu erwähnen, dass die Erwärmung in der zweiten Hälfte des 20. Jahrhunderts in eine Zeit außerordentlich hoher Sonnenaktivität fällt (siehe Erläuterungen und aussagekräftige Graphiken hier).
Fazit des Faktenchecks: Stefan Rahmstorfs Übersicht ist eine einseitige Darstellung, die vor allem seine klimaalarmistischen Neigungen widerspiegelt. Neuere Literatur, die nicht in sein Konzept passst, wird von ihm einfach ausgelassen. An einer fruchtbaren, ergebnisoffenen wissenschaftlichen Diskussion zeigt Rahmstorf keinerlei Interesse. Es ist daher zweifelhaft, ob Auftritte von Rahmstorf in politischen Gremien sinnvoll sind. Die politischen Entscheidungsträger werden an vielen Stellen im Unklaren gelassen, inwieweit Rahmstorfs Ansichten repräsentativ für die Fachwelt sind. Selbst der IPCC beendete die Zusammenarbeit mit dem Postdamer und setzte ihn in seinem letzten Klimabericht nicht mehr als Autor ein.
 Der Beitrag erschien zuerst bei "Die kalte Sonne" hier