Woher kommt der Stillstand bei der globalen Erwärmung?

Das Etikett „Stillstand“ suggeriert, dass das Fehlen einer Erwärmung nur vorübergehender Natur ist und dass die Erwärmung bald wieder einsetzen könnte. Dies ist der Standpunkt der Klimaalarmisten, die Ängste schüren, dass menschliche Aktivitäten eine potentiell katastrophale globale Erwärmung verursachen.

Grund für den Stillstand*

[*Unübersetzbares Wortspiel: „Cause of the Pause“]

Die Alarmisten haben eine große Palette möglicher Erklärungen dafür, warum die globalen Temperaturen trotz des steigenden CO2-Gehaltes in der Atmosphäre nicht wie von den Klimamodellen prophezeit gestiegen sind.

Eine Gruppe von Erklärungen postuliert, dass die Temperatur doch gleichlaufend mit dem CO2-Gehalt gestiegen ist und dass die Wärme sich irgendwo in einer noch nicht identifizierten Senke versteckt; zum Beispiel in der Tiefsee. Falls dies so sein sollte, erhebt sich die Frage, ob und wann diese gespeicherte Wärme freigesetzt wird – allmählich oder plötzlich?

Der bedeutende Physiker Freeman Dyson vom Princeton Institute for Advanced Study lehnt diese Ansicht ab, wenn er feststellt: „Sie fragen mich, wohin die zusätzliche gespeicherte Wärme verschwunden ist, aber ich stimme nicht mit den Modellen überein, wenn diese sagen, dass die zusätzlich gespeicherte Wärme existiert“.

Eine zweite Gruppe von Erklärungen hat den Ansatz, dass der CO2-Temperaturantrieb durch eine oder mehrere negative Rückkopplungs-Vorgänge unterdrückt worden ist innerhalb des Klimasystems, beispielsweise durch eine Zunahme der Reflektion einfallender Sonnenstrahlung durch zunehmende Wolkenbedeckung mit tiefen Wolken.

Dies wirft die Frage auf, ob eine solche negative Rückkopplung nahezu den gesamten CO2-Antriebseffekt kompensieren kann.

Eine dritte postulierte Erklärung bieten externe Faktoren wie vulkanische oder vom Menschen emittierte Aerosole oder eine Abnahme der Solarstrahlung, die den Temperaturanstieg verhindern. Daraus ergeben sich jedoch viele ungelöste Probleme für die Modellierer: Warum haben diese Faktoren die stetige Zunahme des CO2-Antriebs bisher vollständig unterbunden, und können und werden diese Faktoren dies auch in Zukunft bewirken?

Natürliche Zyklen

Jüngste Forschungen haben langfristige natürliche Zyklen in den Ozeanen ausgemacht, die die Temperatur unterdrücken, aber es gibt keinen allgemein akzeptierten Mechanismus. Einige Studien ordnen den Stillstand pazifischen Ozean-Zyklen zu, andere deuten auf Änderungen im Atlantik, und eine der jüngsten Studien brachte Derartiges in allen Ozeanen der Welt zur Sprache.

Einige haben sogar gesagt, dass es gar keinen echten Stillstand gebe, sondern diesen als ein Artefakt der Art und Weise ansehen, wie die Daten analysiert worden sind. Diese Leute sagen, es sieht nur so aus wie ein Stillstand, weil die schnellere Erwärmung in der Arktis aus den verschiedenen globalen Temperaturanalysen ausgeklammert worden war. Eine weitere Möglichkeit ist, dass der Stillstand eine vollständig natürliche Klimavariation im Klimazyklus ist, der einem zugrunde liegenden Aufwärtstrend der globalen Temperaturen lediglich überlagert ist. Keine dieser Erklärungen hat größere Akzeptanz gefunden.

Erklärungen hinterlassen unbeantwortete Fragen

Der Wissenschafts-Historiker Rupert Darwall schreibt: „Das IPCC hat sich selbst ins Aus der Irrelevanz geschossen, solange es nicht mit etwas Ernsthaftem hinsichtlich des Stillstands aufwarten kann und solange es nicht darüber nachdenkt, ob sein Alarmismus gerechtfertigt ist – vor dem Hintergrund, dass es sich so stark auf Computermodelle stützt, die Temperaturanstiege prophezeit haben, die nie eingetreten sind“.

Keine dieser angesprochenen Mechanismen war in der Lage, zwei kritische Fragen hinsichtlich der Akzeptanz einer Erklärung für den Stillstand zu beantworten: Warum hat der Stillstand um die Jahrtausendwende begonnen? Und wann wird er enden, wie es der Terminus „Stillstand“ impliziert und die von den Modellen prophezeite Erwärmung wieder einsetzen?

Im American Thinker habe ich (am 29.12.2014) geschrieben, dass wissenschaftliche Bemühungen, Gründe für den Stillstand zu finden, was zu einigen Dutzend „Erklärungen“ geführt hat, bislang nicht erfolgreich waren. Diese Erklärungen enthalten u. A. eine „Wärmeansammlung in der Tiefsee, eine Abschwächung der Sonnenaktivität und Aerosole vulkanischer Asche in der Atmosphäre, die das Sonnenlicht zurück ins All reflektieren. Allerdings scheinen die Auswirkungen der Sonnenaktivität und von Vulkanen nicht ausreichend, den Stillstand zu erklären, und die Ansammlung in der Tiefsee scheint irgendwie schwer fassbar zu sein – die gemessene Zunahme des ozeanischen Wärmegehaltes ist viel zu gering, um den Stillstand erklären zu können“.

Wann wird der „Stillstand“ enden?

Die Ansichten von Gavin Schmidt, Nachfolger des bekannten Klimaalarmisten James Hansen als Leiter des Goddard Institute of Space Studies GISS der NASA, sind typisch für Klimaalarmisten:

„Während der nächsten 5 bis 10 Jahre wird die stetige Zunahme der Treibhausgase die (zyklischen) Faktoren überkompensieren, die für den Stillstand verantwortlich sein könnten“, sagte er der Presse. Schmidts Aussage ist reine Raterei (Hoffnung?), die durch keine einzige Analyse gestützt wird.

Das grandioseste Kabinettstückchen zu diesem Thema kam von Michael „Hockeyschläger“ Mann. Er schrieb (am 29.3.2014) im Scientific American, dass die Erde die 2°-Marke als Grenze zu einer Katastrophe im Jahre 2036 überschreiten wird. Er räumt den Stillstand ein, prophezeit jedoch ein abruptes Ende desselben. Ich bezweifle, dass er sich je den wirklichen Temperaturverlauf der letzten Zeit angesehen hat.

Es ist kein Wunder, dass Jeff Id in einer amüsanten Diskussion bei Air Vent (am 22.3.2014) Manns Essay als „Klima-Porno“ bezeichnet hat.

S. Fred Singer, Ph.D. (singer@sepp.org) is professor emeritus at the University of Virginia and chairman of the Science & Environmental Policy Project. He is the most prominent scientist in the world speaking out against global warming alarmism. He founded the Science and Environmental Policy Project and the Nongovernmental International Panel on Climate Change. Singer received the 2014 Lifetime Achievement in Climate Science Award at the Ninth International Conference on Climate Change, July 8, 2014, in Las Vegas.

Link: http://news.heartland.org/newspaper-article/2015/04/16/whence-global-warming-pause

Übersetzt von Chris Frey EIKE




Klimasensitivität

[Bild rechts: © Chris Frey]
Vor etwa 35 Jahren bildete die US National Academy of Sciences eine Gruppe unter dem MIT-Meteorologen Jules Charney, um sich dieses Problems anzunehmen. Ihr Bericht kam auf einen CS-Wert von 1,5 bis 4,5°C globaler Erwärmung bei einer Verdoppelung des atmosphärischen CO2-Gehaltes. Die gewaltige Unsicherheit springt sofort ins Auge, ein Faktor 3. Dabei ist der Klimaantrieb durch CO2 viel präziser bekannt.
Die Erklärung für diese riesige Unsicherheit bzgl. CS liegt in unserem ungenügenden Wissen (1) hinsichtlich Rückkopplungen von Wolken und Wasserdampf WV (WV ist das bedeutendste Treibhausgas überhaupt) und (2) hinsichtlich der Strahlungseffekte von Aerosolen bei der Änderung der Albedo der Erdatmosphäre und damit die Menge Sonnenlicht, die den Erdboden erreicht.
Diese Bandbreite zwischen 1,5 und 4,5°C ist inzwischen kanonisch geworden. Tatsächlich gibt der letzte IPCC-Bericht (2013) die gleiche Bandbreite für CS an – sogar nach 25 Jahren und Milliarden Dollar, die für die Entwicklung von Klimamodellen ausgegeben worden sind. Wie mein Kollege Kenneth Haapala sagt, das ist eine armselige Rendite der Investitionen.
Natürlich sind die Modelle viel ausgeklügelter und komplexer geworden. Und die Anzahl der Modelle hat exponentiell zugenommen. Jede Nation, die etwas auf sich hält, möchte heutzutage ihr eigenes Klimamodell haben; die USA allein haben inzwischen fünf große Klimamodelle und überlegen sich, noch ein weiteres zu finanzieren. Aber im Grunde hat sich nicht viel verändert. Das Ausmaß der positiven Rückkopplung durch Wasserdampf, welche implizit den CO2-Antrieb in allen Modellen verstärkt, ist immer noch ungewiss, ebenso wie die detaillierten Einflüsse von Bewölkung und verschiedener Arten von Aerosolen.
Es ist angebracht, darauf hinzuweisen, dass wir uns hier auf die so genannte „Gleichgewichts-Klimasensitivität“ [equilibrium climate sensitivity] beziehen, die erreicht wird, nachdem das Klimasystem Zeit gehabt hat, sich an höhere CO2-Niveaus anzupassen. Man sollte auch darauf hinweisen, dass sich CS auf eine Verdoppleung des vorindustriellen CO2-Gehaltes bezieht – wobei von einem Wert von 280 ppm ausgegangen wird. Auch nimmt der CO2-Antrieb nur als Logarithmus der CO2-Konzentration zu – obwohl diese Tatsache selten explizit erkannt wird.
Natürlich ist nur der empirische Weg geeignet, die Klimasensitivität angemessen zu berechnen – durch Verwendung der Klimadaten. Aber an dieser Stelle tauchen viele Probleme auf. Erstens ist da ein geeignetes Zeitintervall. Es ist allgemein anerkannt, dass es während der letzten 18 Jahre kaum eine Erwärmung gegeben hat, wenn überhaupt eine. Also ist vermutlich die Klimasensitivität des 21. Jahrhunderts effektiv Null. Analysten der CS haben daher ihre Bemühungen auf die ,berichtete‘ Erwärmung der Erdoberfläche zwischen 1975 und 2000 konzentriert, (die nicht einmal real sein muss). Diese Analysten haben ein Dutzend oder noch mehr „beste Zahlen“ veröffentlicht – allgemein nahe 1,5°C, also das untere Ende der Bandbreite der Modelle.
Ein Streit unter Skeptikern
Alle diese Analysen basieren auf der Erwärmung im letzten Abschnitt des 20. Jahrhunderts – von etwa 1978 bis 2000 – der sog. ,Satelliten-Ära‘. Aber es gibt keinerlei Gründe, die Klimasensitivität mit der Temperatur an der Erdoberfläche zu definieren. Da die besten uns zur Verfügung stehenden Daten von Wettersatelliten stammen, ist es sinnvoll, deren atmosphärische Temperaturen als Grundlage für die Berechnung der CS heranzuziehen.
Aber die Satellitendaten scheinen überhaupt keinen Erwärmungstrend zu zeigen – obwohl es zu diesem Punkt selbst unter den sog. ,Klimaskeptikern‘ unterschiedliche Auffassungen gibt. Man kann diesen Streit am besten illustrieren durch die folgende Graphik. Falls man die beste gerade Linie durch alle Satellitendaten von 1978 bis 2013 legt, kann man einen geringen (Erwärmungs-)Trend ausmachen. Aber ist dies wirklich der beste Weg, die Lage zu beschreiben? Ein anderer Weg ist es, die Null-Linie bis 1997 zu zeichnen, die Ein-Jahres-Spitze 1998 zu berücksichtigen (ausgelöst durch einen Super El Nino) und dann den plötzlichen Anstieg (,Sprung‘) um 2001 sowie den nachfolgenden Null-Trend zu markieren. Falls der Trend zwischen 1978 und 1997 Null ist, dann liegt eindeutig auch die Klimasensitivität nahe Null.

(Graphik von Don Rapp auf der Grundlage von UAH-MSU-Daten)
Zufälligerweise kann ich beiden Methoden in der Graphik nicht zustimmen. Ich sehe, dass die Temperatur nach der Spitze 1998 zu den niedrigeren Werten vor 1998 zurückkehrt – zwischen 1999 und 2000. Daher würde ich den ,Sprung‘, den stufenartigen Anstieg, um die Zeit 2001-2002 legen. Dann haben wir Null-Trends vor dem Jahr 2000 und nach 2002 – und daher korrespondierende Werte der CS, die ebenfalls nahe Null liegen.
Die Moral von der Geschichte ist, dass die besten empirischen Daten, die wir haben, nur einen sehr geringen Einfluss der steigenden CO2-Niveaus auf die globale Temperatur zeigen.
Zwei wissenschaftliche Fragen
Jetzt gibt es immer noch zwei Fragen:
Erstens, warum gibt es nach 2002 nur eine so geringe Erwärmung durch Kohlendioxid – welches schließlich ein Treibhausgas ist, dass sich zunehmend in der Atmosphäre anreichert? Die beste Antwort, die mir einfällt, ist eine negative Rückkopplung durch Wasserdampf – und nicht eine positive Rückkopplung – welche dem CO2-Antrieb entgegenwirkt. Genauso könnte man von zunehmender Bewölkung eine negative Rückkopplung erwarten. Allerdings müssen diese beiden Möglichkeiten der Rückkopplungen empirisch mit der Untersuchung der geeigneten Daten belegt werden.
Es könnte noch eine Möglichkeit geben, nämlich dass der Antrieb durch den steigenden CO2-Gehalt nahe Null liegt, also ziemlich genau bei dem heute bestehenden Wert in der Atmosphäre. Auch dies muss durch Untersuchung der geeigneten Daten gezeigt werden.
Und schließlich, eine weitere Frage: Falls die Klimasensitivität zwischen 1978 und 2000 wirklich nahe Null liegt und dann wieder von 2002 bis heute, warum zeigen die Thermometer an der Erdoberfläche einen Erwärmungstrend nur im ersten Intervall, aber nicht im zweiten? Was ist für die beobachtete Erwärmung von 1978 bis 2000 ursächlich? [Könnte das der UHI-Effekt sein? Anm. d. Übers.]
All dies erfordert noch sehr viel Arbeit, um verschiedene plausible Hypothesen zu untersuchen, was wir ein andermal tun wollen. Hier hilft ein Zitat des MIT-Nobelpreisträgers Professor Robert Solow: „vielleicht ist das der Grund, warum Gott graduierte Studenten erschaffen hat“.
Ich sollte noch anmerken, dass ich diesbezüglich etwas von meinen Skeptiker-Kollegen abweiche. Nur wenige würden mir zustimmen, wenn ich sage, dass die Klimasensitivität wirklich nahe Null liegt. Ich werde diese Analysen veröffentlichen müssen, um meine Aussage zu belegen und zu versuchen, sie zu überzeugen. Natürlich wird nichts, auch keine noch so gut belegte Tatsache, jemals die 150-prozentigen Klima-Alarmisten überzeugen.
Link: http://americanthinker.com/2014/10/the_climate_sensitivity_controversy.html
Zur Biographie von S. Fred Singer siehe den Link und die vielen hier bei EIKE geposteten Beiträge von ihm.
Hierzu hat ihm William Happer eine E-Mail geschrieben, die hier in deutscher Übersetzung angefügt wird:
Von: William Happer
Lieber Fred,
danke für den Beitrag, dem ich im Großen und Ganzen zustimme. Eine kleinere Schwäche ist, dass ich nicht glaube, dass der Antrieb durch CO2 allein ohne Rückkopplung 3,5 W/m² (oder welcher kanonische Wert auch immer) so sicher ist. Die meisten Menschen sind nicht in der Lage, dies nachzuprüfen, da man dazu eine komplizierte Strahlungstransport-Berechnung braucht mit vielen tausend CO2 und H2O-Linien, die in vielen Höhen bei sehr unterschiedlichen Temperaturen emittieren und absorbieren. Freeman Dyson und ich haben versucht, uns dieses Problems anzunehmen, und wir glauben, dass die Zahl viele Zehner-Prozentzahlen zu hoch ist. Und zwar deswegen, weil es viel weniger Absorption gibt in den weit außen liegenden Flügeln der kollisionserweiterten [collision-broadened, ?] Linien, als man sich durch die Lorenz’sche Form der Linien vorstellen kann. Es gibt sehr gute experimentelle Beweise für Sub-Lorenz’sche Flügel, und das würde man auch theoretisch erwarten, falls die Kollisions-Linien nicht infinitesimal kurz sind (was ein Lorenz’sches Aussehen verleiht), sondern über wenige Pikosekunden auftreten – was sicher der Fall ist.
Ich würde nicht die überwältigenden Vorteile von CO2 betonen, falls ich nicht absolut davon überzeugt wäre, dass das stimmt. Natürlich spreche ich nicht von Flugasche, Smog, ausgeplünderte Landschaften und anderen wirklichen Schäden, die durch den unverantwortlichen Gebrauch fossiler Treibstoffe und die Emissionen des nutzbringenden Gases CO2 entstehen. Meiner Ansicht nach sind all jene, die nach Aktionen zur Begrenzung von CO2-Emissionen schreien, bewusst oder unbewusst amoralisch. Derartige Aktionen helfen NICHT dabei, den Planeten für künftige Generationen zu schützen. Es erinnert mich an einen Song aus meiner Kindheit in den Appalachen und als ich viel gelernt habe über Scheinheiligkeit: „Es ist diese Welt, durch die ich gestolpert bin, ich habe viele komische Männer gesehen, einige werden dich mit einem Revolver ausrauben, einige mit einem Füllfederhalter“. Ich habe absolut keine finanziellen Interessenkonflikte, anders als viele auf der anderen Seite, dessen Lebensweise, finanzielles Wohlergehen und Lobhudelei von der Fortsetzung des Alarms abhängen.
Aber es ist immer wieder erstaunlich, wie viel Gehässigkeit von der anderen Seite kommt. Ein Beispiel hierfür ist die folgende Note, die ich vorige Woche bekommen habe: „Wollen Sie … mich verarschen? Sie sind ein ausgebildeter Nazi, und man sollte Sie aufhängen“. [Original: „Are you phuking kidding me? You are an educated Nazi and should hang from the neck“]
Will
Übersetzt von Chris Frey EIKE




Eine Übersicht der Klimadebatte

Bild rechts: Autor S. Fred Singer ©Heartland Institute

Die Null-Hypothese

Die Existenz der Klimavariabilität seit Milliarden Jahren ist unumstritten – ohne jeden möglichen menschlichen Einfluss. Wir nennen das die ,Null-Hypothese‘. Logischerweise liegt also die Beweislast beim IPCC, glaubwürdige Beweise für die Behauptungen der anthropogenen globalen Erwärmung (AGW) durch die vom Menschen freigesetzten Treibhausgase vorzulegen. Wie weiter unten ausgeführt, war das IPCC bislang nicht in der Lage, solche Beweise vorzulegen: es hat seine Beweise für die „Zuordnung“ aufgegeben, die noch in den ersten drei Zustandsberichten (1990, 1996, 2001) genannt worden waren und hat in den Berichten AR 4 (2007) und AR 5 (2013) einen ,Beweis‘ angeführt, der die Logik verletzt.

Klimasensitivität

Wenn es um die globale mittlere Temperatur (GAST) geht, scheint die Hauptsorge darin zu bestehen, unter 2°C zu bleiben. Man sollte zur Kenntnis nehmen, dass dieses Limit völlig willkürlich ist. Es gibt keine etablierte wissenschaftliche Grundlage, diesem Limit spezielle Signifikanz zuzuordnen, es ist einfach eine „Goldglöckchen“-Zahl. Damit meine ich Folgendes:
Wählt man ein Limit von 0,5°C, werden die Leute sagen „das haben wir bereits erlebt, und nichts ist passiert“. Wähle ich jedoch 5°C, werden die Leute sagen „Eine solche Erwärmung werden wir niemals erleben – daher hat sie keine Bedeutung“. Darum vermutlich fiel die Wahl der Alarmisten auf die 2°C.
Bei der wirklichen Frage geht es um die Klimasensitivität (CS) – definiert als der Temperaturanstieg, der durch eine Verdoppelung des CO2-Gehaltes ausgelöst wird. (Diese Definition ist bei verschiedenen Autoren etwas unterschiedlich). Wie effektiv wirkt das Treibhausgas CO2 beim Anstieg der GAST? Wie realistisch sind die aktuellen Klimamodelle?
Das IPCC hat ursprünglich eine sehr große CS behauptet. Aber nach dem ersten Zustandsbericht 1990 nahm man die CS von 4,5 auf etwa 2,5°C zurück. Seitdem betrachtete das IPCC nur noch die Erwärmung im letzten Teil des 20. Jahrhunderts als vom Menschen verursacht und nicht mehr die Erwärmung von 1910 bis 1940. (Bild 1)

Bild 1: (a) globale mittlere Temperatur. (b) Man beachte, dass die höchsten Temperaturwerte in den USA in den dreißiger Jahren aufgetreten waren. Quelle: GISS
Meiner Ansicht nach kann die CS tatsächlich nahe Null liegen. Das bedeutet, dass CO2 nur einen sehr geringen Einfluss auf Klimaänderungen hat – möglicherweise wegen negativer Rückkopplungen. Jedoch gibt es immer noch Diskussionen darüber, welche Art negativer Rückkopplungen man erwarten kann: durch Wasserdampf oder durch Wolken?
Die sich immer ändernden, nicht existenten Beweise des IPCC für AGW
Ich kritisiere alle IPCC-Berichte von Nr. 1 (1990) bis Nr. 5 (2013). Als so genannter ,Experten-Begutachter‘ durfte ich mich an einer einmaligen Plattform für die Beobachtung aufeinanderfolgender IPCC-Entwürfe erfreuen. Es ist ziemlich erheiternd, dass die IPCC-Summaries über eine zunehmende Gewissheit für AGW sprechen – während gleichzeitig die modellierten Temperaturen immer weiter von den aktuell gemessenen Temperaturen divergieren (Bild 2).

Bild 2: Gewissheit des IPCC für AGW: 50% (1996), >66% (2001), >90% (2007), >95% (2013)
Wir nehmen zur Kenntnis, dass jede „Summary“ eines Berichtes durch einen politischen Konsens erzeugt wird, anders als im zugrunde liegenden wissenschaftlichen Bericht (wer das nicht glaubt, kann auf der website des IPCC nachschauen). Wie schon öfter erwähnt worden ist, lautet das Mandat des IPCC: „Verständnis der wissenschaftlichen Grundlage des Risikos einer vom Menschen induzierten Klimaänderung…“. Es gibt kein Mandat, irgendwelche anderen Ursachen in Betracht zu ziehen wie etwa natürliche Ursachen in Verbindung mit solaren und/oder ozeanischen Zirkulationszyklen – nur vermeintliche menschliche Gründe, hauptsächlich fossile Treibstoffe. Das IPCC erkennt überall einen menschlichen Klima-Fingerabdruck, weil dies das Einige ist, wonach zu suchen es beauftragt worden ist.
Im Besonderen nennt der IPCC-Bericht AR 1 eine Klimasensitivität von 4,5°C, wobei beide im 20. Jahrhundert beobachteten Erwärmungen (1910 bis 1940 sowie 1975 bis 1997) als anthropogen verursacht betrachtet werden. Nach heftiger Kritik an diesen ,Beweisen‘ hat das IPCC die Klimasensitivität auf 2,5°C zurückgefahren, indem nur noch die letzte Erwärmung im 20. Jahrhundert als anthropogen verursacht betrachtet wird. Die erste Erwärmung (1910 bis 1940) wird jetzt als natürlichen Ursprungs angesehen.
Nachdem man den anthropogenen Antrieb für 1910 bis 1940 aufgegeben hatte, betrachtete das IPCC zwei unterschiedliche Beweistypen als Unterstützung für AGW von 1975 bis 2000. In seinem Bericht von 1996 (AR 2) „fabrizierte“ Ben Santer den so genannten „Hot Spot (HS)“, eine berechnete maximale Erwärmung der oberen Troposphäre (Bild 3) und stellte die Behauptung auf, dass dieser ein Fingerabdruck von AGW sei. Dies ist aus zwei Gründen falsch: Der HS ist keineswegs ein Fingerabdruck von AGW – und er existiert nicht einmal. Er wurde als Rosinenpickerei herausgesucht aus der Temperaturaufzeichnung einer Radiosonde, wo es in einem Bereich eine kurzfristige leichte Erwärmung gab. Es gibt jedoch keine langfristige Zunahme (Bild 4)

Bild 3: Modellierter Hot Spot in der tropischen Troposphäre.

Bild 4: Kein beobachteter Hot Spot
Es ist einer Bemerkung wert, dass CCSP 1.1 (2006), dem Wissenschaftsbericht zur Klimaänderung für die US-Regierung mit Santer als Leitautor, einen HS in den Modellen zeigt (Bild 3), es dafür aber keinen Beleg aus Beobachtungen gibt (Bild 4). Der Gegensatz zwischen Modell und Beobachtungen ist gewaltig. Er illustriert sehr gut die Hauptquelle wissenschaftlicher Uneinigkeit – zwischen jenen, die sich auf Modellberechnungen verlassen und jenen, die sich auf Beobachtungen stützen.
Im AR 3 (2001) des IPCC taucht der HS nicht mehr auf, doch kam stattdessen der unsägliche Hockeyschläger von Mike Mann – dessen Behauptung zufolge während der letzten 1000 Jahre im 20. Jahrhundert eine ungewöhnliche Erwärmung aufgetreten war (Bild 5)

Bild 5: Oben: aus AR 1 des IPCC. Unten: „Hockeyschläger“ aus dem AR 3, wobei eine Proxy-Analyse ruckartig im Jahre 1979 aufhört und danach eine Thermometer-Aufzeichnung eingebracht wird. Man beachte, dass die Proxydaten keine ungewöhnliche Erwärmung im 20. Jahrhundert zeigen.
Eine genaue Untersuchung der im Hockeyschläger verwendeten Proxy-Daten zeigt, dass die Erwärmung überhaupt nicht ungewöhnlich war und möglicherweise geringer ausgefallen ist als vor 1000 Jahren. Eine wesentliche Erwärmung taucht nur auf durch das Hinzufügen der Temperaturkurve aus den Instrumenten (Bild 5). Man beachte auch, dass Mann seine Proxy-Daten nach 1979 verschweigt, die wahrscheinlich keine solche Erwärmung zeigen.
Wegen der vielen fundierten Kritik ist das Hockeyschläger-Argument vom IPCC inzwischen als Stütze für AGW fallen gelassen worden. Stattdessen warten jeweils die Berichte AR 4 (2007) und AR 5 (2013) in ihren Kapiteln über ,Zuordnung‘ auf mit sehr eigenartigen Zirkelschlüssen zur Unterstützung für AGW.
Beide Berichte passen sich an eine berechnete Kurve der Temperaturdaten in der zweiten Hälfte des 20. Jahrhunderts an. (Das kann man immer machen, indem man einen geeigneten Wert der Klimasensitivität wählt sowie einen vermuteten Aerosol-Antrieb). Nachdem man eine vernünftige Anpassung gefunden hatte, entfernten sie den Antrieb durch Treibhausgase und erhielten natürlich eine ,nicht angetriebene‘ Modellkurve, die keinen Temperaturanstieg mehr zeigte (Bild 6). Aber dann behaupteten sie, dass diese Lücke hinsichtlich der Daten ein eindeutiger Beweis für AGW sei. Diese Behauptung vergewaltigt die Logik und ist absolut sinnlos. Sie haben einfach ihre berechnete Kurve modifiziert und dann behauptet, dass die resultierende Lücke einen Beweis für die anthropogene Erwärmung darstellt.

Bild 6:  Unforced model (red). Quelle: IPCC-AR5 Chap 10 (‘Attribution’)
Der Anstieg des Meeresspiegels (SLR) zeigt im 20. Jahrhundert keine Beschleunigung
Es ist allgemein anerkannt, dass der Meeresspiegel um etwa 120 Meter gestiegen ist seit dem Höhepunkt der jüngsten Eiszeit vor etwa 18.000 Jahren. Die besten Werte stammen aus Korallen in der Karibik.
Das IPCC hat in seinen fünf Zustandsberichten versucht, den bis zum Jahr 2100 erwarteten SLR abzuschätzen. Wie man in Bild 7 erkennt, haben diese Schätzungen laufend abgenommen mit den niedrigsten Werten im Entwurf des AR 4 (2007). Allerdings zeigt die Endversion des AR 4 etwas höhere Schätzungen.

Bild 7: SLR-Schätzungen der fünf IPCC-Berichte. Die Werte aus dem AR 5 (2013; schwarz, bei ,other‘) passen zu Rahmstorf.
AR 4 (2007) zeigt immer noch vernünftige SLR-Werte. Aber als dann AR 5 erschien, können wir in etwa eine Verdoppelung sowohl der niedrigsten als auch der höchsten Schätzung ausmachen, wie Bild 7 (schwarz) zeigt.
Jetzt betrachten wir das Summary-Ergebnis (aus Kapitel 13 im AR 5) detaillierter in Bild 8 – und stellen die Schlüsselfrage: Gibt es zuverlässige Beweise für eine Beschleunigung des SLR in Zusammenhang mit Temperaturanstieg und CO2-Zunahme während des 20. Jahrhunderts? Wie wir sehen werden, lautet die Antwort NEIN.

Bild 8: SLR. Quelle: IPCC-AR5, Chap 13 (SLR).
Die erste Frage, die man zu Bild 8 stellen könnte, lautet: warum beschleunigt sich der SLR plötzlich im Jahre 1880 von Null auf etwa 18 cm pro Jahrhundert? Die Antwort könnte lauten, dass die IPCC-Daten nicht mit anderen Daten übereinstimmen, die keine solche Beschleunigung zeigen.
Weiter! Warum wird in Bild 8 im Jahre 1993 eine Beschleunigung gezeigt? Die Antwort könnte lauten, dass sich das IPCC einer neuen Beobachtungsmethode zugewandt hat, und zwar basierend auf Radar von Satelliten. Wie Dr. Willie Soon aber überzeugend erklärte, ist der neue Datensatz problematisch und stimmt nicht überein mit den traditionellen Daten von Tidenpegeln. Letztere zeigen während der letzten Jahrhunderte keinerlei Beschleunigung. Im Gegenteil, einige Analysen von Tidenmessungen zeigen eine Verlangsamung um das Jahr 1960 (Bild 9). Der Grund hierfür ist unbekannt, aber die Realität ist nicht in Frage gestellt worden. Sie widersprechen jedoch mit Sicherheit dem von Satelliten gezeigten stärkeren Anstieg.

Bild 9: Analyse von Tidenmessungen. Sie zeigen Verlangsamung unabhängig von der Ozeantemperatur und dem CO2. Quelle: Holgate GRL 2007
Schlussfolgerung: Meine eigene Beste Schätzung für das Jahr 2100 beläuft sich auf einen SLR von etwa 15 cm (siehe Bild 7) und einem weiteren Anstieg danach mit etwa dem gleichen Wert (18 cm pro Jahrhundert) – unabhängig von jedweden kurzfristigen Temperatur-Fluktuationen. Meiner Meinung nach gibt es nichts, was wir gegen diesen natürlichen Anstieg tun können, der sich bis zur nächsten Eiszeit fortsetzen wird, wenn der Meeresspiegel sinken wird durch die Eisakkumulation in den Polargebieten und auf Gletschern. Zwischenzeitlich sollten wir dem holländischen Beispiel folgen: Deiche bauen.
S. Fred Singer is professor emeritus at the University of Virginia and director of the Science & Environmental Policy Project. His specialty is atmospheric and space physics. An expert in remote sensing and satellites, he served as the founding director of the US Weather Satellite Service and, more recently, as vice chair of the US National Advisory Committee on Oceans & Atmosphere. He is a Senior Fellow of the Heartland Institute and the Independent Institute. He co-authored NY Times best-seller Unstoppable Global Warming: Every 1500 years. In 2007, he founded and has chaired the NIPCC (Nongovernmental International Panel on Climate Change), which has released several scientific reports [See www.NIPCCreport.org]. For recent writings see http://www.americanthinker.com/s_fred_singer/ and also Google Scholar.
(Zur übersetzten Biographie von S. Fred Singer siehe die zahlreichen Beiträge von ihm auf diesem Blog)
Übersetzt von Chris Frey EIKE




Die kommende Verschiebung des Klima-Paradigmas

Solche Kipp-Punkte gibt es in der Wissenschaft ziemlich oft. Ich habe persönlich zwei solche Paradigma-Verschiebungen miterlebt, bei denen sich die wissenschaftliche Meinung weltweit rapide geändert hat – fast über Nacht. Eine davon erfolgte in der Kosmologie, als die „Steady State“-Theorie bzgl. des Universums durch die „Big Bang“-Theorie ersetzt wurde. Diese Verschiebung wurde durch die Entdeckung der „Mikrowellen-Hintergrund“-Strahlung gestützt. Hierfür hat es bereits Nobelpreise gegeben, und wahrscheinlich werden noch weitere folgen.

Die andere wesentliche Verschiebung [Neuorientierung?] betraf die Theorie der Kontinentalverschiebung. Nachdem diese vom wissenschaftlichen Establishment in Bausch und Bogen verdammt worden war, wurde die Hypothese von Alfred Wegener durch die Entdeckung der „Meeresgrund-Ausdehnung“ dramatisch bestätigt. Wegener hatte seine Hypothese aufgrund der Küstenlinien von Afrika und Südamerika beiderseits des Atlantiks aufgestellt.

Diese Verschiebungen waren möglich, weil dahinter keine kommerziellen oder finanziellen Interessen standen. Diese haben also auch nicht Öffentlichkeit und Politiker beeinflusst. Aber beim Klima ist es etwas ganz Anderes: Die finanziellen Belange sind gewaltig – Billionen von Dollars stark. Und sie beeinflussen die Politik und tatsächlich das ökonomische Wohlergehen jedes einzelnen Bewohners in den entwickelten und den Entwicklungsländern. Beispielsweise hat die Konversion eines großen Teils der Maisernte in den USA zu Äthanol die Preise für Tortillas in Mexiko steigen lassen, was zu Nahrungsmittel-Unruhen führte.

Trotzdem glaube ich, dass die Zeit reif ist für einen Paradigmenwechsel bzgl. Klima. Zum einen hat es seit etwa 15 Jahren überhaupt keine Erwärmung mehr gegeben – trotz des steigenden Gehalts der Atmosphäre an Treibhausgasen. Die Klimamodelle haben hierfür bislang keinerlei Erklärung geliefert. Diese Disparität wirft natürlich große Schatten auf jede zukünftige Erwärmung, die aus diesen gleichen Modellen abgeleitet worden ist, und folglich auch auf die Politik – im Prinzip die Politik zur Abschwächung und Kontrolle von Kohlendioxid infolge des Verbrennens fossiler Treibstoffe.

Nächstes Jahr in Paris werden die UN versuchen, die grundlegenden Prinzipien des Kyoto-Protokolls (1997 bis 2012) wiederzubeleben – einem internationalen Vertrag, die teilnehmende Nationen verpflichtet, ihre CO2-Emissionen zu verringern. Sie könnten Erfolg haben – es sei denn, das gegenwärtige Paradigma ändert sich.

Schon jetzt kann man beobachten, wie der Druck gegen einen solchen Vertrag immer stärker wird. Die großen Koryphäen der internationalen Klimawissenschaft erzeugen aktiv immer neue Klimaängste [tatkräftig unterstützt durch die Main Stream Medien in D, angeführt von der ‚Süddeutschen Zeitung‘. A. d. Übers.]. Die Royal Society [in UK] und die US National Academy of Science haben gemeinsam einen grundlegenden Bericht veröffentlicht. Dieser enthält keine neue Wissenschaft, sehr wohl aber den Ruf der „Notwendigkeit von Maßnahmen“. Die AAAS (American Association for the Advancement of Science), die größte wissenschaftliche Organisation in den USA, befürwortet die gleiche Politik, jedoch ohne den Nimbus der Wissenschaftlichkeit in ihrem verlogenen Pamphlet. Selbst das einst angesehene Magazin Scientific American ist auf diesen Zug aufgesprungen und treibt aktiv diese Politik voran.

Alle diese Establishment-Gruppen, so scheint es, schauen sehr aufmerksam nach finanziellen Zuwendungen seitens der Regierung – nicht nur für die Forschung, sondern auch für die Maßnahmen, die mit dieser Politik einhergehen. Sie alle akzeptieren die Klimawissenschaft so, wie sie in den drei Bänden des 5. Zustandsberichtes des IPCC beschrieben ist. Der erste Band, in dem es um physikalische Wissenschaft geht, wurde im September 2013 veröffentlicht, die Bände 2 und 3, in denen es um Auswirkungen und Abschwächung geht, folgten im März und April 2014.

Doch jetzt haben wir in Gestalt des NIPCC als Gegenpart zum IPCC zum ersten Mal eine unabhängige Stimme, eine zweite Meinung, wenn man so will – was vom IAC (InterAcademy Council on Science) sehr begrüßt wurde. Inzwischen haben wir viele Studien veröffentlicht, die das IPCC [und die Main Stream Medien in D] zu ignorieren geruht haben, soweit es die Schlussfolgerungen zur anthropogenen globalen Erwärmung betrifft. Die NIPCC-Berichte wurden ebenfalls im September 2013 (physikalische Wissenschaft) sowie im März und April 2014 (biologische bzw. gesellschaftliche Auswirkungen) veröffentlicht.

Das NIPCC, vor allem seine Summary for Policymakers (SPM) von Band 1 schaut kritisch auf die Beweise, die das IPCC zur Stützung seiner Behauptung von AGW präsentiert. NIPCC merkt an, dass sich die Beweislage mit der Zeit ändert. Im ersten IPCC-Bericht (1990) wurde eine unwahrscheinliche statistische Methode angewendet um zu zeigen, dass die Erwärmung in der ersten Hälfte des 20. Jahrhunderts aufgrund menschlicher Treibhausgase erfolgt war; das glaubt kein Mensch mehr.

Der zweite Zustandsbericht 1996, der zu dem infamen Kyoto-Protokoll 1997 führte, fabrizierte den so genannten „Hot Spot“, ein Gebiet mit verstärktem Erwärmungstrend und dessen Maximum in der tropischen Troposphäre. Dieser Beweis ist ebenfalls verschwunden: eine detaillierte Analyse (veröffentlicht in Nature 1996) zeigte, dass dieser Hot Spot nicht einmal existiert. Außerdem ist die Hypothese, dass dieser einen „Fingerabdruck“ für AGW darstellt, falsch.

Als Folge dieser beiden gescheiterten Versuche, irgendeine Art Beweis für AGW zu etablieren, wurde im 3. IPCC-Bericht (2001) der so genannte „Hockeyschläger“ lanciert, dem zufolge nur das 20. Jahrhundert mit einer ungewöhnlichen Erwärmung im Vergleich der letzten 1000 Jahre aufwartete. Allerdings zeigten weitere Untersuchungen, dass der Hockeyschläger ebenfalls fabriziert worden war – basierte er doch auf falschen Daten, falschen statistischen Methoden und unangemessenen Kalibrierungs-Methoden. Selbst zufällige Randwertdaten, die man in diesen Algorithmus fütterte, erzeugten in jedem Falle einen Hockeyschläger.

Im jüngsten IPCC-Bericht 2013 hat das IPCC alle zuvor angeführten Beweisstücke fallen gelassen. Stattdessen konzentrierte es sich auf den Versuch zu beweisen, dass die gemessene Erwärmung zwischen 1978 und 2000 mit der von den Klimamodellen vorhergesagten Erwärmung übereinstimmt. Dieser so genannte Beweis entpuppte sich aber bald auf sehr tönernen Füßen stehend. Die gemessene Erwärmung war nur an Wetterstationen auf dem Festland aufgetreten und zeigt sich in keinem einzigen anderen Datensatz; die Wettersatelliten, die die atmosphärischen Temperaturen mittels Fernerkundung messen, zeigen überhaupt keinen signifikanten Trend – gleiches gilt für Proxy-Daten.

Daher last sich gut belegen, dass es im 20. Jahrhundert überhaupt keine wahrnehmbare, vom Menschen verursachte Erwärmung gegeben hatte – und dass die Erwärmungseffekte des steigenden Treibhausgas-Gehaltes der Atmosphäre ziemlich unbedeutend waren. Siehe auch hier.

Aber was ist mit den globalen Temperaturen in der Zukunft? Die Meinungen gehen weit auseinander – und reichen von einer weiteren „Kleinen Eiszeit“ (meiner Ansicht nach eine Kalamität) bis zu einem Wiedereinsetzen der Erwärmung (mit Unterstützung durch die „fehlende Wärme“, von der sich einige Alarmisten sicher sind, dass sie sich irgendwo versteckt). Ich persönlich sage nichts vorher, da ich einfach zu wenig über das Innere der Sonne weiß; ich versuche einfach nur, das Klima der Vergangenheit zu verstehen und zu erklären. Falls man mir aber die Pistole auf die Brust hält, würde ich die historischen Zyklen heranziehen wie den beobachteten Zyklus über 1000 bis 1500 Jahre; dieser zeigt eine moderate Erwärmung während der nächsten Jahrhunderte, vielleicht mit Vorwärts- und Rückwärtsschritten – anders als die Computermodelle, die einen stetigen Temperaturanstieg aus einem stetigen CO2-Anstieg ableiten.

Werden die Nationen überhaupt irgendwelche Verträge von der Konferenz in Paris 2015 akzeptieren? Bislang scheint man nur in Westeuropa bereit zu einer Ratifizierung zu sein – und selbst dort wachsen die Zweifel. In Osteuropa ist man definitiv gegen irgendein neues Protokoll, ebenso wie in Japan, Australien und Kanada. Und was ist mit den Chinesen, den größten Emittenten von CO2 weltweit? Sie bekommen einen Wettbewerbs-Vorteil, falls dessen kommerzielle Konkurrenten die Restriktionen des Vertragens akzeptieren, die ihre Energiekosten in die Höhe treiben.

Die USA könnten in einem Übergangsstadium stecken – und genau hier könnte eine Veränderung des Paradigmas wirklich global einen Unterschied ausmachen. Der jüngsten Gallup-Umfrage zufolge rangiert die globale Erwärmung fast am Ende von zwanzig Themen, bei denen es hauptsächlich um wirtschaftliche Dinge geht. Das Weiße Haus scheint jedoch nach wie vor verrückt zu sein bzgl. des Klimaalarmismus‘. Präsident Obama plant neue Klima-Initiativen auf der Grundlage der Beratung seitens seines Wissenschaftlichen Beraters John Holdren, ein Jünger der ersten Stunde der „Bevölkerungsbombe“ von Paul Ehrlich. John Podesta ist als Berater und spezieller Assistent des Präsidenten ins Boot geholt worden, um Klima-Initiativen voranzutreiben. Und natürlich stimmt die übrige Administration mit dem Weißen Haus überein.

Außenminister John Kerry betrachtet AGW als die größte Bedrohung für die Sicherheit der USA – obwohl seine Agenda überfüllt ist mit außenpolitischen Problemen: Die Atomverhandlungen mit Iran, der Bürgerkrieg in Syrien, eine sich entwickelnde sunnitische Tyrannei in Irak, die Friedensverhandlungen zwischen Arabien und Israel und die russische Annexion der Krim. Dies ist natürlich der gleiche John Kerry, der als US-Senator im Jahre 1997 für eine Byrd-Hagel-Resolution gegen die Vorschriften eines Kyoto-Protokolls gestimmt hat.

Mitte 2014 wird der Supreme Court der USA (SCOTUS) seine Ansicht zu den fehlgeleiteten und unwissenschaftlichen Bemühungen der EPA bekannt geben, den Gebrauch von Kohle zur Energieerzeugung zu begrenzen oder gar aufzugeben. Falls SCOTUS auf die NIPCC-Ergebnisse aufmerksam wird, wird man sich sicher gegen die EPA und damit das Weiße Haus aussprechen. Ein solcher Vorgang könnte der Auslöser einer umwälzenden Paradigma-Verschiebung in der US-Energie- und Klimapolitik sein. Die Wahlen im November 2014 könnten die Balance kippen und den Mythos der Globalen Erwärmung schließlich töten – in den USA und in der ganzen Welt.

Kurfassung der NIPCC-Ergebnisse, basierend auf tausenden begutachteten Studien, stehen in scharfem Gegensatz zu den alarmistischen IPCC-Vorhersagen:

● Die Klimadaten sagen uns, dass der menschliche Einfluss auf das Klima der Erde sehr klein ist und dass jedwede Erwärmung aufgrund von Treibhausgasen so gering ist, dass sie von der natürlichen Variabilität nicht zu unterscheiden ist.

● Die Gesamtauswirkungen moderat steigender Temperaturen und eines höheren CO2-Niveaus auf Pflanzen, Tiere, Natur und menschliches Wohlergehen waren bislang positiv und werden höchstwahrscheinlich auch in Zukunft positiv sein.

● Die Kosten für Versuche, die Klimaänderung durch Emissionsreduktion abzuschwächen, sind drastisch höher als die daraus resultierenden Vorteile. Die jährlichen Kosten pro Haushalt in den USA würden auf 3900 Dollar steigen; außerdem würden Millionen Arbeitsplätze zerstört.

● Im Lichte neuer wissenschaftlicher Erkenntnisse und der ökonomischen Auswirkungen der Klimaänderung müssen die tausende Gesetze, die auf dem Höhepunkt  des globalen Erwärmungs-Alarms erlassen worden waren, neu überdacht, modifiziert oder einfach abgeschafft werden.

Link: http://www.americanthinker.com/2014/03/the_coming_paradigm_shift_on_climate_.html

Übersetzt von Chris Frey EIKE

<xml></xml>




Klimakonsens-Betrügereien

Genauso klar gesagt: Wissenschaft funktioniert nicht über Konsens. Wissenschaft macht keine Fortschritte durch Aufrufe, ihr gefälligst zu folgen; tatsächlich gab es wesentliche wissenschaftliche Fortschritte gewöhnlich von außerhalb des Konsens‘. Dafür gibt es viele Beispiele, von Galilei bis Einstein. (Man kann dies auch anders ausdrücken: Wissenschaftliche Wahrhaftigkeit hängt nicht von Linientreue ab). Mit anderen Worten, schon die bloße Herausstellung eines wissenschaftlichen Konsens‘ ist unwissenschaftlich.

Der Grad des Konsens’ hängt auch von der Art und Weise der Fragestellung ab. Zum Beispiel können wir einen Konsens von 100% erreichen, falls die Frage lautet: „Glauben Sie an die Klimaänderung?“ Wir können fast 100% erreichen mit der Frage: „Glauben Sie, dass die Menschen einen kleinen Einfluss auf das Klima haben?“ Diese letzte Frage würde auch lokale Effekte einschließen wie Verstädterung, das Roden von Wäldern, Landwirtschaft usw.

Also muss man vorsichtig sein und sich immer fragen: Wie genau lautete die Frage, für die ein Konsens in Anspruch genommen worden ist?

Unterwanderung von Peer Review

Schließlich sollten wir noch darauf hinweisen, dass ein Konsens fabriziert werden kann – selbst wenn es gar keinen Konsens gibt. Zum Beispiel ist es sehr populär geworden zu behaupten, dass 97% aller Wissenschaftler hinter AGW stehen. Hier lautet die Schlüsselfrage: Welche Veröffentlichungen sind Konsens und wie genau sieht die Unterstützung dafür aus?

Dank der Enthüllungen der Klimagate-E-Mails haben wir jetzt einen skeptischeren Blick auf den Prozess, mit dessen Hilfe Veröffentlichungen überprüft werden. Wir wissen jetzt, dass der Prozess der Begutachtung, einst von Vielen als ‚goldener Standard‘ angesehen – manipuliert werden kann. Und tatsächlich wurde er auch manipuliert, und zwar durch eine Bande von Klimawissenschaftlern aus UK und den USA, die sehr offen über ihr Ziel gesprochen haben, abweichende Meinungen von der Veröffentlichung auszuschließen. Wir wissen aus den gleichen E-Mails auch, dass Herausgeber von Zeitschriften durch bestimmte Aktivisten unter Druck gesetzt werden können.

In jedem Falle kann der Begutachtungsprozess leicht durch den Herausgeber verbogen werden, der gewöhnlicherweise die Begutachter aussucht. Und einige Herausgeber missbrauchen ihre Position, um persönliche Vorlieben voranzubringen.

Da gibt es beispielsweise den Fall eines ehemaligen Herausgebers von Science, der sehr offen seinen Glauben an DAGW kundgetan hat. Er hat effektiv die Veröffentlichung aller Studien hintertrieben, die gegen seine Verzerrungen sprachen. Schließlich musste er beschämt der gegensätzlichen Ansicht eines Klimaskeptikers Gehör verschaffen, die auf soliden wissenschaftlichen Beweisen beruhte. Aber natürlich hat er das letzte Wort in dieser Debatte für sich reklamiert.

Meine gelegentlichen wissenschaftlichen Mitautoren David Douglass (University of Rochester) und John Christy (University of Alabama) beschreiben ein besonders krasses Beispiel der eklatanten Subversion einer Begutachtung – alles belegt durch die Klimagate-E-Mails – hier.

Das Ganze unübersichtlich machen

Des Weiteren sollten wir die Möglichkeit erwähnen, die Öffentlichkeit und oftmals auch viele Wissenschaftler zu verwirren – durch clevere Formulierungen. Dazu möchte ich nur zwei Beispiele nennen:

Oft wird darauf hingewiesen, dass es im Wesentlichen während der letzten 15 Jahre keinen Erwärmungstrend gegeben habe – obwohl der Antrieb durch Kohlendioxid stetig zugenommen hat. Gleichzeitig behaupten Klimawissenschaftler, dass das vorige Jahrzehnt das Wärmste seit Beginn von Thermometermessungen gewesen sei.

Wie das Schicksal so spielt, stimmen beide Statements, und sie widersprechen sich auch nicht. Wie ist das möglich?

Wir haben es hier mit einem einfachen Fall von Verwirrung zu tun. Einerseits gibt es den Temperaturtrend, der seit mindestens 15 Jahren nahezu Null ist. Andererseits gibt es ein Temperaturniveau, das das Höchste seit dem Ende der Kleinen Eiszeit um das Jahr 1800 erreicht hat.

Man beachte, dass die Begriffe ‚Niveau’ und ‚Trend‘ ziemlich unterschiedliche Konzepte beschreiben – und sogar unterschiedliche Einheiten aufweisen. Das Niveau wird in Grad Celsius gemessen, der Trend in Grad Celsius pro Jahrzehnt. (Das ist ein sehr allgemeines Problem. Zum Beispiel verwechseln viele Leute elektrische Energie mit elektrischer Leistung. Die eine wird gemessen in Joules oder Kilowatt-Stunden, die andere in Kilowatt).

Hier könnte es helfen, an die Preise am Aktienmarkt zu denken. Der Dow-Jones-Index ist seit vielen Wochen mehr oder weniger flach verlaufen und schwankte zwischen 15.000 und 16.000, was im Wesentlichen einen Trend Null belegt; aber er liegt auf dem höchsten Niveau seit Einführung des Index‘ im Jahre 1896.

Dies ist nur ein Beispiel dafür, wie Klimawissenschaftler die Öffentlichkeit verwirren können – und oftmals auch sich selbst – nämlich zu glauben, dass es hinsichtlich DAGW einen Konsens gibt. Betrachten wir einmal zwei Schlagzeilen aus jüngster Zeit:

 „UN: 2013 war das sechstwärmste Jahr, langzeitlicher Erwärmungstrend bestätigt“

„Temperaturen in den USA im Dez./Jan. waren die drittkältesten in 30 Jahren“

Beides ist korrekt – aber aus keiner dieser Schlagzeilen geht die wichtige Tatsache hervor, dass der Trend seit mindestens 15 Jahren flach war – was die Treibhaus-Klimamodelle falsifiziert, die allesamt eine starke zukünftige Erwärmung vorhersagen.

Und natürlich basieren alle politischen Maßnahmen der Regierung auf diesen ungültigen Klimamodellen – die schon jetzt als falsch überführt worden sind. Und doch wird im jüngsten IPCC-Bericht vom September 2013 behauptet, dass man sich bzgl. DAGW zu 95% sicher sei! Wie um alles in der Welt kann man so etwas angesichts der aktuellen Temperaturdaten behaupten, ohne das Gesicht zu verziehen?

Ihre lächerliche Antwort: 95% aller Klimamodelle stimmen überein; daher müssen die Beobachtungen falsch sein! Man kann über eine solche Vorstellung von ‚Wissenschaft‘ nur traurig den Kopf schütteln.

Eine andere Fangfrage seitens der Aktivisten, die einen ‚Konsens‘ verkaufen wollen, lautet: „Wenn man ernsthaft erkrankt ist und 99 Ärzte eine bestimmte Behandlung verordnen, würde man dann dem einen Arzt folgen, der eine andere Behandlung für richtig hält?“

Das kommt darauf an. Nehmen wir an, ich bekomme durch eigene Nachforschungen heraus, dass alle 99 Ärzte ihre Informationen aus einem einzigen (anonymen) Wikipedia-Artikel gezogen haben, was dann?

Meinungsumfragen

Beide Seiten der Klimadebatte haben aktiv Meinungsumfragen durchgeführt. Im Jahre 1990, als ich begann, grundlegend involviert zu sein in die Argumente zur Klimaänderung und das SEPP (Science & Environmental Policy Project) ins Leben gerufen habe, beschloss ich, die Experten auszusuchen. Mit begrenzten Mitteln und vor der weiten Verbreitung von E-Mails wählte ich die Funktionäre aus der Mitgliedliste des technischen Komitees der American Meteorological Society AMS – eine Anzahl von weniger als 100 Personen. Ich dachte mir, dass dies die Experten sein müssten.

Ich war so vorsichtig, mich von dieser Umfrage zu isolieren, indem ich mich der Mitarbeit von Dr. Jay Winston versicherte, einem weithin anerkannten Meteorologen und einer, der skeptisch hinsichtlich der Klimaskeptiker ist. Und ich habe zwei Studenten ohne ausgeprägte Erfahrung in Klimathemen beschäftigt, die die aktuelle Umfrage durchführen und die Rückläufe analysieren sollten.

Dieses Unterfangen zeitigte ein interessantes Ergebnis: Grob die Hälfte der AMS-Experten glaubten, dass es einen signifikanten menschlichen Einfluss auf das Klima geben müsse in Gestalt der Freisetzung von Kohlendioxid – während die andere Hälfte massive Zweifel an der Gültigkeit der Klimamodelle hatte.

Nachfolgende Umfragen, zum Beispiel eine von Hans von Storch in Deutschland, kamen zu ähnlichen Ergebnissen – während die von den Aktivisten durchgeführten Umfragen stets starke Unterstützung für AGW ergeben haben. Ein klassischer Fall ist eine Durchsicht der Abstracts von fast 1000 Studien durch die Wissenschafts-Historikerin Naomi Oreskes (University of California), die im Jahre 2004 in Science veröffentlicht worden ist. Sie behauptete, dass es darin einen fast einstimmigen Konsens hinsichtlich AGW gebe. Allerdings musste Oreskes auf bohrende Nachfragen hinterher klein beigeben und einräumen, dass sie etwa 11.000 Abstracts übersehen hatte – später veröffentlichte sie diskret eine Korrektur in einer späteren Ausgabe von Science.

Andererseits haben unabhängige Umfragen von Zeitungen durch Pew, Gallup und andere angesehene Organisationen in viel größerem Rahmen die Ergebnisse meiner früheren AMS-Umfrage bestätigt. Am interessantesten war jedoch die graduelle Abnahme der öffentlichen Unterstützung über die Jahre für DAGW, die diese unabhängigen Umfragen gezeigt haben.

Ebenfalls über die Jahre gab e seine große Anzahl von ‚Deklarationen, Manifesten und Petitionen‘ – unterschrieben von Wissenschaftlern und dazu gedacht, die öffentliche Meinung zu beeinflussen . Das begann mit der ‚Leipzig-Deklaration‘ im Jahre 1995. Erwähnenswert ist hier auch die Kopenhagen-Diagnose (2009), die dazu gedacht war, einen Hype vor einer UN-Konferenz zu entfachen, der dann kläglich gescheitert ist.

Man kann sicher sagen, dass die Gesamtauswirkungen dieser Umfragen minimal waren, verglichen mit den politischen Konsequenzen der IPCC-Berichte, die zu ( in der Regel gescheiterten) Versuchen geführt haben, international Maßnahmen zu ergreifen, wie im Kyoto-Protokoll (1997 bis 2012). Man sollte hier auch die Oregon-Petition gegen Kyoto erwähnen, die von fast 31.000 Wissenschaftlern und Ingenieuren (zumeist aus den USA) unterschrieben worden ist – darunter fast 10.000 mit akademischen Graden. Was vielleicht noch wichtiger ist, im Juli 1997 hat der US-Senat einstimmig die Byrd-Hagel-Resolution gegen Verträge á la Kyoto beschlossen – was möglicherweise die Clinton-Gore-Administration davon abgehalten hat, dem Senat jemals das Kyoto-Protokoll zur Genehmigung vorzulegen.

Ist Konsens immer noch ein Thema?

Bis hier könnte die Frage eines wissenschaftlichen Konsens‘ weitgehend akademisch geworden sein.  Was zählt, sind die tatsächlichen Klimabeobachtungen, die den öffentlichen Glauben in die DAGW predigenden Klimamodelle erschüttert haben. Die wilden Behauptungen des IPCC wurden durch die nüchterneren, auf Fakten basierenden Veröffentlichungen des NIPCC  widerlegt. Während viele nationale Wissenschaftsakademien und Organisationen immer noch an den sich ständig ändernden ‚Beweisen‘ des IPCC kleben, könnte es bedeutsam sein, dass die chinesische Akademie der Wissenschaften die NIPCC-Berichte übersetzt und eine Zusammenfassung davon veröffentlicht hat.

Der Physiker Prof. Howard Hayden formulierte es so: „Falls die Wissenschaft so sicher wäre wie die Klimaaktivisten behaupten, gäbe es genau ein Klimamodell, und dessen Ergebnisse würden mit den Beobachtungen übereinstimmen. Nun haben aber die Klimamodellierer buchstäblich Dutzende Klimamodelle entwickelt. Sie haben alle eines gemeinsam: sie können nicht die Realität abbilden. Zwar haben sich die Modellergebnisse immer weiter von den Daten entfernt, doch hat die Klimaclique nichtsdestotrotz immer mehr Vertrauen entwickelt – von anmaßend im Jahr 2001 (66% Gewissheit im 3. Zustandsbericht) bis zu sehr arrogant im Jahr 2013 (95% Gewissheit)“.

Es scheint, dass die Klimaaktivisten dem Glauben und der Ideologie folgen – und nicht mehr an Fakten interessiert sind.

S. Fred Singer ist emeritierter Professor an der University of Virginia und Direktor des Science & Environmental Policy Project. Seine Spezialgebiete sind Atmosphären- und Weltraumphysik. Er ist Experte bzgl. Fernerkundung und Satelliten, er war Gründungsdirektor des US Weather Satellite Service und jüngst Vizevorsitzender des nationalen Beratungskomitees für Ozean & Atmosphäre der USA. Er ist leitendes Mitglied des Heartland Institute und des Independent Institute sowie gewähltes Mitglied zahlreicher wissenschaftlicher Organisationen. Er war Mitautor des NYTimes-Bestsellers Unstoppable Global Warming: Every 1500 years.  Im Jahre 2007 gründete er das NIPCC, dessen Vorsitzender er seitdem ist. Diese Organisation hat viele wissenschaftliche Berichte veröffentlicht (siehe www.NIPCCreport.org). Für Veröffentlichungen aus jüngerer Zeit siehe http://www.americanthinker.com/s_fred_singer/ und Google Scholar.

Larry Bell in Forbes  http://www.forbes.com/sites/larrybell/2012/07/17/that-scientific-global-warming-consensus-not/

Link: http://www.americanthinker.com/2014/02/climate_consensus_con_game.html 

Übersetzt von Chris Frey EIKE