Wladimir Putin: Politik- und Klima-Realist?

Erfahrungen
Ich habe während des Kalten Krieges mit vielen sowjetischen Klimatologen gearbeitet. Alles fing damit an, dass ich ein Kapitel in einem Buch mit dem Titel Climate Science AD 1500 geschrieben hatte. Der Herausgeber hat Autoren von Kapiteln andere Kapitel begutachten lassen. Ein Kapitel, das mir zur Begutachtung vorgelegt wurde, trug die Überschrift „Documentary evidence from the USSR“ von E. P. Borisenkov. Darin ging es um den Wert russischer Chroniken. Ich wurde sehr vertraut mit der Arbeit von Mikhail Budyko, der einen grundlegenden Übergang vollzog von synoptischer Klimatologie zu einer Energiebilanz-Klimatologie. Sein Werk beeinflusste die gegenwärtige Klimawissenschaft. Ironischerweise war dieser Herausgeber Phil Jones, in dessen Klimagate-E-Mails zum einzigen Mal mein Name auftauchte. Im Mai 2008 schrieb er:
PPS Unser Web-Server hat dieses Stück Müll gefunden – so falsch, dass es unglaublich ist, dass Tim Ball ein vernünftiges Kapitel in Climate Science AD 1500 geschrieben hat.
Michael Mann schrieb dazu:
p.s. Was Tim Ball betrifft – er ist so vollständig diskreditiert (auch weil er ein Gerichtsverfahren verloren hat, indem er der Lüge hinsichtlich seiner wissenschaftlichen Laufbahn überführt wurde), dass niemand außer den wirklichen Leugnern sich auch nur mit dem Gedanken trägt, seinen Erguss zu lesen. Siehe z. B. hier:

http://www.desmogblog.com/node/1272

Ich finde, es ist eine erheiternde Kuriosität, dass er tatsächlich ein Kapitel hat bei Bradley und Jones.

Am besten geheim halten!

Das Problem: Ich habe kein Gerichtsverfahren verloren, und es gibt auch keine Veröffentlichung mit falschen Angaben zu meiner Laufbahn. Der Calgary Herald veröffentlichte eine Korrektur zusammen mit einer Entschuldigung. Man beachte die Informationsquelle von Mann. Und außerdem, wissen wir nicht inzwischen, wer den wirklichen Müll veröffentlicht hat?

Unterschiedliche Verfahren und Konflikte
Während des Kalten Krieges waren die meisten wissenschaftlichen Veröffentlichungen der Sowjetunion nicht verfügbar, bis es zu einer bedeutenden Änderung kam, als jüdische Wissenschaftler, die aus der Sowjetunion geflohen waren, in Israel einen Übersetzungsservice ins Leben riefen. Etwa im Jahre 1990 ergab sich eine Divergenz im Bereich Klimawissenschaft zwischen den Ländern des Ostblocks und des Westens. Die Sowjets glauben, das Klima sei zyklisch, die Summe einer Vielfalt von Zyklen. Die Herausforderung bestand darin, diese Zyklen zu identifizieren und die Wechselwirkungen zwischen ihnen herauszufinden. [Die zyklische Natur von] Klimaereignissen begann die russische Denkweise zu durchdringen besonders nach der Veröffentlichung des Artikels „Long Waves in Economic Life“ von Nikolai Kondratieff im Jahre 1926. Das Konzept von Klimazyklen hat seitdem in der Ökonomie und Vorhersagen des Aktienmarktes eine Blüte erreicht. Das Buch von Michael Zahorack „Climate: The Key to Understanding Business Cycles“ ist ein gutes Beispiel. Die westliche Denkweise entfaltete sich um die Chaos-Theorie, der zufolge das Wetter nach ein paar Tagen unvorhersagbar war wegen Rauschens; Lorenz und der Schmetterling. Dies führte zu einem nach wie vor andauernden Widerspruch zu AGW-Befürwortern. Falls man keine genaue Vorhersagen mehr als ein paar Tage im Voraus machen kann, wie kann man sich dann so sicher sein hinsichtlich Vorhersagen für 50 und 100 Jahre?
Das Faszinierende an diesem wissenschaftlichen, intellektuellen und philosophischen Unterschied zwischen West und Ost war der Umstand, dass er ausschließlich politisch und ideologisch interpretiert worden ist. Das war er nicht, und Putins Position ist eine Manifestation dieses Unterschieds. Faszinierend ist auch seine Erkenntnis, dass das IPCC und Kyoto eine politische Agenda war, um Entwicklung zu unterdrücken, außer dass er glaubt, dies sei nur auf Entwicklungsländer anwendbar. Tatsächlich lief die Agenda darauf hinaus, gleiche und begrenzte Entwicklung voranzubringen, indem entwickelte Länder geschwächt und Entwicklungsländer minimal gestärkt werden. All dies soll kommen, nachdem die entwickelten Länder für ihre Sünden bezahlt haben und das Geld an die leidenden Entwicklungsländer geflossen ist. Es braucht einen Kommunisten, um den Versuch der Installation einer Eine-Welt-Regierung zu erkennen. Putin hat nichts gegen eine solche, solange nur Russland alles unter Kontrolle hat.
Zu einer weiteren Illustration der russischen Position kam es, als Lord May wissenschaftliche Gesellschaften zur Promotion der globalen Agenda des IPCC benutzte. Er begann mit der UK Royal Society und nutzte deren Prestige, andere nationale Gesellschaften zu überreden, die öffentliche Wahrnehmung mit öffentlichen Erklärungen zu manipulieren. Die meisten Gesellschaften machten da mit. Was immer noch ein Zankapfel für Viele ist, wie der Rückzug von Professor Emeritus Hal Lewis aus der American Physical Society illustrierte [auch das EIKE berichtete ausführlich darüber. Anm. d. Übers.] Eine Gruppe jedoch, nämlich die Russische Academy, widerstand dieser Propaganda unter der Leitung des Klimatologen Prof. Yuri Izrael. Auf einer Konferenz des UK Met.-Office an der Exeter University unter dem Motto „Avoiding Dangerous Climate Change“ zahlten Prof. Izrael und Andrej Illarionov den Preis für ihre Aktionen. Benny Peiser berichtete:
Nach zwei Tagen ununterbrochener Untergangs-Prophezeiungen [doom and gloom predictions] auf der Konferenz des Met.-Office „Avoiding Dangerous Climate Change“ reichte es mir. Genug ist genug. Die ungemilderte Zur-Schau-Stellung unmittelbar bevorstehender Eiszeiten, Höllenfeuer, Massen-Hungersnöte, Mega-Dürren, globalen Epidemien und Massen-Aussterben ist eine Erfahrung, die ich niemandem empfehlen kann, der dünnhäutig veranlagt ist (obwohl die Nachrichtenmedien gar nicht genug davon bekommen können). Aber das Spektakel drohender Katastrophen war derart, dass jeder, der es gewagt hat – oder dem es erlaubt worden ist – zu hinterfragen, ob der Himmel wirklich drauf und dran ist, auf uns herabzufallen (und es waren mindestens ein halbes Dutzend gemäßigter Anti-Alarmisten zugegen) wurde gebrandmarkt als der „übliche Verdächtige“. Gegen Andrei Illarionov (Putins Wirtschaftsberater) wurde eine üble Verleumdungskampagne durch Martin Perry vom IPCC losgetreten.
Peiser berichtete, was nach der Präsentation von Prof. Izrael geschehen war:
Der russische Wissenschaftler bekam augenblicklich despektierlich einen Verweis des Vorsitzenden, dem früheren IPCC-Chef Sir John Houghton, weil er viel zu optimistisch sei. Solch ein moderater Vorschlag sei lächerlich, da er „mit der Politik des IPCC nicht kompatibel“ sei. Eindeutig gab das Treffen am Met.-Office den Ton an für den nächsten IPCC-Bericht.
Es war zutiefst empörend, die ungezogene und unhöfliche Art und Weise zu erleben, mit der über Prof. Izrael und Dr. Illarionov gleichermaßen hergezogen worden ist – von vielen Delegierten und IPCC-Funktionären.
This is the same UKMO that get weather and climate forecasts wrong so often they lost their contract to the fellow public agency the British Broadcasting Corporation (BBC).
Es handelt sich hier um das gleiche UKMO, das bei Wetter- und Klimavorhersagen schon so oft falsch lag, dass sein größter Kunde, die öffentliche Agentur BBC, den Vertrag mit dem UKMO gekündigt hat.
Putins Klima-Repräsentant
Putin war immer gegen Kyoto und der so genannten Wissenschaft dahinter eingestellt. Er sandte seinen Wirtschaftsberater Andrej Illarionov auf eine Weltreise, um zu erklären, was mit der Wissenschaft nicht stimmte. Eine Kopie seiner Präsentation in Washington im Jahre 2004 ist hier verfügbar. Nach der Tour änderte sich Putins politische Lage.
Das Kyoto-Protokoll benötigte die Ratifizierung durch eine ausreichende Anzahl von Ländern, die für 55% des CO2-Ausstoßes verantwortlich waren. Als die USA es ablehnten mitzumachen, war Russland zu jener Zeit das einzige Land, dass genug CO2 erzeugte, um Kyoto am Laufen zu halten. Illarionov beendete seine Weltreise und kehrte nach Russland zurück. Einen Monat später ließ Putin verlauten, dass er Kyoto ratifizieren werde. Illarionov trat zurück. Einige argumentierten, dass Putin größere Vorteile mit dem Verkauf von Emissions-Zertifikaten erzielen würde. Er erklärte die Realitäten hinter seinem Vorgehen. Sein Ziel war es, dass russische BIP zu verdoppeln, und seiner Ansicht nach war dies leichter zu erreichen durch eine Mitgliedschaft in der Welthandelsorganisation WTO.
Tatsache war, dass viele Nationen hauptsächlich in Europa Putin effektiv hintergangen haben, indem sie ihm sagten, dass sie definitiv seinen Antrag auf Mitgliedschaft Russlands in der WTO nicht unterstützen werden. Illarionov erzählte, was vor seinem Abgang von der Bühne los gewesen war. Putin betrachtete eine Mitgliedschaft als wertvoller als das Kyoto-Abkommen zu jener Zeit. Dieser Punkt wurde treffend von einem Polnischen Kommentator beschrieben:
Es gibt eine andere populäre Hypothese, die Ratifizierung mit der Unterstützung der EU für Russlands WTO-Beitritt zu verknüpfen. Obwohl hochrangige Funktionäre wie Außenminister Igor Ivanov und Energieminister Igor Iusofov diesen Vorwurf zurückwiesen, gab Präsident Putin höchstselbst einen Hinweis darauf, als er sagte: „Die EU ist uns auf halbem Wege in den Gesprächen über die WTO entgegen gekommen, und das kann nichts anderes tun als unsere Position hinsichtlich des Kyoto-Protokolls positiv zu beeinflussen“. Allerdings ist unklar, ob Russlands Zögern Teil einer Strategie des Verhandelns mit der EU war oder ob der Kreml „einfach“ nur seine Spezialposition zu seinem Vorteil ausnutzte, um der WTO-Mitgliedschaft näher zu kommen – was eines der Hauptziele von Putins Präsidentschaft war.
Inzwischen ist es ein Vorteil für Putin, gegen den Green Climate Fund GCF zu sein, der Kyoto ersetzen soll.
Wird Putin in den GCF einzahlen?
Auf der Konferenz COP16 wurde der Green Climate Fund ins Leben gerufen, mit der Weltbank als zwischenzeitlicher Sachwalter. Im September 2015 beschlossen die EU und Südkorea, den GCF zu einem Hauptthema auf der COP in Paris zu machen.
SONGDO, 17. September 2015 – Auf dem Achten Bilateralen Treffen haben die Führer der Republik Korea und der EU die Notwendigkeit betont, gegen den Klimawandel vorzugehen, und ihre Entschlossenheit bekräftigt, ihren Teil zu einem erfolgreichen universellen Klimaabkommen in Paris beizutragen.
Die drei Führer unterstrichen ihren Willen, den „GCF voll operationell zu machen mitsamt den hauptsächlichen Unternehmungen für das finanzielle Verfahren“ unter dem UNFCCC für das Klima-Regime nach 2020.
Dennoch, viele zahlen nicht:
Friends of the Earth International forderten heute, dass entwickelte Länder den GCF mit den im Jahre 2014 versprochenen Mitteln endlich ausstatten, und warnten, dass die bislang eingegangenen Beiträge alarmierend niedrig seien.
Tausende werden nach Paris pilgern, über die Hälfte davon Personen von NGOs. Sie werden eine Agenda vorantreiben, von der Putin weiß, dass sie komplett überflüssig ist. Wie die französische mathematische Gesellschaft ocietedeCalculMathematiqueSA in einer Studie aus jüngster Zeit schrieb, von der Putin Kenntnis hat, und die den Titel trägt [übersetzt] „Die Schlacht gegen globale Erwärmung: ein absurder, kostspieliger und sinnloser Kreuzzug“:
Es gibt nicht eine einzige Tatsache, Graphik oder Beobachtung, die uns folgern lässt, dass das Klima der Welt in irgendeiner Weise ,gestört‘ ist. Es ist variabel, wie es schon immer war, aber derzeit um Einiges geringer als während gewisser Perioden oder geologischer Zeiträume. Moderne Verfahren sind selbst heute noch weit davon entfernt, die globale Temperatur genau zu vermessen. Darum sind Messungen vor 50 oder 100 Jahren sogar noch unzuverlässiger.
Die CO2-Konzentrationen variieren, wie das schon immer der Fall war; die hierzu veröffentlichten Graphiken sind verzerrt und unehrlich. Ein steigender Meeresspiegel ist ein normales Phänomen, verbunden mit upthrust buoyancy [wie kann man das übersetzen? Anm. d. Übers.]; er hat nichts zu tun mit der so genannten globalen Erwärmung. Hinsichtlich von Extremwetterereignissen – sie sind derzeit nicht zahlreicher als sie es in der Vergangenheit waren.
Die Unterstützung der politischen Objektive der Agenda 21 gründet sich auf falsche Wissenschaft, die vom IPCC geschaffen worden ist. Der deutsche Physiker und Meteorologe Klaus-Eckart Puls erklärte hier, warum viel zu viele Wissenschaftler das nicht verstehen. Einfach deshalb, weil sie nie gelesen haben, was das IPCC sagt:
Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was das IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was der IPCC und die Medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten und Messungen gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen "nach-erzählt“ habe, dafür schäme ich mich heute. – Naturwissenschaftlich ist es schier absurd, durch ein paar Drehungen an irgendwelchen CO2-Stellschrauben „ein schön angenehmes stabiles Klima“ festhalten zu wollen.
[Originalzitat – keine Rückübersetzung! Ball verlinkt einen Artikel bei Notrickszone, aber dieser bezieht sich auf den von mir eingefügten Hyperlink. Anm. d. Übers.]
Russische Wissenschaftler wissen genau, was das IPCC gesagt hat. Daher weiß Putin, dass die Klimawissenschaft des IPCC völlig falsch ist. Er weiß es, weil sowjetische und jetzt russische Klimatologen transparente, offene Wissenschaft betreiben, was eine Ironie angesichts des Umstandes ist, dass dies in einem System so ist, das alles kontrolliert. Er weiß auch, dass das IPCC erschaffen worden ist, das Klima für politische Ziele einzusetzen, weil er das besser kann als fast alle anderen. Wie man so sagt, man braucht einen Dieb, um einen Dieb zu fangen. Wie viel Geld wird Putin in den GCF einzahlen?
Link: http://wattsupwiththat.com/2015/10/30/vladimir-putin-climate-and-political-realist/
Übersetzt von Chris Frey EIKE




Rückbau der AGW-Hypothese

Ich weiß, Einiges dieses Materials ist nicht neu, habe ich doch selbst etwas davon entdeckt. Allerdings ist es an der Zeit, alles noch einmal zusammenzustellen, weil immer mehr Menschen sich dessen bewusst werden, was da vor sich geht, und die jetzt am Schauplatz des Crashs sind.
Das IPCC und seine Befürworter zeichneten eine Karte, bauten die Straßen und gestalteten die Verkehrszeichen, aber sie gestalteten, bauten und fuhren auch das Auto. Sie haben keinen Crash eingeplant und alles getan, um ihr Ziel zu erreichen. Das Problem entstand infolge der Hypothesen, die sie aufgestellt hatten, und infolge der Manipulation der Daten, die sie brauchten, um das Ergebnis der Expedition vorwegzunehmen; ein Crash war unvermeidlich.
Welche Bedingungen haben sie als notwendig angesehen, um ihr Ziel zu erreichen? Es gibt zwei unterschiedliche Listen. Die erste ist eine Liste der Hypothesen, die für den wissenschaftlichen Teil der AGW-Hypothese aufgestellt worden sind. Die zweite ist eine Liste mit Ausgangsbedingungen, die für den politischen Teil der AGW-Objektive gebraucht wurden.
Wissenschaftliche Hypothesen
1. CO2 ist ein Gas mit effektiv lediglich Einbahnstraßen-Eigenschaften, das es dem Sonnenlicht erlaubt, in die Erde einzudringen, dann aber verhindert, dass die Strahlung wieder entweicht.
2. Falls der atmosphärische CO2-Gehalt steigt, wird die globale Temperatur steigen.
3. Der atmosphärische CO2-Gehalt wird zunehmen, weil die Menschen jedes Jahr mehr CO2 freisetzen.
Politische Hypothesen
1. Die globalen Temperaturen sind die höchsten jemals.
2. Die globalen Temperaturen stiegen entsprechend dem Beginn der Industriellen Revolution
3. Das CO2-Niveau ist das höchste jemals.
4. Das CO2-Niveau lag vor der industriellen Revolution viel niedriger.
5. Das CO2-Niveau steigt weiterhin mit einer stetigen Rate infolge des jährlichen Beitrags der Menschen.
Datenquellen
Die wesentlichen Objektiven mussten mit einem niedrigen vorindustriellen Niveau atmosphärischen CO2′ beginnen und während der letzten 150 Jahre stetig ansteigen. Unter den Datenquellen waren Folgende:
1. Luftbläschen aus Eisbohrkernen, aber primär nur aus der Antarktis
2. Pflanzen-Stomata in Blättern, durch die die Pflanzen Gase mit der Atmosphäre austauschen. Deren Anzahl variiert mit dem atmosphärischen CO2-Gehalt.
3. Etwa 90.000 instrumentelle Messungen aus dem 19. Jahrhundert. Die Messungen begannen 1812 als die Wissenschaft die Chemie der Atmosphäre bestimmte.
4. Neuzeitliche instrumentelle Messungen konzentrierten sich primär auf den Mauna Loa, die im Jahre 1958 begannen als Teil des Internationalen Geophysikalischen Jahres.
5. Der jüngst gestartete NASA-Satellit Orbiting Carbon Observatory OCO2 mit den ersten veröffentlichten Daten der CO2-Konzentration vom 1. Oktober bis zum 11. November 2014.
6. IPCC-Schätzungen der menschlichen Erzeugung von CO2, derzeit bekannt unter der Bezeichnung Representative Concentration Pathways (RCP).
Die erste Frage lautet, was die nicht menschlichen Quellen und Senken von CO2 sind. Die Antwort lautet, wir wissen es nicht. Alles was wir haben sind sehr grobe Schätzungen von einigen davon, aber keine aktuellen brauchbaren Messungen. Man erinnere sich, was das IPCC in Box 2.1 Uncertainty in Observational Records sagte:
Unter den Unsicherheiten gemessener Aufzeichnungen sind Messfehler, Effekte der Repräsentation (z. B. Darstellung, Beobachtungshäufigkeit oder Timing), ebenso wie Effekte aufgrund physikalischer Änderungen der Instrumentation (Stationsverlagerungen oder neue Satelliten). Alle weiteren Schritte (Übertragung, Speicherung, Interpolation, Mittelbildung, Gridding) haben ebenfalls ihre eigenen speziellen Unsicherheiten. Weil es keinen einheitlichen und überzeugenden Weg gibt, den nicht-klimatischen Artefakten (sic) in der großen Mehrheit der Aufzeichnungen Rechnung zu tragen, muss es einen Grad der Unsicherheit geben hinsichtlich der Frage, wie sich das Klimasystem verändert hat.
Es ist wichtig festzuhalten, dass sie eine Ausnahme identifizieren, weil diese wichtig ist für ihr Narrativ, aber auch für die Nachbildung des IPCC-Wracks:
Die einzige Ausnahme hiervon sind bestimmte Messungen der atmosphärischen Zusammensetzung und der Flüsse, deren Messungen und Unsicherheiten fest verbunden sind mit einer ununterbrochenen Kette von international anerkannten absoluten Mess-Standards (z. B. die CO2-Messung am Mauna Loa; Keeling et al., 1976a)
Das IPCC erstellt dann ein bizarres und verwirrendes Diagramm (Abbildung 1, im Original Abbildung 6.1), in dem es eher um das zugrunde liegende Szenario für ihr Narrativ geht als um eine Klarstellung oder Erläuterung:

Abbildung 1
Normalerweise füge ich nicht die Legende einer Graphik oder eines Diagramms bei, aber in diesem Falle ist sie sehr informativ. Nicht, dass sie der Klarstellung dient, sondern weil sie illustriert, wie wenig man weiß und wie wichtig es ist, die menschliche CO2-Erzeugung während der Industriellen Revolution in den Mittelpunkt zu stellen. Dies kommt nicht überraschend, ist dies doch die Definition des Klimawandels, festgelegt in Artikel 1 des UNFCCC. Falls man so vorgeht, ist ein Crash unvermeidlich:
Abbildung 6.1: Vereinfachtes Schema des globalen Kohlenstoff-Kreislaufes. Die Zahlen repräsentieren die Menge im Reservoir, auch ,Kohlenstoff-Speicher‘ in PgC (1 PgC = 1015 gC) sowie jährliche Kohlenstoff-Austausch-Flüsse (in PgC pro Jahr). Schwarze Zahlen und Pfeile stehen für die Menge im Reservoir und Austausch-Flüsse, geschätzt für die Zeit vor der Industriellen Ära, etwa um das Jahr 1750. Die Reserven fossiler Treibstoffe stammen aus GEA (2006) und sind konsistent mit Zahlen der WG III des IPCC für zukünftige Szenarien. Die Sediment-Speicherung ist eine Summe von 150 PgC des organischen Kohlenstoffes in der Grenzschicht [mixed layer] (Emerson und Hedges 1988) sowie von 1600 PgC der verfügbaren CaCO3-Sedimente in der Tiefsee, um das CO2 aus fossilen Treibstoffen zu neutralisieren (Archer et al. 1998). Rote Pfeile und Zahlen zeigen jährliche ,anthropogene‘ Flüsse, gemittelt über den Zeitraum 2000 bis 2009. Diese Flüsse durchdringen den Kohlenstoff-Kreislauf während der industriellen Ära nach 1750. Diese Flüsse (rote Pfeile) sind: CO2-Emissionen aus fossilen Treibstoffen und der Zement-Herstellung, Gesamt-Änderung der Landnutzung, und die mittlere atmosphärische Zunahme von CO2, auch CO2-Wachstumsrate genannt. Die Aufnahme anthropogenen CO2′ durch Ozeane und terrestrische Ökosysteme, oftmals ,Kohlenstoff-Senken‘ genannt, sind der Anteil der roten Pfeile des Gesamten Festland-Flusses und des gesamten Ozean-Flusses. Die roten Zahlen in den Reservoiren zeigen kumulative Änderungen anthropogenen Kohlenstoffes während der Industriellen Periode (1750 bis 2011). Per Konvention bedeutet eine positive kumulative Änderung, dass ein Reservoir seit 1750 Kohlenstoff aufgenommen hat. Die kumulative Änderung anthropogenen Kohlenstoffes im terrestrischen Reservoir ist die Summe des kumulativ verloren gegangenen Kohlenstoffes durch Änderungen des Landverbrauchs und des akkumulierten Kohlenstoffes seit 1750 in anderen Ökosystemen. Man beachte, dass die Massenbilanz der beiden ozeanischen Kohlenstoffspeicher an der Oberfläche, den mittleren Tiefen und der Tiefsee eine jährliche Akkumulation anthropogenen Kohlenstoffes enthält (nicht gezeigt). Unsicherheiten werden in 90%-Vertrauens-Intervallen angegeben. Emissionsschätzungen sowie Festlands- und Ozean-Senken (rot) stammen aus einem späteren Abschnitt. Die Änderung der großen terrestrischen Flüsse (rote Pfeile der Photosynthese) wurden aus CMIP5-Modellergebnissen geschätzt. Die Änderung der Austauschflüsse zwischen Luft und Meer (rote Pfeile des Ozean-Atmosphäre-Gasaustausches) wurden geschätzt aus der Differenz des atmosphärischen Partialdrucks seit 1750 (Sarmiento und Gruber 2006). Individuelle Gesamtflüsse und deren Änderungen seit Beginn der Industriellen Ära weisen typische Unsicherheiten von über 20% auf, während deren Differenzen (Gesamt-Festlands- und Gesamt Ozean-Fluss in der Abbildung) aus unabhängigen Messungen mit einer viel höheren Genauigkeit bestimmt wurden. Um eine Alles-in-Allem-Bilanz zu erstellen, wurden daher die Werte der unsichereren Gesamtflüsse adjustiert, so dass deren Differenzen passen zu den Schätzungen des Gesamt-Festlands- und des Gesamt-Ozean-Flusses. Flüsse durch vulkanische Eruptionen, Verwitterung von Felsen (was zu einer geringen CO2-Aufnahme aus der Atmosphäre führt), der Transfer von Kohlenstoff aus der Erde in Flüssen zum Ozean werden alle als präindustrielle Flüsse vermutet, das heißt sie sind von 1750 bis 2011 unverändert. Einige Studien aus jüngerer Zeit zeigen, dass diese Hypothese wahrscheinlich nicht verifiziert ist, aber globale Schätzungen der Durchdringung all dieser Flüsse während der Industriellen Ära waren aus der begutachteten Literatur nicht verfügbar. Der atmosphärische Vorrat wurde berechnet mittels eines Konversionsfaktors von 2,12 PgC pro ppm (Prather et al. 2012)
Dies ist vermutlich eines der bemerkenswertesten Beispiele wissenschaftlicher Verschleierung in der Geschichte. Jede Zahl ist eine grobe Schätzung. Der Kommentar sagt, dass wir überhaupt nichts wissen, uns aber völlig sicher sind hinsichtlich der menschlichen CO2-Erzeugung während der industriellen Ära. Meines Wissens nach gibt es keinerlei systematische, umfassende Messungen von CO2-Austausch mit den meisten Landschaftsformen, bedeckt von verschiedenen Wäldern, aber vor allem Grasland. Das Grasland illustriert das Problem, weil – abhängig von der Definition – die Ausdehnung variiert zwischen 15 und 40 Prozent. Der wichtige Punkt hier ist, dass wir kaum Ahnung haben über Volumina oder der Art der Änderung mit der Zeit. Eine Gruppe, die das vermeintlich wissen müsste, die American Chemical Society, bestätigt diesen Punkt. Natürlich wissen wir, wie professionelle Gesellschaften auf die Linie des IPCC getrimmt worden sind. In einem Artikel unter der Überschrift [übersetzt] „Treibhausgas-Quellen und _Senken“ (Greenhouse Gas Sources and Sinks) präsentieren sie ein Diagramm des IPCC (Abbildung 2):

Abbildung 2
Der Text der American Chemical Society, der vermeintlich um die atmosphärische Chemie weiß, sagt:
Die in diesen kurzen Zusammenfassungen genannten Quellen der Gase sind die Wichtigsten, aber es gibt auch andere Quellen geringerer Bedeutung. Die Details der Senken, durch welche die Gase aus der Atmosphäre entfernt werden, sind nicht enthalten. Die Graphik für jedes Gas (oder Gas-Klasse) stammt aus Abbildung 1, FAQ 7.1, IPCC, AR 4 (2007), Kapitel 7. Menschliche Quellen werden in orange und natürliche Quellen und Senken in blaugrün gezeigt. Die Einheiten sind Gramm (g) oder metrische Tonnen. Vielfache hiervon in den Abbildungen sind: Gt (gigatonne) = 109 t = 1015 g; Tg (teragram) = 1012 g = 106 t; and Gg (gigagram) = 109 g = 103 t.
Als eine professionelle Gesellschaft sollten sie wissen, dass über Gase in der Atmosphäre nichts bekannt ist, und doch stützen sie die IPCC-Illusionen als Fakten. Es gibt kaum Hinweise auf Schwächen oder Warnungen der wissenschaftlichen Grenzen, die sogar das IPCC selbst benennt – in Kasten 2.1.
Erzeugung einer geglätteten CO2-Kurve
Ein grundlegender Fehler beim ,Hockeyschläger‘ ist es, eine Baumring-Aufzeichnung, den Stiel, mit einer instrumentellen Temperaturaufzeichnung, dem Blatt, zu verbinden. Dies wurde getan, weil die Baumring-Aufzeichnung abnehmende Temperaturen zeigte, was deren Hypothese und ihrer politischen Agenda widersprach. Ironischerweise ist es eine wesentliche Herausforderung in der Klimatologie, eine kontinuierliche Aufzeichnung zu erzeugen mit Daten aus verschiedenen Quellen. H. H. Lamb widmet den ersten Teil seines epischen Werkes Climate, Present, Past and Future (1977) diesen Problemen. Auch zeigt er eine Graphik mit der Länge der möglichen Klima-Zeitreihen und dem Überlappungs-Problem (Abbildung 3). Da gibt es drei Gebiete: instrumental oder säkular, die Historie sowie Biologie und Geologie.

Abbildung 3
Daten aus verschiedenen Quellen müssen zueinander passen, um vom vorindustriellen Niveau bis heute die kontinuierliche geglättete Kurve von CO2 zu erzeugen. Dies involvierte drei Datensätze: Eisbohrkerne, instrumentelle Messungen aus dem 19. Jahrhundert und die Aufzeichnung vom Mauna Loa. Abbildung 4 zeigt die Rekonstruktion aus diesen drei Quellen von Ernst-Georg Beck. Falls man die Daten aus dem 19. Jahrhundert entfernt, zeigt sich ein weiteres Beispiel eines ,Hockeyschlägers‘. Die Daten aus den Eisbohrkernen sind der Griff aus einer einzigen Quelle, einem Bohrkern aus der Antarktis. Das Blatt ist die Instrumenten-Aufzeichnung vom Mauna Loa. Die Arbeitsgruppe 1 zum IPCC-Bericht 2001 schreibt dazu:
Die CO2-Konzentration in der Atmosphäre stieg von etwa 280 ppm im Jahre 1880 zunächst langsam, dann immer schneller auf den Wert von 367 ppm im Jahre 1999. Dies spiegelt das Tempo der landwirtschaftlichen und industriellen Entwicklung. Dies ist bekannt aus zahlreichen, gut nachgebildeten Messungen der Zusammensetzung von Luftbläschen im antarktischen Eis. Atmosphärische CO2-Konzentrationen wurden seit 1957 mit hoher Präzision direkt gemessen. Diese Messungen stimmen mit den Ergebnissen aus den Eisbohrkernen überein und zeigen einen fortgesetzten zunehmenden Trend bis zur Gegenwart.
Diese Messungen sind nicht gut erfasst und haben viele ernste Begrenzungen. Darunter sind:
1. Es dauert Jahre, bis ein solches Bläschen im Eis gefangen ist. Welches Jahr repräsentiert das Bläschen?
2. Mit dem dicker werdenden Eis wird es unmöglich, die Schichten zu bestimmen, und daher die Datierung der jeweiligen Sequenz schwieriger. Einige sagen, dass man bei einer Tiefe von 2000 m im Eis 245 cm Eis braucht, um eine einzige Stichprobe zu erhalten, aber unter dem Druck und dem Vermischen kann ein einzelnes Bläschen mehrere tausend Jahre repräsentieren.
3. Schmelzwasser an der Oberfläche, welches sich in jedem Sommer bildet, dringt in das Eis ein und verunreinigt die Bläschen. Zbigniew Jaworowski sagte in seiner Anhörung vor dem US-Senat:
Über 20 physikalisch-chemische Prozesse, meistens in Verbindung mit flüssigem Wasser, tragen zur Veränderung der ursprünglichen chemischen Zusammensetzung der Lufteinschlüsse im polaren Eis bei.
4. Einer Studie von Christner (2002) mit dem Titel [übersetzt] Auffinden, Isolierung und Charakterisierung von Bakterien in Gletschereis und dem Eiswachstum im Wostok-See. Zufolge setzen gefundene Bakterien selbst noch in 500.000 Jahre altem Eis Gase frei.

Abbildung 4
Eine Rekonstruktion dieser Teile des Crashs enthüllt, wie dieser erreicht wurde.
Prof. Zbigniew Jaworowski wurde wüst beschimpft während seiner letzten Lebensjahre wegen seinen Ansichten zu Klimawandel und Eisbohrkern-Daten. Wie bei allen, die derartig attackiert werden und wurden, ist dies ein sicheres Anzeichen, dass sie die vorsätzlichen Täuschungen der politischen Agenda der globalen Erwärmung bloß stellen. Hier folgen Auszüge aus Jaworowskis Karriere, die seine Präsentation vor dem US-Komitee für Handel, Wissenschaft und Transportwesen begleiteten:
Ich bin Professor am Central Laboratory for Radiological Protection (CLOR) in Warschau, einer Regierungs-Institution, die sich mit Umweltstudien befasst. CLOR hat eine „spezielle Verbindung“ mit dem US National Council on Radiological Protection and Measurements (NCRP). Einst kooperierte das CLOR etwa zehn Jahre lang sehr eng mit der EPA in den USA bei Forschungen bzgl. des Einflusses von Industrie und atomaren Explosionen auf die Verschmutzung der globalen Umwelt und der Bevölkerung. Ich habe etwa 280 wissenschaftliche Studien veröffentlicht, darunter 20, die sich mit klimatischen Problemen befassen. Ich bin Repräsentant von Polen im United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR),und von 1980 bis 1982 war ich der Vorsitzende dieses Komitees.
Während der letzten 40 Jahre war ich in Gletscherstudien involviert, wobei ich Schnee und Eis als Matrix benutzt habe, um die Historie der vom Menschen verursachten Verschmutzung der globalen Atmosphäre zu rekonstruieren. Ein Teil dieser Studien befasste sich mit Klimathemen. Eisbohrkerne und die Auswertung derselben wurden verbreitet als Beweis angeführt, dass infolge der menschlichen Aktivitäten das gegenwärtige CO2-Niveau der Atmosphäre etwa 25% höher ist als in der vorindustriellen Periode. Diese Aufzeichnungen wurden zu den grundlegenden Eingangs-Parametern in die Modelle des globalen Kohlenstoff-Kreislaufes und ein Eckpfeiler der Hypothese von der vom Menschen verursachten klimatischen Erwärmung. Diese Aufzeichnungen repräsentieren nicht die atmosphärische Realität, wie ich im Folgenden belegen möchte.
Niemand war qualifizierter, etwas zu den Aufzeichnungen aus Eisbohrkernen etwas zu sagen, und hier folgt das, was er vor dem Komitee sagte:
Die Grundlage der meisten IPCC-Schlussfolgerungen zu anthropogenen Gründen und zu Projektionen des Klimawandels ist die Hypothese eines niedrigen Niveaus von CO2 in der vorindustriellen Atmosphäre. Diese Hypothese ist auf der Grundlage glaziologischer Studien falsch“.
Genauso wichtig ist Jaworowskis Aussage:
Die Vorstellung eines geringen vorindustriellen CO2-Niveaus in der Atmosphäre auf der Grundlage so geringen Wissens wurde zu einem weithin akzeptierten Heiligen Gral der Klimaerwärmungs-Modelle. Die Modellierer ignorierten die Beweise aus direkten Messungen von CO2 in der Luft, die zeigen, dass dessen mittlere Konzentration im 19. Jahrhundert 335 ppmv betragen hatte (Abbildung 2).Die eingekreisten Werte in Abbildung 2 zeigen eine verzerrte Auswahl von Daten um zu zeigen, dass das CO2-Niveau im 19. Jahrhundert nur 292 ppmv betragen hatte. Eine Untersuchung von Stomata-Häufigkeiten in fossilem Laub aus Ablagerungen in einem holozänen See in Dänemark zeigen, dass das atmosphärische CO2-Niveau vor 9400 Jahren 333 ppmv betragen hatte und vor 9600 Jahren 348 ppmv. Dies falsifiziert das Konzept einer stabilen und geringen CO2-Konzentration bis zum Aufkommen der industriellen Revolution.
Abbildung 5 zeigt die Beweise aus den Stomata bzgl. des CO2-Niveaus im Vergleich mit den Daten aus Eisbohrkernen, auf die sich Jaworowski bezieht:

Abbildung 5
Unabhängig vom alles in allem höheren Mittel beachte man den glatten Verlauf der Eisbohrkern-Kurve, der in Teilen erreicht wurde durch ein Glättungs-Mittelwert über 70 Jahre. Bei diesem Verfahren gehen große Mengen an Informationen verloren, vor allem hinsichtlich der Variabilität, wie die Aufzeichnungen aus den Stomata zeigen.
Die andere Referenz Jaworowskis ist eine Graphik (Abbildung 6), die erstellt worden ist durch den Ingenieur bei British Steam Guy Stewart Callendar, der auch ein früher Unterstützer von AGW war.

Abbildung 6 (Trendlinien hinzugefügt vom Autor).
Die Punkte repräsentieren die Messungen des atmosphärischen CO2′ während des 19.Jahrhunderts durch Wissenschaftler mittels rigider Verfahren und gut dokumentierter Instrumentation. Die Objektive der Messungen, begonnen im Jahre 1812, hatte nichts mit Klima zu tun. Vielmehr wollte man die einzelnen Gase der Atmosphäre bestimmen. Damit wurde die Arbeit von Joseph Priestly fortgesetzt, der – obgleich nicht der Erste, der den Sauerstoff entdeckt hatte – der Erste mit veröffentlichten Studien war (1774): Abbildung 6 zeigt die Testmengen, die Callendar ausgewählt hatte (cherry picked), um sein geringes vorindustrielles CO2-Niveau zu behaupten. Was genauso bedeutend ist: Er änderte die Neigung von einem abnehmenden hin zu einem zunehmenden Trend. Abbildung 4 zeigt die gleichen Daten des 19. Jahrhunderts im Vergleich zum Eisbohrkern und den Verläufen am Mauna Loa.
Vorbehalt: Ernst-Georg Beck übermittelte mir seine vorläufigen Arbeiten bzgl. der Daten, und wir haben oft darüber kommuniziert bis zu seinem viel zu frühen Ableben. Ich warnte ihn vor den Angriffen, die dann noch weit über das hinausgingen, was er erwartet hatte. Die Angriffe gehen immer noch weiter, obwohl seine Arbeit akribisch von seinem Freund Edgar Gärtner bei seiner Beerdigung erklärt wurde:
Aufgrund seines immensen Fachwissens und seiner methodischen Strenge fielen Ernst sehr frühzeitig zahlreiche Ungereimtheiten in den Aussagen des „Weltklimarates" IPCC auf. [Originalzitat, da Tim Ball den Link {hier} genannt hat. Keine Rückübersetzung! Anm. d. Übers.]
Das Problem bei der Arbeit von Beck war, dass darin identifiziert wurde, warum Callendar so mit den Daten umgegangen ist, wie er es getan hatte. In der Klima-Gemeinschaft wurde die Bedrohung erkannt und in einer Studie im Jahre 1983 behandelt mit dem Titel „The pre-industrial carbon dioxide level” von Tom Wigley, damals Direktor der CRU. Ich erinnere mich daran, weil ich zu der Zeit Seminare abgehalten hatte zur Bedeutung der Studie.
Die Kritik an den Aufzeichnungen aus dem 19.Jahrhundert wurde in einem einzigen Kommentar zusammengefasst: sie waren Zufall. Ja, in den meisten Studien ist das zufällige Herausgreifen von Stichproben wünschenswerter und repräsentativer hinsichtlich der Realität als willkürlich vorbestimmte Stichproben, von denen man weiß, dass sie das Narrativ stützen, wie es gegenwärtig der Fall ist. Das funktioniert nur unter der Annahme, dass das Gas gut durchmischt ist. Eine Kritik lautet, dass Becks Aufzeichnungen ein hohes Niveau um das Jahr 1942 zeigen im Vergleich mit der Aufzeichnung aus der Antarktis. Der Grund hierfür war wahrscheinlich, dass CO2 nicht gut durchmischt ist, wie es OCO2 und andere Aufzeichnungen zeigen; und auch, dass die meisten dieser Aufzeichnungen in Europa während des Krieges erfolgten. Nebenbei, mit der Periode von 70 Jahren, die es dauert, ein Gasbläschen im antarktischen Eis einzuschließen, würde sich dieses Bläschen erst im Jahre 2012 zeigen. Die Wahrheit ist, dass es keine anderen genauen Messungen von CO2 im Jahre 1942 gibt als die von Beck Verwendeten.
Eine andere Kritik lautet, dass die Stellen einschließlich der Höhe, in der die Messungen durchgeführt worden sind, deutlich variierten. Natürlich ist das genau der Punkt. Sie wurden nicht verengt und manipuliert wie die gegenwärtigen Aufzeichnungen vom Mauna Loa und Ähnlichem. Darum stellen sie nur Messungen an einigen wenigen Punkten dar, die essentiell alle natürlichen Einflüsse eliminieren. Dies ist offensichtlich aus den vorläufigen OCO2, den Stomata und Becks Aufzeichnung, in denen die große Variabilität von Tag zu Tag und von Region zu Region die Norm ist. Weitere Beweise dafür, dass dies die Norm ist: sie haben versucht, all diese natürliche Variabilität aus den Eisbohrkernen und den Mauna-Loa-Messungen zu eliminieren. Wenn die langwellige Ausstrahlung die Oberfläche verlässt, muss sie die gesamte Atmosphäre durchlaufen. Der CO2-Effekt ist überall vorhanden, nicht nur an bestimmten Stellen einer engen Auswahl in bestimmten Höhen wie die Mauna-Loa-Messungen. Beck schreibt dazu:
Die Mauna-Loa-Messungen repräsentieren nicht das typische atmosphärische CO2 an verschiedenen globalen Stellen, sondern sind typisch ausschließlich für diesen Vulkan an einer maritimen Stelle in einer Höhe von etwa 4000 m ü. NN auf jenem Breitengrad.
Charles Keeling stattete die Station am Mauna Loa mit von ihm patentierten Instrumenten aus. Wie Beck schrieb, gehört der Familie das globale Monopol aller CO2-Messungen. Keeling wird als der Erste genannt, der die Welt bzgl. AGW alarmiert hat. Wie es dazu in einem zweifellos bearbeiteten Eintrag bei Wikipedia heißt:
Charles David Keeling (1928 bis 2005) war ein amerikanischer Wissenschaftler, dessen CO2-Aufzeichnungen am Mauna-Loa-Observatorium die Welt zum ersten Mal alarmierten hinsichtlich der Möglichkeit eines menschlichen Beitrags zum Treibhauseffekt und einer globalen Erwärmung.
Keelings Sohn, ein Mitautor der IPCC-Berichte, kontrolliert weiterhin die Einrichtungen am Mauna Loa. Der stetige Anstieg der Keeling-Kurve ist bekanntlich besorglich, vor allem, wenn man die Variabilität betrachtet, die für die IPCC-Story als nicht zuträglich angesehen wird. Wie lange wird sich dieser Trend fortsetzen? Wir wissen, dass die globalen Temperaturen gestiegen sind, bis die Satelliten-Ära Daten erbrachte, die unabhängig vom IPCC sind.
Es gibt keine unabhängige CO2-Aufzeichnungen, die Keelings haben das Monopol und sind die offizielle Aufzeichnung für das IPCC.
Beck erklärte:
Die moderne Treibhaus-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie jüngst vom IPCC popularisiert. Eine Begutachtung der verfügbaren Literatur wirft die Frage auf, ob diese Autoren systematisch eine große Zahl valider technischer Studien und älterer CO2-Bestimmungen ausgesondert haben, weil die nicht zu ihrer Hypothese passen. Es ist offensichtlich, dass sie lediglich einige wenige sorgfältig ausgewählte Werte aus der älteren Literatur herangezogen haben, die ausnahmslos Ergebnisse brachten, die mit der Hypothese eines induzierten CO2-Anstiegs in der Luft durch die Verbrennung fossiler Treibstoffe konsistent war.
Jetzt stecken sie in dem Dilemma fest, dass die Temperatur seit über 19 Jahren nicht mehr gestiegen ist, während der CO2-Gehalt den Mauna-Loa-Messungen zufolge seinen stetigen Anstieg fortsetzt. Wie lange wird es dauern, bis wir eine bekannt gemachte Abnahme dieser Aufzeichnungen sehen, um die Daten auf Linie mit der politischen Mission zu bringen? Glücklicherweise ist es dank der Arbeiten von Jaworowski und Beck zu spät, den Schaden kleinzureden, den der Zeitlupen-Crash verursacht, der sich unvermeidlich entwickelt. Die Hockeyschläger des gesamten Teams sind in dem Crash zerbrochen [nur dass der Öffentlichkeit dies geflissentlich verschwiegen wird! Anm. d. Übers.]

Anmerkung von Anthony Watts (1.11.159:

Einige Passagen dieses Beitrags beziehen sich auf eine Reihe chemischer Analysen von Luft-Stichproben bzgl. CO2 an der Erdoberfläche von Georg Beck. Ich denke, dass die Luft-Stichproben nur geringe Qualitätskontrollen durchlaufen haben und nicht notwendigerweise repräsentativ sind für das globale CO2-Niveau zu jener Zeit und an jenen Orten. Ich glaube, dass die Messungen von einem Bias durch den Ort der Messung verzerrt sind und unter atmosphärischen Bedingungen erfolgt sind, die nicht sehr gut durchmischt waren. Daher sollte man sie mit Vorsicht betrachten. Ich bringe diesen Beitrag einfach zur Diskussion, was nicht heißen soll, dass ich uneingeschränkt hinter den Beck-Daten stehe. – Anthony Watts

Link: http://wattsupwiththat.com/2015/10/17/deconstruction-of-the-anthropogenic-global-warming-agw-hypothesis-2/
Übersetzt von Chris Frey EIKE




Hat James Hansen unabsichtlich die AGW-Null-Hypothese bewiesen?

Bild rechts: © Alan Caruba †
Hintergrund
Der erste IPCC-Bericht war im Jahre 1990 erschienen, aber einen mehr konzertierten Schub der AGW-Hypothese gab es erst im Bericht 1995. Vier Jahre später wurde die Auswertung eines Eisbohrkerns aus der Antarktis von Petit et al. in Nature veröffentlicht. Der Artikel enthielt auch eine Graphik, in der Temperatur, CO2, Methan und Einstrahlung miteinander verglichen werden (Abbildung 1)

Abbildung 1
Die Graphik scheint die AGW-Hypothese zu stützen. Es sieht so aus, als ob eine Temperaturzunahme einer CO2-Zunahme vorausgegangen war [It looked like temperature increase preceded CO2 increase. Das passt nicht zum Satz davor. Hat der Autor hier vielleicht etwas verwechselt? Anm. d. Übers.] Ich kontaktierte einen der Autoren, Jean Jouzel, und warnte ihn davor, in einem Interview zu einer Beurteilung zu kommen. Er merkte an, dass 420.000 Jahre in einer 10 cm langen Graphik geplottet waren, kompliziert durch ein über 70 Jahre geglättetes Mittel, das viele Details maskiert hatte. Er war vorausschauend. AGW-Befürworter ignorierten die Warnung und nutzten die Graphik als Unterstützung für ihre Hypothese. Im Endeffekt wurde sie zum Vorläufer des ,Hockeyschlägers‘, der so viel Aufmerksamkeit in den Medien und der Öffentlichkeit erregt hatte.
Allerdings hat schon Hubertus Fischer von der Scripps Institution of Oceanography in guter wissenschaftlicher Tradition die Beziehung zwischen Ursache und Wirkung in einer Studie aus dem Jahr 1999 in Frage gestellt. Im Jahre 2001 hat Manfred Mudelsee im Quaternary Science Review eine andere Studie veröffentlicht, in welcher er diese Beziehung ebenfalls in Frage stellt.
Lowell Stott wartete im Jahre 2007 mit einer Studie auf, veröffentlicht in Science, mit dem Titel Southern Hemisphere and Deep-Sea Warming Led Deglacial Atmospheric CO2 Rise and Tropical Warming [etwa: Erwärmung auf der Südhalbkugel und in der Tiefsee führte zu einem CO2-Anstieg und einer Erwärmung in den Tropen]. Sherwood und Craig Idso betreiben die beste Website hinsichtlich aller mit CO2 zusammenhängenden Themen. Dort findet sich auch eine Liste mit Studien und weiteren Beweisen, dass die Beziehung umgekehrt zur IPCC-Hypothese ist. Keine einzige dieser Studien hat jemals die Aufmerksamkeit der Mainstream-Medien erregt.
Gescheiterte Prognosen, welche schon im IPCC-Bericht 1990 aufgetaucht waren, waren eines der ersten Anzeichen des Problems. Anstatt die Hypothese zu überdenken und die Wissenschaft hinter ihr zu überprüfen, vollführte es die erste politische Adjustierung mit der Erzeugung von Projektionen anstatt Prophezeiungen. Dabei ließen sie es bewusst zu, dass Medien und Öffentlichkeit glaubte, es handele sich um Vorhersagen. Hansen et al. erzeugten einen Vorläufer der Projektions-Szenarien im Jahre 1988, also im gleichen Jahr, in dem er vor dem Komitee des US-Senats den gesamten AGW-Betrug losgetreten hatte. Abbildung 2 zeigt die Originalgraphik aus jenem Artikel.

Abbildung 2
In einem prägnanten Beitrag über Hansens Modell erstellte Anthony Watts* eine modifizierte Version der Abbildung 2 und fügte aktuelle Temperaturen hinzu (Abbildung 3)
[*Das ist etwas vereinfacht. Watts bezieht sich darin ausdrücklich auf Arbeiten von Sebastian Lüning und Fritz Vahrenholt vom Blog „Die Kalte Sonne“ sowie auf einen Beitrag von Pierre Gosselin auf seinem Blog NoTricksZone. Nur der Vollständigkeit halber. Anm. d. Übers.]

Abbildung 3
Hansen et al.postulierten drei Szenarien:
A: Zunahme der CO2- Emissionen um 1,5% pro Jahr
B: konstante Zunahme der CO2-Emissionen nach dem Jahr 2000
C: Keine Zunahme der CO2-Emissionen nach dem Jahr 2000
Natürlich haben sich die Mainstream-Medien sofort auf die Temperaturprojektionen von Szenario A gestürzt. Einige von uns wussten, dass die Szenarien A und B unrealistisch waren, und wir wussten, wie falsch sie lagen. Ich hatte in den neunziger Jahren viele Diskussionen mit dem kanadischen Experten für Eisbohrkerne Fritz Koerner über seine Bohrkerne von den Arktischen Inseln. Er sagte mir, dass die Bohrkerne eine Temperaturzunahme vor einer CO2-Zunahme zeigten. Im Rückblick ist Szenario C interessanter und aussagekräftiger.
Hansen präsentiert es als das ideale Szenario. Er sagt Politikern und Medien, was geschehen würde, falls die Menschen aufhören, CO2 in die Atmosphäre freizusetzen. Heissa! Die Temperaturen werden aufhören zu steigen. Ironischerweise ist dies äquivalent zu Modellläufen, als ob CO2 keine Erwärmung verursacht. Damit wird im Endeffekt die Null-Hypothese der AGW-Hypothese präsentiert. Es zeigt, was geschehen würde, falls CO2 nicht die Ursache der Erwärmung wäre. Es nähert sich der Realität an.
Abbildung 4 zeigt ähnliche Szenario-Projektionen aus dem AR 4 des IPCC im Jahre 2007, überlagert mit der tatsächlichen CO2-Zunahme. Der Unterschied zu Hansen liegt im niedrigen Szenario. Im AR 4 des IPCC heißt es:
Modellexperimente zeigen, dass selbst wenn wir alle Strahlungsantriebe konstant auf dem Niveau des Jahres 2000 halten würden, ein weiterer Erwärmungstrend während der nächsten beiden Jahrzehnte auftreten würde von etwa 0,1°C pro Dekade, hauptsächlich infolge der Trägheit der Ozeane.

Abbildung 4
Abbildung 4 scheint zu zeigen, dass die Projektionen für „Best“ und „Hoch“ primär eine Funktion der Zunahme des atmosphärischen CO2-Niveaus sind. Selbst die Projektion „Niedrig“ weicht vom tatsächlichen Temperaturtrend ab, wie die Aufzeichnungen am Boden (HadCRUT) und vom Satelliten (UAH) belegen. Außer dass sie die Null-Hypothese bestätigen zeigen die Ergebnisse auch, dass die IPCC-Behauptung des fortgesetzten Anstiegs infolge der Trägheit der Ozeane ebenfalls falsch ist.
Hansen begrenzte seine Forschung und seine Klimamodelle auf menschliche Ursachen des Klimawandels. Er erzeugte zwei Projektionen mit der Grundlage, dass CO2 weiterhin zunehmen werde. Damit hat er das Ergebnis im Voraus festgelegt. Er bestätigte seine Hypothese, der zufolge eine fortgesetzte menschliche Erzeugung eine globale Erwärmung verursachen werde, aber nur in den Modellen. Allerdings musste er, offensichtlich getrieben von seiner politischen Agenda, Politiker davon überzeugen, dass eine Reduktion der CO2-Emissionen das Problem lösen werde. Um dies zu unterstreichen, ließ er sein Modell ohne CO2-Zunahme laufen, um zu sehen, was dann passieren würde. Es erzeugte eine Kurve, die zum tatsächlichen Temperaturtrend der inzwischen vergangenen 27 Jahre passt. Dieses Ergebnis würde man erwarten, falls man die Null-Hypothese akzeptiert, dass CO2 aus jedweder Quelle keine globale Erwärmung verursacht. Danke, Jim, genießen Sie ihren Ruhestand.
Link: http://wattsupwiththat.com/2015/10/03/did-james-hansen-unwittingly-prove-the-null-hypothesis-of-agw/
Übersetzt von Chris Frey EIKE




Sind „Klimaleugner“ wirklich Leugner?

[*Für den Terminus „Denialism“ bietet kein Wörterbuch eine genaue Übersetzung an. Ich denke aber, dass jeder weiß, was gemeint ist. Anm. d. Übers.]

Sogar der Papst leugnete die Leugner, indem er sie von seinem Klima-Konklave ausschloss, während er Priester anwies, Abtreibung zu vergeben. Offensichtlich gibt es Grenzen der päpstlichen Vergebung. Traurigerweise weiß er nicht genug um zu erkennen, wer die wirklichen Leugner sind, was gut und gern seine Unfehlbarkeit beeinträchtigen kann. Es gibt eine lange Liste, auf der auch der Präsident der USA und sein Kabinett, die meisten Führer der Welt, eine Mehrheit der Politiker der Welt, alle Umweltgruppen und deren Jünger stehen, die meisten davon mit einer linken politischen Einstellung. Traurigerweise haben die meisten davon kein Verständnis für Wissenschaft, aber typischerweise haben sie sehr definitive Positionen, die sich durch emotional und politisch getriebene Ignoranz auszeichnen.

Kürzlich hat Lord Monckton Details der anhaltenden Periode von 18 Jahren und 8 Monaten ohne globale Erwärmung zusammengestellt (Abbildung 1). Ross McKitrick setzt den Stillstand bei 19 Jahren an der Erdoberfläche und 16 bis 26 Jahren in der unteren Troposphäre an. Wie auch immer, das widerspricht der grundlegenden Hypothese der anthropogenen globalen Erwärmung AGW, weil der CO2-Gehalt der Luft kontinuierlich weiter gestiegen ist. Die AGW-Befürworter tragen dem einzig dadurch Rechnung, dass sie jetzt vom Klimawandel und nicht von der globalen Erwärmung reden.

Abbildung 1

Dann kamen die Befürworter mit 52 Entschuldigungen daher für die Fakten, die nicht zur Hypothese passen. Dies sind ähnliche Versuche, widersprechende oder in Konflikt stehende Beweise hinweg zu erklären. AGW-Befürworter richten sogar Websites ein, um zu verschleiern, abzulenken und zu leugnen. Die erste dieser Sites war RealClimate, ansässig an der Climatic Research Unit (CRU). In einer E-Mail vom Dezember 2004 erklärte Gavin Schmidt:

Kollegen, zweifellos teilen einige von euch unsere Frustration hinsichtlich der gegenwärtigen Art und Weise, mit der Medien mit dem Thema Klimawandel umgehen. Viel zu oft sehen wir Agenda-getriebene ,Kommentare‘ im Internet und in den Meinungsspalten der Zeitungen, die sorgfältige Analysen verdrängen. Viele von uns arbeiten hart daran, die Öffentlichkeit und Journalisten aufzuklären in Gestalt von Vorträgen, Interviews und Briefen an die Herausgeber, aber das ist oft eine undankbare Aufgabe. Um ein wenig pro-aktiver zu sein, hat sich eine Gruppe von uns (siehe unten) kürzlich zusammengetan, um eine neue Klimablog-Website einzurichten: RealClimate.org, die demnächst geschaltet wird.

ScepticalScience ist eine andere Website, die dazu dient, Beweisen zu widersprechen oder diese zu leugnen, die zeigen, dass die AGW-Hypothese falsch ist. Joanne Nova und Lubos Motl wiesen zwei eklatante Schwächen bei John Cook und seiner Website nach. Eine Frau, die sich mit Gavin Schmidt nach einem Vortrag an der University of Victoria unterhalten hat, schrieb mir am 26. Juli 2015 und stellte Fragen. Sie merkte an, dass

er (Schmidt) mich auch auf die Website http://www.scepticalscience.com verwies, um eigene Forschungen durchzuführen“.

Dieses Ansinnen ist keine Überraschung, weil John Cook Schmidt für die Idee mit der Website dankbar ist (hier).

Ein anonymes Sprichwort sagt:

Wenn man mit dem Finger auf jemanden zeigt, zeigen drei Finger auch auf einen selbst“.

Fingerzeige enthalten selten Fakten, vor allem in der Klimadebatte nicht. Der erste Finger wurde den Skeptikern der globalen Erwärmung gezeigt, die echte Wissenschaft betreiben wollten in Gestalt der Hinterfragung der AGW-Hypothese. Die Verunglimpfung wurde abgewendet, als die Fakten nicht zur AGW-Story der globalen Erwärmung passten. Inzwischen wurde daraus Anthropogenic Global Climate Change (AGCC), und der zweite Finger deutete auf die Leugner des Klimawandels. Dieser Vorwurf wurde zurückgewiesen, weil genügend viele Leute wussten, dass der Klimawandel natürlichen Ursprungs war. Und nebenbei, das Gegenteil ist der Fall: Die AGCC-Gegner klären die Öffentlichkeit auf über Ausmaß und Tempo natürlicher Klimaänderungen.

Mit dem Näherkommen der Konferenz in Paris wird immer offensichtlicher, dass es kein Abkommen geben wird, und Alarmismus und Rhetorik nehmen überhand. Das Zeigen mit Fingern hat eine neue Form. Ein Leugner zu sein ist jetzt eine Krankheit wie etwa Lepra. George Monbiot hat Leugnung als eine Krankheit identifiziert.

Es hat keinen Sinn, es zu leugnen: wir verlieren. Leugnung des Klimawandels breitet sich aus wie eine ansteckende Krankheit. Es existiert in einer Sphäre, die nicht durch Beweise oder vernünftige Argumente erreicht werden kann; jeder Versuch, die Aufmerksamkeit auf wissenschaftliche Ergebnisse zu lenken, wird mit wilden Beschimpfungen begrüßt. Diese Sphäre breitet sich mit erstaunlicher Geschwindigkeit aus“.

Papst Franziskus limitierte sein Willkommen auf seinem jüngsten Klima-Konklave, indem er Krankheitsträger nicht eingeladen hat. Das hätte Jesus wohl kaum für gut befunden. Mit diesem Tun hat Franziskus zwei Gruppen erschaffen. Jene, die wissentlich das Scheitern der Hypothese leugnen einerseits und jene, die nicht wissen oder nicht wahrhaben wollen, dass die Hypothese gescheitert ist. Beide Gruppen sind die wirklichen Leugner.

Monbiot ignorierte alle Fakten, die ich aufgezählt habe, als er mit dem Finger auf mich gezeigt hatte. Das Ignorieren von Fakten macht es einfach zu behaupten, dass die Leugner unrecht haben. Die Fakten sind der Grund für die Ausbreitung der Sphäre. Hier kommen ein paar, wenige zwar nur, aber ausreichend, um die wirklichen Leugner bloßzustellen.

● Wie Monckton nachgewiesen hat, ist die globale mittlere Temperatur seit 19 Jahren nicht mehr gestiegen.

● Im gleichen Zeitraum ist der CO2-Gehalt kontinuierlich weiter gestiegen.

● Jede einzelne IPCC-Temperaturprojektion des IPCC war falsch.

● Die Temperatur steigt, bevor der CO2-Gehalt zugenommen hat, in jeder einzelnen Aufzeichnung, für welche Periode auch immer. Die einzige Stelle auf der Welt, wo eine CO2-Zunahme einem Temperaturanstieg vorangeht, sind die Computer-Modelle des IPCC.

● CO2 macht nur 4 Prozent aller Treibhausgase aus, und der menschliche Anteil beträgt lediglich 3,4 Prozent dieser Gesamtmenge.

● Prophezeiungen bzgl. mehr Extremwetter haben sich als falsch erwiesen.

● Das fortgesetzte Scheitern mittelfristiger Vorhersagen wie etwa das jüngste Debakel in UK, außerdem der schon jetzt hohe Skeptizismus hinsichtlich Wettervorhersagen.

Das ultimative Anzeichen der Leugnung

Das schlimmste Niveau des Leugnens wird von der Öffentlichkeit am wenigsten wahrgenommen. Dabei handelt es sich um die Adjustierung von Daten und Aufzeichnungen um sicherzustellen, dass die Täuschung nicht auffliegt. Wir wussten von der Adjustierung der Aufzeichnungen von Neuseeland durch die NIWA (Abbildung 2) und den Behauptungen gegen das australische Wetterbüro von Jennifer Marohasy und Anderen (Abbildung 3)

Abbildung 2

Abbildung 3

Chris Booker verweist darauf, dass nur Wenige das Ausmaß der Manipulationen bloßgestellt haben, vor allem in den USA und hier auf der Website von Stephen Goddard Real Science. In einem Beitrag mit dem Titel Hansen – The Climate Chiropractor fragt Goddard: „Müssen Sie Ihr Klima adjustieren? Dann rufen Sie Dr. James Hansen am GISS an!“ Abbildung 4 zeigt, was Goddard beschreibt als „…Hansens bemerkenswerte Änderungen der Temperaturdaten vor 1975. Er entfernte einfach diese ärgerliche Warmzeit von 1890 bis 1940“.

Abbildung 4

Die jüngsten und ungeheuerlichsten Adjustierungen von Daten wurden von Thomas Karl vom United States Historical Climate Network (USHCN) der NOAA vorgenommen. Karl hat sich schon sehr lange durch Adjustierungen von Aufzeichnungen hervorgetan, wie Steve McIntyre im Jahre 2007 nachgewiesen hat. In einem offenen Brief an Karl hinterfragte Bob Tisdale das Verfahren und die Objektive der jüngsten Adjustierungen. Der Terminus „Cherry-Picking“ ist all jenen nur allzu vertraut, die sich mit der Historie der wirklichen Leugner befassen. Allerdings befand es Judith Curry für angemessen zu beschreiben, was Karl gemacht hat.

Diese neue Studie ist besonders interessant im Zusammenhang mit der Studie von Karl et al., die den Stillstand verschwinden lässt. Ich habe den Verdacht, dass die Hauptbotschaft an die Öffentlichkeit (allerdings nur jene, die dem Thema Aufmerksamkeit zollen) lautet, dass die Daten wirklich unsicher sind und dass es für Wissenschaftler viele Gelegenheiten gibt, das richtige Verfahren herauszupicken, um die gewünschten Ergebnisse zu bekommen.

Offensichtlich um feststellen zu können, dass die Jahre 2014 und 2015 die wärmsten Jahre jemals waren und zu beweisen, dass der von Lord Monckton nachgewiesene Stillstand nicht existiert, entwickelte er eine mehr als fragwürdige Methode. Diese Dinge sind grundlegend für die Unterstützung und Fortsetzung der Leugnung im Vorfeld der Paris-Konferenz (COP 21). Es ist genauso wichtig als Täuschung, um Politiker zu überzeugen, wie es die durchgesickerten E-Mails als Bloßstellung von COP 15 in Kopenhagen waren.

Die gute Nachricht für Karl lautet indessen jetzt, dass er Unterstützung für sein Tun von Michael Mann hat.

Tom Karl und seine Kollegen haben hier solide Arbeit geleistet, aber sie haben lediglich bestätigt, was wir schon wussten“, sagte Michael Mann. „Es gibt keinen wirklichen ,Stillstand‘ der Erwärmung“.

Manns Glaubwürdigkeit bei den Wissenschaftlern ist eindeutig in Mark Steyn’s jüngstem Buch dargelegt.

Wer hat das politische Vorurteil zu leugnen?

Der Logik zufolge sind jene, die die Debatte abwürgen wollen, die Einzelpersonen und Gruppen zum Schweigen bringen wollen, die wirklichen Leugner. Präsident Obama sagte in seiner Rede zur Lage der Nation: „Unglücklicherweise gibt es innerhalb Washingtons immer noch einige Klimaleugner, die laut schreien, aber diese verschwenden die Zeit von Allen in einer ,settled‘ Debatte“ und „Der Klimawandel ist eine Tatsache“. [Ach nee! Anm. d. Übers.]

Ja, Mr. Präsident, er ist eine Tatsache, aber wenn Sie dies betonen, betreiben Sie Cherry-Picking hinsichtlich der richtigen und vollständigen Feststellung, dass „Der Klimawandel eine Tatsache ist, der anthropogene Klimawandel aber nicht“. Es scheint, als ob der Präsident der Ober-Leugner ist. Ein weiterer Beweis dafür, wer die wirklichen Leugner sind, findet sich in der anonymen Beobachtung, dass falls ein ehrlicher Mann unrecht hat, nachdem gezeigt worden war, dass er unrecht hat, hört er entweder auf, unrecht zu haben, oder er hört auf, ehrlich zu sein.

Im Falle der wirklichen Klima-Leugner ignorieren diese belegbare Fakten und betonen ihr Leugnen, indem sie die Aufzeichnungen manipulieren.

Link: http://wattsupwiththat.com/2015/09/06/an-update-on-the-real-deniers/

Übersetzt von Chris Frey EIKE




Ist es nicht endlich an der Zeit, den Irrsinn der Verschwendung von Zeit und Geld für mehr Klimamodelle zu stoppen?

Kurz-, mittel- und langfristige Klimavorhersagen sind über 50% der Zeit falsch, so dass eine richtige Vorhersage nicht besser ist als ein Zufallsereignis. Globale und regionale Vorhersagen sind oftmals genauso falsch. Falls es ein Klimamodell geben würde, dessen Vorhersagen zu 60% zutreffend sind, würde jedermann dieses benutzen. Da es aber keine einzige genaue Klimavorhersage gibt, geht das IPCC dazu über, alle Modellvorhersagen zu mitteln, als ob sich die Fehler dadurch irgendwie gegenseitig aufheben würden und das Mittel der Vorhersagen repräsentativ wäre. Klimamodelle und deren Vorhersagen haben eklatante Schwächen, die in anderen Unternehmungen ihre sofortige Aussortierung zur Folge hätte. Es sei denn, natürlich, dass es sich um ein von der Regierung finanziertes Fiasko handelt. Tägliche Wettervorhersagen sind seit der Entwicklung moderner Vorhersagemethoden seit dem 1. Weltkrieg immer besser geworden. Dagegen scheinen allerdings selbst kurzfristige Klimavorhersagen nicht besser zu sein als der Old Farmers Almanac aus dem Jahr 1792, bei dem als Vorhersagegrundlage Mond, Sonne und andere astronomische und terrestrische Indikatoren herangezogen worden waren.

Ich habe viel gesagt und geschrieben über die Schlüsselrolle von Modellen bei der Erzeugung und Fortführung der Katastrophen-AGW-Mythologie. Menschen waren erschrocken über die durchgesickerten E-Mails der CRU, aber die meisten wissen nicht, dass die tatsächlichen Instruktionen zum „Verstecken des Stillstands“ [hide the decline] im Anteil der Baumringe der Hockeyschläger-Graphik in den Computercode Eingang gefunden haben. Dies ist ein Grund, warum Menschen vom Akronym GIGO (Garbage in, Garbage out) sprechen, wenn von Klimamodellen die Rede ist.

Ich bin es leid, dass immer weiter so getan wird, als könnten die Klimamodelle akkurate Vorhersagen in einem chaotischen System erzeugen. Die Wirklichkeit ist, dass die Modelle nicht funktionieren und nicht funktionieren können, und zwar aus vielen Gründen einschließlich sehr fundamentaler: Fehlende Daten, fehlendes Wissen der wesentlichen Mechanismen, fehlendes Wissen über grundlegende physikalische Prozesse, fehlende Fähigkeit, physikalische Phänomene wie Turbulenz in mathematischer Form präsentieren zu können und fehlende Computer-Kapazität. Bob Tisdale hat die Probleme in seinem 2013 erschienenen Buch Climate Models Fail zusammengefasst. Es ist an der Zeit aufzuhören, weiterhin Geld und Zeit zu verschwenden und Menschen und Computer wichtigeren Dingen zu widmen.

Das Einzige, was die Leute weiter an den Modellen arbeiten lässt, sind finanzielle Zuwendungen der Regierung, entweder an Wetterbüros oder an Akademien. Ohne diese Finanzierung würden die Computermodellierer nicht das Studium des Klimas dominieren. Ohne diese Finanzierung könnte das IPCC nicht existieren. Viele in die Klimamodellierung involvierte Personen kennen sich in Klimatologie oder Klimawissenschaft nicht aus bzw. haben keinerlei Erfahrung damit. Sie waren Absolventen von Programmen zur Modellierung mittels Computer auf der Suche nach einer herausfordernden Gelegenheit, Zugang zu großen Computern zu haben und exzessiv bezahlt zu werden. Die Atmosphäre und später auch die Ozeane boten diese Gelegenheiten. Jetzt werden beide Bereiche zusammengeschustert, um das Fiasko fortzusetzen. Unglücklicherweise ist all dies für die Gesellschaft extrem teuer. Jene Ausgaben enthalten Kosten für die Computer und die Modellierungszeit, aber viel schlimmer ist, dass die falschen Ergebnisse im globalen Energie- und Umweltbereich angewendet werden.

Hört auf mit dem Theater sowie Geld und Zeit zu verschwenden! Streicht die Finanzierung, und niemand würde privates Geld für die Arbeit an Klimavorhersage-Modellen ausgeben!

Gewöhnlich argumentiere ich, dass es ein wenig bringen könnte, im Labor mit Klimamodellen zu spielen, mit wissenschaftlicher Verantwortung hinsichtlich Genauigkeit, Durchführbarkeit und Anwendbarkeit. Es ist eindeutig, dass sie diesen Verantwortlichkeiten nicht genügen. Jetzt erkenne ich, dass diese Haltung falsch ist. Wenn Modellergebnisse als die einzige Basis für Regierungspolitik herhalten muss, haben sie keinerlei Wert. Sie sind ein massiver Kostenfaktor und ein großer Schaden für die Gesellschaft, aber genau das zu tun war der Auftrag an das IPCC.

Das IPCC hat einen kleinen Wert. Es illustriert all die Probleme, die in vorherigen Kommentaren angesprochen worden waren. Im Labor erzeugte Klimamodelle werden manipuliert sogar weit über wissenschaftliche Präzision hinaus in regierungsamtlichen Wetterämtern oder Akademien. Dann werden sie zur Grundlage öffentlicher Politik in Gestalt der Summary for Policymakers SPM.

Ein weiterer Wert der IPCC-Berichte ist, dass sie eine detaillierte Auflistung der Gründe bieten, warum die Modelle nicht funktionieren und nicht funktionieren können. Zu blöde, dass nur Wenige diese Berichte lesen oder verstehen. Falls das der Fall wäre, würden sie erkennen, dass die Grenzen so hoch liegen, dass sie jede Erfolgschance zunichte machen. Nur eine einzige Teiluntersuchung illustriert diesen Punkt.

Daten

Die IPCC-Mitarbeiter wussten von Anfang an um die Grenzen der Daten, doch hat sie dies nicht daran gehindert, Modelle zu konstruieren.

Im Jahre 1993 hat Stephen Schneider, an einer der vordersten Plätze der AGW-Hypothese stehend, hinsichtlich des Gebrauchs von Klimamodellen gesagt:

Ungewissheit über wichtige Rückkopplungs-Mechanismen sind ein Grund, warum das ultimative Ziel der Klimamodellierung, also die zuverlässige Vorhersage der Zukunft grundlegender Variablen wie Temperatur und Niederschlagsmenge, nicht realisierbar ist“.

In einem Bericht des US National Research Council vom 3. Februar 1999 heißt es:

Defizite hinsichtlich Genauigkeit, Qualität und Kontinuität der Aufzeichnungen stellen ernste Begrenzungen hinsichtlich des Vertrauens dar, das man den Forschungsergebnissen entgegen bringen kann.

Darauf erwiderte Kevin Trenberth:

Es ist sehr eindeutig, dass wir kein Klima-Beobachtungssystem haben … dies könnte für Viele ein Schock sein, die davon ausgehen, dass wir genau wissen, was mit dem Klima passiert, aber wir wissen es nicht.

Zwei Direktoren der CRU, Tom Wigley und Phil Jones, sagten:

Viele Unsicherheiten bzgl. der Gründe des Klimawandels werden niemals gelöst werden können, weil die dafür notwendigen Daten fehlen.

70% der Welt werden von Ozeanen überdeckt, von denen es praktisch keine Messungen gibt. Die Pole sind von grundlegender Bedeutung hinsichtlich der Dynamik des atmosphärischen Antriebs und des Klimas, und dennoch gibt es im 15 Millionen km² großen Gebiet des Arktischen Ozeans oder dem 14 Millionen km² großen antarktischen Kontinent praktisch keine Messstationen. Von etwa 85% der Erdoberfläche liegen keine Wetterdaten vor. Das IPCC räumt diese Begrenzungen ein und behauptet, dass die Daten einer einzelnen Station repräsentativ sind für die Bedingungen in einem Umkreis mit einem Radius von 1200 km. Ist das eine zulässige Annahme? Ich glaube nicht.

Aber es sind nicht nur die fehlenden Daten von der Erdoberfläche. Tatsächlich fehlen nicht nur die Daten von der Oberfläche, sondern auch aus diversen Höhenschichten über der Oberfläche zwischen 1,25 und 2 m. Und wie Forscher (Climate Near the Ground) zeigen, unterscheiden sich diese Höhenschichten markant von tatsächlichen Oberflächen-Temperaturen, wie sie an den wenigen Mikroklima-Stationen gemessen werden, die es gibt. Angeblich sind die US-Stationen die besten, aber wie Anthony Watts akribische Studie zeigt, messen lediglich 7,9% dieser Stationen mit einer Genauigkeit von weniger als 1°C (Abbildung 1). Ins Verhältnis gesetzt: im IPCC-Bericht aus dem Jahr 2001 behauptet Jones, dass die Zunahme um 0,6°C über 120 Jahre jenseits einer natürlichen Zunahme liege. Dies unterstreicht auch die Tatsache, dass die meisten der instrumentell gemessenen Temperaturen auf 0,5°C genau gemessen worden sind.

Abbildung 1

Bei anderen grundlegenden Daten einschließlich Niederschlag, Luftdruck, Windgeschwindigkeit und -richtung sieht es noch schlechter aus als bei den Temperaturdaten. Zum Beispiel gibt es in Afrika nur 1152 Wetterbeobachtungsstationen, welche ein Achtel der von der WMO geforderten minimalen Dichte ausmachen. Wie ich bereits in einem früheren Beitrag betont habe, reichen fehlende Daten für alle Aggregatzustände von Wasser (hier) allein aus, um das Scheitern der IPCC-Projektionen zu garantieren.

Die Modelle versuchen, eine dreidimensionale Atmosphäre zu simulieren, aber es gibt über der Oberfläche praktisch keine Daten. Die Modellierer glauben, dass wir dumm genug sind zu glauben, dass mehr Ebenen in den Modellen dieses Problem lösen, aber falls man keine Daten hat, spielt die Anzahl der Ebenen keine Rolle.

Wesentliche Mechanismen

Während meiner Laufbahn als Klimatologe wurden viele Phänomene von Wetter und Klima entweder gefunden oder gemessen, angeblich mit hinreichender Genauigkeit, um Eingang in ein Modell zu finden. Unter diesen Phänomenen sind ENSO, Pacific Decadal Oscillation (PDO), the Atlantic Multidecadal Oscillation (AMO), the Antarctic Oscillation (AAO), the North Atlantic Oscillation (NAO), Dansgaard-Oeschger Oscillation (D-O), Madden-Julian Oscillation (MJO), Indian Ocean Dipole (IOD) und andere.

Abgesehen davon wissen wir immer noch wenig über Phänomene, die mit der Hadley-Zelle und der Innertropischen Konvergenzzone ITC zusammenhängen, welche im Wesentlichen die gesamten tropischen Klima-Mechanismen sind. Der Milankovitch-Effekt bleibt umstritten und geht nicht in die IPCC-Modelle ein. Die Theorie kosmischer Strahlen scheint eine Antwort zu geben auf die Beziehung zwischen Sonnenflecken, globaler Temperatur und Niederschlag, aber auch diese wird gleichermaßen vom IPCC ignoriert. Auch das Phänomen Monsun wird kaum berücksichtigt, wenn es heißt:

Kurz gesagt, die meisten AOGCM-Modelle simulieren nicht genau die räumliche oder jahreszeitliche Variation der Monsun-Niederschläge.

Es gibt nur sehr begrenzt Wissen über die großen ozeanischen Zirkulationen an der Oberfläche und in den Tiefen. Es gibt praktisch keine Messungen des transferierten Wärmevolumens oder wie sich dieses mit der Zeit ändert, einschließlich Messungen der geothermischen Wärme.

Das IPCC räumt ein, dass:

wir bei der Klimaforschung und -modellierung erkennen sollten, dass wir es mit einem gekoppelten, nicht linearen chaotischen System zu tun haben, und dass daher die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist.

Dieser Kommentar reicht schon aus, um mit dem Verschwenden von Zeit und Geld aufzuhören. Man füge das zweite und damit verbundene Problem hinzu, das von Essex und McKitrick in dem Beitrag Taken By Storm identifiziert worden ist, und man findet dick unterstrichen aufzuhören.

Klimaforschung ist alles andere als eine routinemäßige Anwendung klassischer Theorien wie Strömungslehre, obwohl manch einer versucht sein könnte, genau das zu glauben. Es muss in der „exotischen“ Kategorie wissenschaftlicher Probleme betrachtet werden, teilweise weil wir versuchen, eine wissenschaftlich bedeutende Struktur zu finden, die niemand sehen kann oder jemals gesehen worden ist und die vielleicht nicht einmal existiert.

In dieser Hinsicht muss man unabdingbar im Hinterkopf behalten, dass es keine Experimentier-Anordnung für das globale Klima gibt, so dass alles, was wir haben, jene ersten Prinzipien sind. Man kann alle Messungen heranziehen, die man heute will; man kann Terabyte Plattenspeicher füllen, falls man will, aber das kann nicht als experimenteller Apparat dienen. Apparate können kontrolliert werden, und deren Betreiber können Messungen eigener Variablen durchführen über eine Bandbreite kontrollierter, physikalisch relevanter Bedingungen. Im Gegensatz dazu haben wir nur das heutige Klima als direkte Stichprobe, vorausgesetzt wir sind klug genug, sogar zu wissen wie man streuende Daten auf physikalisch bedeutsame Weise mitteln kann, um das Klima zu repräsentieren. Kurz gesagt, das globale Klima ist durch keinerlei konventionelle Mittel zu erfassen.

Computer-Kapazität

Modellierer behaupten, dass die Computer immer besser werden und dass alles, was sie brauchen, größere und schnellere Computer wären. Das macht mit Sicherheit keinen Unterschied, und die Geldverschwendung geht weiter. Im Jahre 2012 stellte Cray den Supercomputer mit der Bezeichnung Gaea vor (Abbildung 2). Er hat eine Kapazität von 1,1 Petaflops. Die Abkürzung FLOP bedeutet Floating-Point Operations per Second, und Peta sind um 1000 Millionen Floating-Point Operations per Second. Jagadish Shukla sagt, die Herausforderung bestehe darin,

dass wir in der Lage sein müssen, Klimamodelle mit der gleichen Auflösung laufen zu lassen wie die Wettervorhersagemodelle, die während der nächsten 5 Jahre eine horizontale Auflösung von 3 bis 5 km erreichen können. Dies wird Computer mit einer Spitzenfähigkeit von etwa 100 Petaflops erfordern.

Unabhängig von der Computer-Kapazität ist das alles bedeutungslos, wenn die Daten für das Modell fehlen.

Abbildung 2: Der Gaea-Computer von Cray mit dem umweltlichen Image.

Gescheiterte Vorhersagen (Prophezeiungen, Projektionen)

Abbildung 3 zeigt die gescheiterte Vorhersage des IPCC. Dort wird so etwas Projektion genannt, aber die Öffentlichkeit glaubt, dass es Vorhersagen sind. Wie auch immer, sie sind konsistent falsch. Man beachte die Beschriftungen, die Haydens Graphik aus der Summary for Policymakers SPM hinzugefügt worden sind. Während die Fehlerbandbreite bei den aktuellen Daten immer größer wird, behauptet die Summary stur, dass sie sich verbessern. Eines der vom IPCC herangezogenen Computermodelle gehört Environment Canada. Dessen Prophezeiungen sind die schlechtesten von all jenen, die für die Mittelung der Ergebnisse durch das IPCC Eingang fanden (Abbildung 4).

Abbildung 3

Abbildung 4. Quelle: Ken Gregory

Das kanadische Desaster ist keine Überraschung, wie deren Abschätzung der Vorhersageleistung über ein Jahr zeigt. Sie machen eine Vorhersage über ein Jahr und bieten eine Karte an, die die Verteilung der Eintreff-Genauigkeit in Prozent zeigt, verglichen mit dem Mittel des Zeitraumes 1981 bis 2010 (Abbildung 5).

Abbildung 5

Die kanadische mittlere prozentuale Genauigkeitsverteilung ist unten links mit 41,5 Prozent angegeben. Das ist das beste, was sie erreichen konnten nach etwa dreißig Jahren Modellentwicklung. Ergebnisse in anderen Ländern sind auch nicht besser.

In einem Bericht im New Scientist sagte Tim Palmer, ein führender Klimamodellierer am EZMW in Reading:

Ich möchte das IPCC nicht unterminieren, aber die Vorhersagen, vor allem für regionale Klimaänderungen, sind in großem Umfang unsicher.

Die Kosten

Joanna Nova hat die umfangreichsten Forschungen hinsichtlich der Kosten der Klimaforschung durchgeführt, die der US-Regierung entstehen (hier):

Insgesamt wird die US-Regierung während der letzten 20 Jahre bis zum Ende des Finanzjahres 2009 32 Milliarden Dollar für die Klimaforschung ausgegeben haben – und weitere 36 Milliarden Dollar für die Entwicklung klimabezogener Technologien. Das sind tatsächliche Dollars, ersichtlich aus Berichten der Regierung, und nicht inflationsbereinigt. Finanzielle Zuwendungen anderer Regierungen sind nicht berücksichtigt. Die wirkliche Summe kann nur weiter steigen.

Es gibt keinen Zweifel daran, dass diese Summe wuchs, und die Welt als Ganzes wird wahrscheinlich die US-Ausgaben verdoppeln, wie dieser Kommentator behauptet:

Allerdings kann ich mindestens eine zuverlässige halbe Milliarde Pfund zu Joanne Novas 79 Milliarden-Dollar-Rechnung hinzufügen – plus: wir wissen jetzt schon, dass das Framework 7-Programm der EU 1,9 Milliarden Euro für die direkte Klimaforschung enthält. Framework 6 beläuft sich auf 769 Millionen Euro. Falls man alle Anhang-1-Länder zusammenfasst, muss die ausgegebene Summe deutlich über 100 Milliarden liegen.

Das sind lediglich die Kosten für die Computer-Modellierung. Die ökonomischen und sozialen Kosten sind noch viel höher und praktisch unmöglich zu berechnen. Paul Driessen sagt dazu:

Wie die entsprechenden polaren Gebilde sind 90% des titanischen Eisberges der Klimaförderung für die meisten Bürger unsichtbar, Geschäftsleute und Politiker gleichermaßen.

Es ist kein Wunder, wenn Larry Bell sagen kann:

Das Government Accounting Office (GAO) der USA ist nicht in der Lage herauszufinden, welche Vorteile der Steuerzahler von den vielen Milliarden Dollars hat, die jedes Jahr für eine Politik ausgegeben werden, die angeblich dem Kampf gegen den Klimawandel gewidmet ist.

Falls es wirklich einer vermeintlich hoch entwickelten Agentur wie dem GAO der USA nicht möglich ist, die Kosten zu berechnen, dann gibt es keine Chance für eine globale Abschätzung. Es gibt kaum Zweifel daran, dass die direkten Kosten in Billionen Dollar gemessen werden. Darin sind nicht enthalten die verpassten Gelegenheiten für Entwicklung und das Leben derer in Armut zu verbessern. Und all das nur wegen der als falsch nachgewiesenen Ergebnisse von vollständig gescheiterten Computermodell-Prophezeiungen, Projektionen oder wie immer man das nennen kann.

Es ist an der Zeit, diesen Wahnsinn zu beenden, welcher in der Klimawissenschaft in der Erzeugung immer neuer Computermodelle besteht, die nicht funktionieren und nicht funktionieren können!

Jene, die Wissen haben, prophezeien nichts. Jene, die prophezeien, haben kein Wissen“. Tzu Lao im 6. Jhd. vor Christus.

Link: http://wattsupwiththat.com/2015/09/14/is-it-time-to-stop-the-insanity-of-wasting-time-and-money-on-more-climate-models/

Übersetzt von Chris Frey EIKE.

Anmerkung des Übersetzers: Wie bloß kann man all diese Dinge der deutschen Zipfelmütze vermitteln?!