PIK Vizechef Edenhofer: Die Besitzer von Kohle, Öl und Gasvorkommen müssen enteignet werden.

Die altehrwürdige Berliner URANIA will den Berlinern Zugang zur Wissenschaft verschaffen. Ihnen wissenschaftliche Bildung vermitteln. Das tut sie mit einigem Erfolg seit 1888. Viele illustre Menschen durften bei Ihr vortragen, u.a. so herausragende Wissenschaftler wie Albert Einstein oder Christiane Nüsslein-Volhard. Aber auch angesehene Schriftsteller wie Thomas Mann, Heinrich Böll oder Max Frisch. Doch auch Staatsmänner oder solche, die vom Mainstream dafür gehalten werden sprachen dort, wie  Michail Sergejewitsch Gorbatschow und Helmut Kohl, ja auch das ewige SPD Irrlicht und Beinahe-Bundespräsidentin Gesine Schwan durften schon mal dort reden.
Daher sei  es der passende Ort, so dachte es sich wohl der dort Verantwortliche Herr Dr. Ulrich Bleyer , dass mal wieder jemand Bedeutendes vom „Weltklimarat“, vulgo IPCC, vorträgt. Geht es doch bei denen um nichts anderes als um die Weltrettung. So wurde Prof. Dr. Ottmar Edenhofer,
Stellvertretender Direktor und Chefökonom am Potsdam Institut für Klimafolgenforschung (PIK), einem Institut der Leibniz-Gemeinschaft und Vorsitzender der Arbeitsgruppe III des Weltklimarats IPCC eingeladen seine Sicht der Dinge, nämlich zur „Erforschung von Lösungswegen für den Klimawandel“ vorzutragen. Und das tat der dann auch. Eingeladen wurde mit dem schlichten Text
Der 5. Sachstandsbericht des Weltklimarats IPCC zeigt, dass menschliche Aktivitäten für den Anstieg der globalen Mitteltemperatur verantwortlich sind: die Verbrennung von Kohle, Öl und Gas und Entwaldung. Weitere Erwärmung birgt das Risiko irreversibler Folgen. Der Klimawandel kann jedoch nicht mehr vollständig vermieden werden. Daher sind Anpassung und Klimaschutz komplementäre Strategien zum Umgang mit und zur Verringerung dieser Risiken; vor allem die substantielle Reduzierung der Treibhausgas-Emissionen in den kommenden Jahrzehnten können die Risiken des gefährlichen Klimawandels verringern. Das Zwei-Grad-Ziel ist noch erreichbar, wenn es zu einer Entkopplung von Emissionen und Wirtschafts- und Bevölkerungswachstum kommt. Diese Entkopplung erfordert aber international koordinierte Klimapolitik.
Er enthält in Kurzform das Credo des Herrn Edenhofer und seiner Kollegen und es störte keinen, weder die Einladenden noch viele Gäste, welches Aufgebot von Binsenweisheiten bzw. Banalitäten, zum Teil sogar stupende Leerformeln schon die Einladung enthält. Da ist die Rede von … Der Klimawandel kann jedoch nicht mehr vollständig vermieden werden… und das religiöse aber völlig unbewiesene Mantra wird wiederholt… vor allem die substantielle Reduzierung der Treibhausgas-Emissionen in den kommenden Jahrzehnten können die Risiken des gefährlichen Klimawandels verringern.

Abb. 1 Täuschen und Tarnen bei der Darstellung der Realität in der Summary for Policymakers 2013 
Ja ist denn wirklich niemandem aus dem Hause URANIA aufgefallen, dass es eine schier endlose Klimageschichte auf diesem Planeten gibt, mit vielen Klimata, die sich vor allem durch ständigen immerwährenden Wandel auszeichnen? Was also soll dieses nichtssagende Gerede, dass „der Klimawandel“ nicht „mehr vollständig“ aufzuhalten sei? Wann war er das jemals?  Oder die nicht minder gebetsmühlenartige  vorgetragene Schein-Weisheit .. dass die substantielle Reduzierung der Treibhausgas-Emissionen in den kommenden Jahrzehnten die Risiken des gefährlichen Klimawandels verringern (können). Auch dafür wurde bisher nirgendwo in den tausenden von Seiten aller 5 Sachstandsberichte irgendein Beweis, irgendeine Beobachtung vorgelegt. Und so blieb es auch während des Vortrages.


Abb 2 & 3: es gibt auch lt IPCC Bericht keinerlei Anzeichen für erhöhte Extremwetteraktivitäten, noch für Schäden, die zu Klimaflüchtlingen führen würden 
Die Einführung gab der Hausherr Programmdirektor und Geschäftsführer Dr. habil Ulrich Bleyer. Er wies daraufhin, dass der Vortragende Edenhofer nicht nur ein vorzüglicher Ökonom sei, der nun die Wissenschaftslandschaft über das Potsdam Institut für Klimafolgenforschung (PIK) mit über 300 Mitarbeitern bereichere, sondern auch Vorsitzender (Chair) der Arbeitsgruppe III des IPCC sei, und dort entscheidend an der Verbesserung der Transparenz dieser Organisation mitgewirkt habe, wozu ihm u.a. auch seine über siebenjährige Zugehörigkeit zu den Jesuiten gedient hätte. Dem Orden, der von seinen Mitgliedern unbedingten „Kadavergehorsam“ gegenüber der Kirche (Papst) fordert und dessen Gründer Ignacio von Loyola verlangte

„Wir müssen, um in allem das Rechte zu treffen, immer festhalten: ich glaube, dass das Weiße, das ich sehe, schwarz ist, wenn die Hierarchische Kirche es so definiert."[1]

Und damit sei er vorzüglich gerüstet auch die schwierigen  Lösungen zu suchen und zu finden, die der allgegenwärtige gefährliche Klimawandel mit sich bringe. Solcherart eingeführt begann Herr Otmar Edenhofer seinen Vortrag. Eloquent, sachkundig und keinen Zweifel am Gesagten zulassend.
Gleich zu Beginn wies der darauf hin, dass er davon ausgehe, dass das CO2 die Globaltemperatur gefährlich aufheize, das sei schließlich im Bericht der Arbeitsgruppe I so festgehalten worden  (… Der 5. Sachstandsbericht des Weltklimarats IPCC zeigt, dass menschliche Aktivitäten für den Anstieg der globalen Mitteltemperatur verantwortlich sind: die Verbrennung von Kohle, Öl und Gas und Entwaldung.), leider seien weder er noch seine Kollegen in der Lage mitzuteilen ob und wann und wo diese gefährliche Erwärmung, leider auch nicht bis zu welcher Höhe sie eintreten würde, aber dass es irgendwie, irgendwann, irgendwo dazu käme sei höchst wahrscheinlich. Deswegen sei es so notwendig schon jetzt und weltweit die notwendigen Gegen-Maßnahmen zu treffen, von denen er einige aufzeigen wolle. Diese seien zwar die private Meinung des O. Edenhofer aber würden trotzdem mit vielen Verantwortlichen in dieser Welt genauso diskutiert.

Abb. 4 Aktueller Stand der Entwicklung der globalen Mitteltemperatur nach Satellitenbeobachtungen ausgewertet durch RSS. Kein Anstieg seit 18 Jahren und 3 Monaten. Zur Erinnerung, das IPCC wurde 1988  also bereits 12 Jahre nach Beginn der Minierwärmung im vorigen Jhh gegründet. Diese war 1996 wieder vorbei
Dann widmete er sich unter Verwendung jeder Menge Folien dem 2 ° Ziel, großzügig meinend, dass es nicht wichtig sei, ob es 1,8 oder 2,2 ° würden, denn dass sei für die Gesellschaft schließlich gerade noch so auszuhalten. Aber mehr nicht! Doch leider, leider würden Kohle, Öl und Gas immer billiger und würden deshalb immer mehr zur Energieerzeugung eingesetzt. Dank der Entwicklung neuer Technologien hätte sich auch das Märchen vom Peaköl irgendwohin (Anm. des Autors: auf den Müllplatz der Geschichte) verflüchtigt, so dass der CO2 Anstieg in der Atmosphäre sich sogar beschleunigt hätte. Schlimme 2,2 % pro Dekade seien das jetzt. Das sei nun wirklich besorgniserregend, denn damit würde das uns verbleibende CO2 Budget, dass wir noch gerade so in die Atmosphäre eintragen dürften, um das 2 ° Ziel nicht zu gefährden, umso früher erschöpft. Insgesamt bezifferte er dieses Budget auf rd. 1000 Gt CO2 [2] , Davon sei aber schon ein erheblicher Teil verbraucht und nur durch gewaltige Anstrengungen sei die notwendige Decarbonisierung zu erreichen, indem wir lieber früher als später die Verwendung fossiler Energieträger völlig einstellten. Das heißt aber, den weitaus größten Teil dieser Ressourcen  im Boden zu belassen.
Andernfalls würde die Temperatur um bis zu 4 ° C oder mehr steigen, mit schrecklichen Folgen. Das aber sagten dem IPCC und ihm seine Modelle. Wenn sich auch nicht sagen ließe wo, wann und um wie viel diese eintreten.

Abb 5: Vergleich IPCC Prognosen/Projektionen oder wie sie noch heißen gegenüber der Realität. Alle falssch!
Und wir alle wüssten doch welche verheerenden Folgen die Extremwetter bereits hätten, und die daraus ausgelösten Schäden seien nun mal unausweichliche Folgen des Klimawandels. Leider fand sich im ganzen über einstündigem Vortrag mit rd 40 Folien nicht eine einzige, die darstellte, wie viele und wie starke „Extremwetter“ sich vor dem ganzen Klimawandel so ereignet haben, noch wie viele und wie starke es seit der Entdeckung des Klimawandels durch das IPCC und seine Gründer und Unterstützer ereignete. Nicht eine! Das – so hieß die Botschaft- weiß man eben. (Details dazu siehe pdf Anlage)
Dann widmete er sich den „Lösungswegen“ aus diesem Weltdilemma und wiederholte dazu sein Mantra, das er zuvor auch schon der NZZ am 14.11-2010 in die Feder diktierte:
„Zu­nächst mal ha­ben wir In­dust­rie­län­der die At­mo­sphä­re der Welt­ge­mein­schaft qua­si ent­eig­net. Aber man muss klar sa­gen: Wir ver­tei­len durch die Kli­ma­po­li­tik de fac­to das Welt­ver­mö­gen um. Dass die Be­sit­zer von Koh­le und Öl da­von nicht be­geis­tert sind, liegt auf der Hand. Man muss sich von der Il­lu­si­on frei­ma­chen, dass in­ter­na­ti­o­na­le Kli­ma­po­li­tik Um­welt­po­li­tik ist. Das hat mit Um­welt­po­li­tik, mit Prob­le­men wie Wald­ster­ben oder Ozon­loch, fast nichts mehr zu tun.“
Und für Edenhofer ist demnach die Enteignung der Besitzer der fossilen Ressourcen der Schlüssel zur erfolgreichen Decarboniserierung. Und hier brach dann wieder der alte Marxist durch, der Edenhofer schon seit früher Jugend ist. Denn diese Ressourcen gehörten ja nicht den „Besitzern“ – so Edenhofer- sondern allen Menschen.  Deswegen sei deren Enteignung der Besitzer höchst moralisch und damit auch richtig. Und noch eine gute Botschaft hätte er: Die gesamten Aufwendungen für die Decarbonisierung würden das Wachstum des globalen Bruttosozialproduktes GDP nur um 0,06 % dämpfen.
Aber beim Wie täte man sich schwer. Und deswegen führe der Weg dahin über (Anmerkung des Verfassers: die Gier der) jeweiligen Finanzminister. Diese müssten überzeugt werden, so wie in der EU ja schon erfolgreich geschehen, das Verbrennen von fossilen Brennstoffen mittels des Zertifikatehandels kräftig zu besteuern. Mit dem so eingezogenen Geld könnten sie unglaublich und unendlich Gutes tun, die „Erneuerbaren“ wundervoll subventionieren und ähnlich Edles mehr. Er und seine Kollegen arbeiteten intensiv daran, dass dies in Paris auch so beschlossen würde.
Doch spätestens an dieser Stelle kam Unglaube im sonst andächtig folgendem Publikum auf, wohl auch eingedenk der nackten Tatsache, dass in den meisten Ländern der OPEC, aber auch in Russland, China und andernorts der Staat bereits heute der Besitzer all dieser Schätze ist, und die Verbraucherländer durch ihre Finanzminister den Verbrauch fossiler Brennstoffe hoch besteuerten. Allerdings häufig ohne dass diese Gelder der örtlichen Infrastruktur und den Menschen zur Verfügung gestellt worden. Die Frage drängt sich auf: Wie will man die enteignen? Schickt man ganze schwer armierte Klimaretter-Divisionen nach Saudi-Arabien oder Russland oder Venezuela. Oder wie sollte man sich das vorstellen?
So blieb nicht nur bei denen ein schaler Geschmack über ob der dürftigen, wenn auch Hochglanz- Un„wissenschaftlichkeit“ diese Vortrages, die sich die ganze Zeit darüber wunderten, dass Edenhofer mit keiner Silbe auf die nunmehr seit 18 Jahren veränderte Klimarealität einging, in der die globale Mitteltemperatur nicht mehr ansteigt,  nicht erwähnte, dass weder die Zahl der Stürme, noch Überschwemmungen noch Dürren und andere Unbill zugenommen haben, der Meeressspiegel so wenig wie eh und je ansteigt und weder Arktis noch Antarktis noch Grönland an übermäßiger Eisschmelze leiden, sondern immer wieder darauf beharrte, dass seine Modelle genau solch schreckliches Ungemach zeigten, und seine Wirtschaftsmodelle diese Lösungswege wiesen, sondern auch bei denjenigen, und das war wohl die übergroße Mehrheit im Saal, die ihm bis dahin gebannt gefolgt waren.
Auch bei diesen ergab sich Unglauben, wie man denn wohl die OPEC Potentaten zwingen könne, ihr Öl oder Gas in der Erde zu lassen, auch wenn man sie  mit großen Summen – aus Emissionshandelsgeldern- zu überzeugen versuchte. „Traumtänzer“ war einer der Ausdrücke, der gelegentlich aus dem Publikum zu hören war.
Bezeichnend für den Zustand der Wissenschaft hierzulande, dass solche Leute wie der Vortragende, sich anmaßen den Schlüssel für unsere Zukunft in der Hand zu halten und das mit Steuergeldern finanzierte Institutionen wie die URANIA und die Leibnitz Institute ihnen Wirkmöglichkeiten und internationale Plattformen an vorderster Front ermöglichen, um ihre wirren Ideologien vorzutragen.
Aufgrund der Überlänge des Vortrages wurden kaum Fragen und schon gar keine Statements zugelassen. Das Einladungsversprechen „Vortrag mit anschließender Diskussion“ wurde einmal mehr nicht eingehalten.


1.    [1] Quelle Wikipedia  Ignatius von LoyolaDie Exerzitien. 13. Auflage. Johannes Verlag Einsiedeln, Freiburg 2005, ISBN 3-89411-028-7, Randziffer 365.
[2] An dieser Stelle ist es angebracht meiner Verwunderung über das fast göttliche Wirken der Modellierer Ausdruck zu geben, die es irgendwie schaffen, immer ganz runde Zahlen, sozusagen als Quintessenz ihrer Berechnungen, zu erfinden. Zwei Grad Ziel, 1000 Gigatonnen CO2 und viele andere – immer schön rund. Ist da evtl. göttlicher Wille am Werk, dass die Natur auf unsere politische Kampagnenfähigkeit Rücksicht nimmt?

Related Files




NASA-GISS ändert rückwirkend die Temperaturdaten – warum ?

Dass NASA-GISS die Temperaturdaten rückwirkend ändert, war nach dem EIKE-Bericht von Ste­ven Goddard (26.01.2012) zu vermuten, denn wie berichtet wurde, hatte NASA-GISS die Tempe­raturgangli­nien von Reykjavik und Godthab Nuuk rückwirkend geändert, und danach sollte es in der Arktis wärmer wer­den.
Temperaturdaten sind Dokumente. Der Verdacht rückwirkend geänderter Temperaturdaten erfor­derte eine Untersuchung, um den Verdacht entweder zu widerlegen oder zu bestätigen. Eine Ana­lyse war mög­lich, weil die 2010 von NASA-GISS angebotenen Temperaturdaten damals archiviert worden waren und nun mit den 2012 von NASA-GISS angebotenen Daten verglichen werden konnten.  Da eine Verände­rung von Temperaturdaten im Sinne der Initia­toren nur dann zweckmä­ßig war, wenn sie nicht nur die Arktis sondern die ganze Welt be­träfe, musste die Untersuchung die 2010- und 2012-Daten von mög­lichst vielen Stationen miteinander vergleichen. Dafür wurden nach dem Zufallsprinzip 120 Stationen weltweit fest­gelegt. Der Vergleich hat den Goddard-Bericht bes­tätigt und zeigt, dass diese Veränderungen in allen 120 Stationen vorgenommen worden sind. Sie täuschen eine größere Erwärmung vor. Auch wenn der Nachweis jetzt nur für 120 Stationen er­bracht werden konnte, ist anzunehmen, dass die rückwirken­den Änderungen auch alle anderen Sta­tionen weltweit betreffen.  Das Er­gebnis der Analyse wird in [1] behandelt. Eine Kopie der Arbeit ist im Anhang beigefügt, hier werden die wesentlichen Ergebnisse zu­sammengefasst:
Die Analyse hat ergeben, dass man bei den Veränderungen fallweise eine unterschiedliche Metho­dik an­gewendet hat. Um den Ein­druck von einer erheblichen und fortschreitenden Er­wärmung zu erzielen, wur­den mehrere Methoden angewendet, nämlich:
·      eine Absenkung der Jahresmittelwerte in der Anfangsphase,
·      eine Verringerung einzelner höherer Werte in der ersten Warmphase,
·      eine Erhöhung einzelner Werte in der zweiten Warmphase,
·      eine Unterdrückung der um 1995 beginnenden zweiten Abkühlungsphase,
·      eine Änderung der Temperaturskala je nach ausgewählter Methode, und
·      eine Verkürzung der Datenreihe um die frühen Jahrzehnte.
·      Bei den Langzeitrei­hen wurden Datenreihen sogar um die frühen Jahrhunderte gekürzt. .
Infolge der individuellen Gegebenheiten und Änderungsmethoden ergeben sich für die Klassi­fizie­rung der Ganglinien-Paare der 2010- und 2012-Daten 10 unterschiedliche Gruppen. Da in [1] aus Platzgründen nur die Ganglinien-Paare der Gruppen 1, 3, 4 und 7 mit jeweils nur ei­nem Beispiel dargestellt werden konnten, werden hier in einer separaten Datei die Ganglinien-Paare aller 120 Stationen beigefügt [2].
Die 2010-Daten ergaben 91 Erwärmungen und 29 Abkühlungen mit einer durchschnittlichen Er­wärmung von 0,0051°C/a, die 2012-Daten täuschen mit 108 Erwärmungen  und 12 Ab­kühlungen eine durch­schnittliche Erwärmung von 0,0093°C/a vor. Die Änderungen der 2012-Daten haben die durchschnittli­che Erwärmung der 120 Stationen also fast verdoppelt.
Während der Auswertung der Daten und der Erarbeitung des Manuskriptes wurden bis März 2013 aus dem Internetportal von NASA-GISS wiederholt die Daten und Ganglinien einzelner Stationen abgefragt. Es zeigte sich, dass auch später weitere Änderungen vorgenommen wur­den. Das in [1] Abb. 19 benutzte Beispiel der Station Alice Springs wurde hier um die heute von NASA-GISS an­gebotene Ver­sion ergänzt (hier Abb.1). Um zu erkennen, dass – und wie sehr – sie sich auch wieder von den Vorgängerversionen unterscheidet, wurden die Eckpunkte der Temperaturskala mit roten Pfeilen versehen.  Es ist wahr­schein­lich, dass Änderungen im­mer noch und auch mit den Datensät­zen anderer Stationen vorgenommen wer­den. 
“The GISS analysis uses only GISS homogeneity adjusted data” [1]. Es ist hier nicht zu dis­kutieren, ob und wie weit ‚Homogeni­sierung’ als zweckgerichtete Anpassung von Tempera­turmessungen wissen­schaftlich vertretbar ist. Es sollte gelten, dass die Bot­schaft der Daten nicht verän­dert werden darf. Jedoch genau das bewirken die hier behan­delten Änderungen. Es ist nicht akzeptabel, dass Ganglinien  
·      durch das Verkleinern oder Vergrößern der gemessenen Temperaturen in ihr Gegenteil umge­wandelt werden, um damit statt der gemessenen Abkühlung eine Erwärmung oder statt der ge­messenen Er­wärmung eine Abkühlung zu erhalten,
·      durch das Löschen von Daten in ihr Gegenteil verkehrt werden, um eine noch stärkere Ab­küh­lung oder Erwärmung zu erhalten,
·      durch das Verkleinern oder Vergrößern der gemessenen Temperaturen ausgewählter Ab­schnitte eine größere Erwärmung oder eine größere Abkühlung erhalten,
·      durch Löschen von Daten unterbrochen werden, um „passende“ Übergänge zu verstecken.
Zum Schluss bleibt die Frage „Warum werden Dokumente verändert“?  Dem Autor bleibt als Ant­wort nur eine Vermutung: Nach dem offiziellen Klimapos­tu­lat soll die Erwärmung durch die anthropogenen CO2-Emissi­onen verursacht werden. Die wirkliche Temperaturent­wick­lung wider­legt dieses Annahme: Im 20. Jh. gab es zwei Warmphasen. Die erste zwischen 1920 und 1950 war die deutlich stärkere, kann aber nicht durch die CO2-Emissionen verur­sacht worden sein, denn die begannen erst nach 1950 (siehe Abb. 20 und 21 in [1]),. Die zweite Warmphase zwischen 1980 und 1995 war erheblich schwächer. Indem man nun mit den Änderungen die erste Warmphase ab­schwächt und die zweite Warmphase verstärkt, ver­rin­gert man den Gegensatz zwischen der vorge­täuschten Temperaturentwicklung und dem offiziellen Kli­mapostulat. Vermutlich hat man die praktische Bedeutung dieses Gegensatzes nicht früh genug realisiert und versucht nun, ihn mit den Änderungen zu verschleiern. Es er­schien wohl unwahrscheinlich, dass dies entdeckt wer­den könnte, denn dies setzte voraus, dass je­mand die 2010-Daten archiviert hatte und zwei Jahre später auch noch den Gegensatz zu den 2012-Daten erkannte. Warum werden dann aber immer noch Verände­rungen vorge­nommen? Vielleicht soll ein automatisches Programm auch dafür sorgen, das die von NASA-GISS angebotenen Daten im Falle abweichender Messwerte immer die gewünschte Er­wär­mung anzeigen.

Nachtrag 

                                                                         :  http://data.giss.nasa.gov/gistemp/updates_v3/   bzw.  http://data.giss.nasa.gov/gistemp                               
Am 15. und 16.2. publizierte NASA-GISS die mit den Links erreichbaren Berichte. Sie sollen begründen  dass, wann, wie und warum Änderungen, Löschungen und Homogenisierungen vorgenommen wurden – bzw. werden. Vielleicht ist man durch den Beitrag von Christopher Booker im The Telegraph (07.02.2015) aufmerksam geworden und liefert jetzt Erklärungen nach. EIKE übernahm den Beitrag in deutscher Übersetzung am 12.2.
Aber:  Alle ‚Begrün­dungen’ entschuldigen nicht, warum alte, jahrzehntelange Datenreihen eliminiert oder geän­dert wurden, ja, dass sogar Abkühlungen in Erwärmungen  umfunktioniert worden sind. Wären tatsächlich nur ‚Homogenisierungen’ beabsichtigt, müssten sich Erwärmungen und Abküh­lungen ungefähr ausgleichen. Das Gegenteil ist der Fall – siehe oben.  In der Eile wird über­sehen, dass solche Erklärungen  eine Bankrott-Erklärung für das Mess-System und die Ver­waltung der Daten  sind. 
 Als Anlagen beigefügt:
[1]   Ewert F-K: „NASA-GISS ändern rückwirkend Temperaturdaten – warum ?“.  Mitteilun­gen der Wilhelm-Ostwald-Gesellschaft, 19 Jg., 2014, Heft 2,  S, 10-41, 17 Abb.,  7, Tab.  2 Ta­feln. 
[2]  zitiert in [1] als Anlage 2: „Vergleich Temperaturganglinien aller 120 Beispiele nach der Art ihrer Veränderungen klassifiziert in Gruppen“

Related Files




Das Rätsel der Eiszeiten: Teil XV – Roe vs. Huybers

February 2, 2014 by scienceofdoom

Einige Leser haben nach der faszinierenden Studie von Gerard Roe 2006 gefragt, die als Verteidigung von Milankovitch gelten kann.

Die Studie von Roe scheint eine exzellente Übereinstimmung zwischen der Änderungsrate des Eisvolumens und der Einstrahlung bei 65° im Juni zu zeigen. Eine Zeitlang war ich durch die Studie verwirrt, denn falls dieser Wert der Einstrahlung wirklich erfolgreich Änderungen des Eisvolumens vorhersagen kann, wäre der Fall erledigt gewesen. Außer wir strampeln uns ab, glaziale Terminationen mit der Einstrahlung in Übereinstimmung zu bringen (siehe frühere Beiträge, die Teile XIII, XII und XI – Ende der letzten Eiszeit). Und wir sollten auch erwarten, eine Periode von 100.000 Jahren im Einstrahlungsspektrum bei 65°N zu finden. Das ist aber nicht der Fall. Um Roe gerecht zu werden – er stellt fest: Die Milankovitch-Hypothese, so wie sie hier formuliert ist, erklärt nicht die starken rapiden Deglaziationen, zu denen es am Ende einiger Eiszeit-Zyklen gekommen war. Um genau zu sein: Niemand scheint in Frage zu stellen, dass das Wachstum und das Schrumpfen von Eisschilden zumindest zu einem geringen Teil den Zyklen von 40.000 Jahren (Schiefe) und 20.000 Jahren (Präzession) folgen. Was genau also versucht die Studie als neu zu zeigen? Das fehlende Steinchen dieses Puzzles ist die Frage, warum Eiszeiten beginnen und enden. Auf der Haben-Seite führt Roe aus: Überraschenderweise verbleibt die Milankovitch-Hypothese nicht klar definiert.

Das ist genau der gleiche Punkt, den ich in Teil VI angesprochen habe: “Teil VI-Hypotheses Abound”. Einer der Gründe, warum ich einige Zeit damit zugebracht habe, Datensätze zu sammeln und zu verstehen, – siehe Teil XIV, Concepts & HD Data – ist diese Art von Problemen. Roes Abbildung 2 geht über eine halbe Seite, deckt aber 800.000 Jahre ab. Mit den eingezeichneten dicken Linien kann ich eigentlich nicht sagen, ob es eine Übereinstimmung gibt, und da ich über reale Statistik kein Fachmann bin, möchte ich lieber die Daten sehen als lediglich eine Korrelation zu akzeptieren.

Es ist nicht sehr sinnvoll, SPECMAP (oder LR4) mit der Einstrahlung zu vergleichen, weil beide Datensätze auf die Einstrahlung im Sommer bei 65°N „getrimmt“ sind. Falls wir das als Erfolg ansehen, akzeptieren wir, dass die Erzeuger des Datensatzes in ihrem Vorhaben kompetent vorgegangen sind. Falls wir keinen Erfolg finden, müssten wir ihnen ungern diese schlechte Nachrichten mitteilen.

Glücklicherweise haben wir einen interessanten Datensatz von Peter Huybers (2007). Dies ist eine Aktualisierung von HW04 (Huybers & Wunsch 2004), die einen Proxy für das globale Eisvolumen aus Tiefsee-Bohrkernen ohne „orbitales Tuning“ erstellt haben. Er basiert auf einem autokorrelierten Sedimentations-Modell und setzt voraus, dass Schlüssel-Wendepunkte aus vielen verschiedenen Bohrkernen alle zur gleichen Zeit stattfanden sowie ein grundlegendes, datierbares Ereignis vor etwa 800.000 Jahren, das sich in den meisten Bohrkernen zeigt.

Einige Leser fragen sich nun: Warum benutzt man nicht die Eisbohrkerne, von denen hier schon die Rede war? Gute Frage. Das Sauerstoffisotop (δ18O) oder Deuteriumisotop (δD) in dem Eisbohrkern ist mehr eine Maßzahl der lokalen Temperatur als irgend etwas anderes (und die Analyse ist außerdem kompliziert) Die Eisbohrkerne aus Grönland und der Antarktis bieten viele nützliche Daten, aber leider nicht die des globalen Eisvolumens. Dafür müssen wir das in den Tiefsee-Sedimenten gespeicherte δ18O heranziehen. Das δ18O in den Tiefsee-Bohrkernen scheint in erster Ordnung eine Maßzahl der Wassermenge zu sein, die in globalen Eisschilden gebunden ist. Allerdings gibt es keinen einfachen Weg, die Ozean-Sedimente  objektiv zu datieren, so dass einige Annahmen gemacht werden müssen. Glücklicherweise hat Roe seine Theorie mit zwei Datensätzen verglichen, dem berühmten SPECMAP (Warnung: orbitales Tuning wurde bei der Erstellung dieses Datensatzes benutzt) und HW04:


Bildinschrift: Abbildung 2: Wie Abbildung 1, aber hier der Vergleich der Einstrahlungs-Anomalie im Juni bei 65° mit der zeitlichen Änderungsrate des globalen Eisvolumens (dV/dt). Die SPECIMAP-Aufzeichnung hat keine Verzögerung, die HW04-Aufzeichnung nur eine von 1000 Jahren. Damit soll die maximale Kreuz-Korrelation mit der Zeitreihe der Einstrahlung von jeweils -0,8 und 0,4 gezeigt werden. Autokorrelations-Schätzungen zeigen, dass die SPECIMAP- und HW04-Zeitreihen von dV/dt jeweils 106 bzw. 123 Freiheisgrade aufweisen (Anm. der EIKE-Redaktion: wir wissen nicht, was mit diesen Freiheitsgraden gemeint ist). Daher sind die Korrelationen in beiden Fällen signifikant deutlich über dem 99%-Niveau. Falls die HW04-Aufzeichnung genauso wie SPECIMAP geglättet wird (mittels eines neun-Punkte-Gauss-Filters (Imbrie et al. 1984)), nimmt die maximale Kreuz-Korrelation nicht zu. Einheiten wie in Abbildung 1.

Abbildung 1

Ich habe den aktualisierten Datensatz Huybers 2007 heruntergeladen. Er liegt in 1000-Jahres-Intervallen vor. Ich habe die Einstrahlung auf allen Breiten und für alle Tage der letzten 500.000 Jahre mittels des MATLAB-Programms von Jonathan Levine berechnet. Auch diese liegt somit in 1000-Jahres-Intervallen vor. Ich habe die Werte bei 65°N und vom 21. Juni benutzt (Tag 172-dank Climater). Ich habe dann die Änderung des Eisvolumens in einer sehr einfachen Weise berechnet – Wert bei t +1 minus Wert bei t), dividiert durch die Zeitänderung. Den daraus resultierenden Datensatz habe ich mit der gleichen Bandbreite skaliert wie die Einstrahlungs-Anomalien, so dass sich alles leicht plotten lässt. Und ich plottete die Einstrahlungs-Anomalie = mittlere (Einstrahlung) minus Einstrahlung:


Abbildung 2 – Click to Expand (nur im Originalaufsatz möglich)

Die beiden Datensätze sehen während der letzten 500.000 Jahre sehr ähnlich aus. Ich vermute, dass irgendwelche kleineren Änderungen, z. B. um 370.000 Jahre, der Aktualisierung der Datensätze geschuldet sind. Man beachte, dass die Einstrahlungs-Anomalie effektiv invertiert ist, um die Trends augenscheinlicher zu machen – hohe Einstrahlung sollte zu einer negativen Änderung des Eisvolumens führen und umgekehrt.

 


Abbildung 3 – Click to Expand  (nur im Originalaufsatz möglich)

Ich habe die Pearson-Korrelation zwischen den beiden Datensätzen berechnet und nur 0,08 erhalten. Das ist extrem wenig. Es sagt uns lediglich, was wir durch Betrachten des Graphen erkennen können – die beiden Schlüsselwerte sind anfangs in Phase, laufen dann auseinander und sind am Ende erneut in Phase. Im Detail

Correlation between 0-100 kyrs:   0.66 (groß)
Correlation between 101-200 kyrs:  0.51 (groß)
Correlation between 201-300 kyrs:  -0.72 (Anti-Korrelation)
Correlation between 301-400 kyrs  -0.27 (Anti-Korrelation)
Correlation between 401-500 kyrs:  0.18 (so ungefähr)

Ich habe auch eine Spearman rank correlation durchgeführt. (Sie korreliert die Rangfolge der beiden Datensätze, um sie widerstandsfähig gegen Ausreißer zu machen) = 0,09, und nur weil ich konnte, auch eine Kendall correlation = 0,07. Ich bin ein Amateur in Sachen Statistik, so dass ein Vergleich von Datensätzen außer durch Betrachten derselben nicht mein Ding ist. Vielleicht liegt irgendwo auch ein Anfänger-Fehler vor.

Dann untersuchte ich Kreuz-Korrelationen. Physikalischer Hintergrund ist, dass die Konzentration von  18O in der Tiefsee mindestens einige tausend Jahre braucht, um auf Änderungen des Eisvolumens zu reagieren, einfach wegen der langsamen Zirkulation der großen Meeresströme. Die Ergebnisse zeigen, dass es eine bessere Korrelation mit einer Verzögerung von 35.000 Jahren gibt, doch gibt es hierfür keine physikalische Begründung. Es ist möglicherweise lediglich eine bessere Anpassung eines Datensatzes mit einer offenbar langsamen Phasenverschiebung während des Aufzeichnungs-Zeitraumes. Bei einer bedeutsamen großen Meeresströmungs-Verzögerung von einigen tausend Jahren ist die Korrelation schlechter (anti-korreliert):

 


Abbildung 4

Auf der Plus-Seite sehen (nächste Abbildung) die ersten 200.000 Jahre ziemlich eindrucksvoll aus einschließlich Terminationen:


Figure 5


Abbildung 6

Das erstaunte mich. Was erkennen wir aus den Daten der ersten 200.000 Jahre (Abbildung 6)? Nun, die letzten beiden Terminationen (siehe die letzten beiden Beiträge) sind leicht zu identifizieren, weil die Änderungsrate des Eisvolumens im Verhältnis zu Einstrahlung etwa vier mal so groß ist, wenn keine Termination stattfindet.

Schiebt man das kleine Problem beiseite, dass die Südhemisphäre bei der letzten Deglaziation (Part Eleven – End of the Last Ice age) führend war, geht hier etwas Interessantes vor. Fast wie bei einer Theorie, bei der lediglich ein leicht zu identifizierender Link fehlt; ein kleines Teil eines Puzzles, das lediglich noch eingepasst werden muss – und die Nature-Studie wartet.

Schauen wir auf einige Details. Es scheint, dass T-II, falls markiert durch die verschiedenen radiometrischen Werte, die wir in Part Thirteen – Terminator II gesehen haben, die Ursache wäre für das Aus-Der-Phase-Laufen der 100k – 200k-Werte (der große schwarze Dip bei 125.000 Jahren würde sich um 15.000 Jahre nach links bewegen). Also ist meine nächste Objektive (siehe Sixteen – Roe vs Huybers II ) das Setzen einer Zeitmarkierung für Termination II aus den radiometrischen Datierungswerten und dann den Datensatz von Huybers 2007 dahin zu „verschieben“ und der jüngsten T1-Datierung. Auch müssen die Eisbohrkern-Proxys aus den Tiefsee-Bohrkernen realen Änderungen des Eisvolumens hinterherlaufen mit einer Periode von, sagen wir, 1000 bis 3000 Jahren (siehe Anmerkung 1). Das stützt die Roe-Hypothese, weil sich die schwarze Kurve nach links bewegt. Schauen wir, was nach diesen Änderungen passiert. Und hoffentlich werden scharfsichtige Leser Gelegenheiten für Verbesserungen in diesem Artikel ausmachen und auch das fehlende Puzzle-Teilchen finden, das dann zu der begehrten Nature-Studie führt.

 

References

In defense of Milankovitch, Gerard Roe, Geophysical Research Letters (2006) – free paper

Glacial variability over the last two million years: an extended depth-derived agemodel, continuous obliquity pacing, and the Pleistocene progression, Peter Huybers, Quaternary Science Reviews (2007) – free paper

How long to oceanic tracer and proxy equilibrium?, C Wunsch & P Heimbach, Quaternary Science Reviews (2008) – free paper

Datasets for Huybers 2007 are here:
ftp://ftp.ncdc.noaa.gov/pub/data/paleo/contributions_by_author/huybers2006/
and
http://www.people.fas.harvard.edu/~phuybers/Progression/

Insolation data calculated from Jonathan Levine’s MATLAB program (just ask for this data in Excel or MATLAB format)

Notes (im Original belassen)

Note 1: See, for example, Wunsch & Heimbach 2008:

The various time scales for distribution of tracers and proxies in the global ocean are critical to the interpretation of data from deep- sea cores. To obtain some basic physical insight into their behavior, a global ocean circulation model, forced to least-square consistency with modern data, is used to find lower bounds for the time taken by surface-injected passive tracers to reach equilibrium. Depending upon the geographical scope of the injection, major gradients exist, laterally, between the abyssal North Atlantic and North Pacific, and vertically over much of the ocean, persisting for periods longer than 2000 years and with magnitudes bearing little or no relation to radiocarbon ages. The relative vigor of the North Atlantic convective process means that tracer events originating far from that location at the sea surface will tend to display abyssal signatures there first, possibly leading to misinterpretation of the event location. Ice volume (glacio-eustatic) corrections to deep-sea d18O values, involving fresh water addition or subtraction, regionally at the sea surface, cannot be assumed to be close to instantaneous in the global ocean, and must be determined quantitatively by modelling the flow and by including numerous more complex dynamical interactions.

Link: http://scienceofdoom.com/2014/02/02/ghosts-of-climates-past-fifteen-roe-vs-huybers/

Teil I und II: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-i-und-ii/

Teil III: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iii-hays-imbrie-shackleton/

Teil IV: http://www.eike-klima-energie.eu/climategate-anzeige/das-raetsel-der-eiszeiten-teil-iv-umlaufbahnen-jahreszeiten-und-mehr/

Teil V: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-v-aenderungen-der-ekliptik-und-der-praezession/

Teil VI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-vi-hypothesen-im-ueberfluss/

Teil VII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-7-global-circulation-models-i/

Teil VIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-8-global-circulation-models-ii/

Teil IX: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-9-global-circulation-models-iii/

Teil X: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-10-global-circulation-models-iv/

Teil XI: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xi-das-ende-der-letzten-eiszeit/

Teil XII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-teil-xii-gcm-v-wie-enden-eiszeiten/

Teil XIII: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiii-terminator-ii/

Teil XV: http://www.eike-klima-energie.eu/klima-anzeige/das-raetsel-der-eiszeiten-xiv-konzepte-und-daten/




Einladung zum Essener Klimagespräch

Da es bei diesem rechtlich bindenden Abkommen in erster Linie um die Reduzierung von CO2 Emissionen gehen wird, ist es zwingend die Grundlagen dieses Abkommens kritisch zu hinterfragen. Denn entgegen der Aussagen von Klimaschützern, stellt die Forschung zum CO2 Anstiegs während des 20. Jahrhunderts die These vom menschengemachten Klimawandel in Frage. 
Neue Untersuchungen von Prof. Murry Salby benutzen Klimaänderungen und atmosphärische Spurengase um den CO2 Kreislauf zu klären, welcher die Änderungen des CO2 Gehalts der Atmosphäre bestimmt. Seine Untersuchungen erhellen die Hauptmechanismen für die Änderungen, speziell für den Anstieg während des 20. Jahrhunderts.               
Die Analyse ergibt eine obere Grenze für die Emissionen aus der Verbrennung fossiler Brennstoffe. Obwohl feststellbar, ist dieser menschliche Beitrag gering. Entsprechend gering ist der menschliche Einfluss auf das Klima. Der Hauptanstieg des atmosphärischen CO2 rührt von natürlichen Quellen her. Auf diesen hat der Mensch keinen Einfluss. Eine unabhängige Untersuchung bestätigt das Verhältnis von natürlicher zu menschlich verursachter Emission.
Prof. Carl-Otto Weiss zeigt in seinem Vortrag, dass Spektralanalyse und Rekonstruktion historischer Temperaturen aus Proxy-Temperaturdaten der letzten 2500 Jahre nur periodische Komponenten zeigen. Das schließt insbesondere einen wesentlichen Einfluss des (nichtperiodischen) CO2 Anstiegs in der Atmosphäre seit Beginn der Industrialisierung aus.                
Prof. Weiss belegt auch, wie die Temperatur der letzten 300 Jahre von nur 2 Zyklen bestimmt wird. Langfristig dominierend ist der ~200 Jahre Zyklus als der bekannte De Vries Zyklus der Sonnenaktivität. Diesem überlagert ist die bekannte, kurzfristigere irdische AMO/PDO- Oszillation mit ~65 Jahren Periode.  Der zyklische Charakter des Klimas erlaubt als Voraussage Abkühlung bis ca. 2080

Programm

Freitag – 13. März 2015

17.45 Uhr Registrierung
18.30 Uhr  Begrüßung 
                 Dr. Holger Thuß
Präsident, Europäisches Institut für Klima und Energie (EIKE)

18:35 Uhr Stopp für die Energiewende!

Kann die De-Industrialisierung noch verhindert werden?
Prof. Dr.-Ing. Dieter Ameling früher Präsident der Wirtschaftsvereinigung Stahl und Vorsitzender des Stahlinstituts VDEh, Düsseldorf

18.50 Uhr  Neue Forschungsergebnisse zum Ursprung atmosphärischen CO2        

Prof. Dr. Murry Salby
bis 2013 Inhaber des Lehrstuhls für Klimaforschung an der Macquarie Universität von Sydney und vorher Professor an der University of Colorado, Boulder     

Der Vortrag wird simultan übersetzt auch die anschließende Diskussion

anschließend Fragen und Diskussion

20.00 Uhr  Die bestimmenden Faktoren der Erdtemperatur

Prof. Dr. Carl-Otto Weiss
EIKE Fachbeirat und ehem. Direktor und Professor an der Physikalisch-Technischen Bundesanstalt Braunschweig                
anschließend Fragen und Diskussion

21.00 Uhr  Empfang – Es werden Fingerfood und Getränke serviert

Über die Referenten
Kartendaten © 2015 GeoBasis-DE/BKG (©2009), Google

Veranstaltungsort 

Haus der Technik Hollestraße 1,
45127 Essen
genau gegenüber dem Hauptbahnhof
Das Haus der Technik bietet einen Service für Hotelreservierung und andere Dientleistungen an, siehe pdf Anhänge


Eine Online Anmeldung können Sie hier vornehmen. Anmeldeformulare für Fax und Postanmeldung sowie das Programm selbst finden Sie als pdf im Anhang. In Kürze wird auch die Onlineanmeldung freigeschaltet.
Anmeldung
Mit vollem Namen, Anschrift und Institution formlos per Internet hier, Email, Brief oder Fax an EIKE e.V.
Email: info@eike-klima-energie.eu
Fax: 03641 – 3279 8589    
Brief: EIKE Registrierung, Postfach 110111, 07722 Jena
Tagungsgebühren
                                                                                          
Privatpersonen   20 €
Firmenvertreter 50 €
Zahlung an: EIKE e.V., Volksbank Saaletal Rudolstadt Konto Nr.: 42 42 92 01, BLZ: 830 944 54
IBAN: DE34 8309 4454 0042 4292 01      BIC: GENODEF1RUJ   oder via PayPal auf der EIKE Website
Spenden an das Europäisches Institut für Klima und Energie (EIKE) sind steuerbegünstigt.
Spenden für EIKE bitte auf das oben angegebene Konto oder via PayPal auf der EIKE Website.

Related Files




Hubert Lamb, ein Bericht über sein Leben und Wirken, und was man daraus über den Stand der heutigen Klimaforschung lernt

Das CRU, gegründet zur Untersuchung von historischen Aufzeichnungen und Messungen, mit der Hoffnung, hierin regelmäßige Muster zu finden, die Voraussagen ermöglichen würden, änderte aber seine Forschungsrichtung unter seinen Nachfolgern. Die Arbeiten konzentrieren sich bis heute auf  den Versuch, den angeblichen Einfluss von CO2 auf das Erdklima nachzuweisen. Diese Änderung der Forschungsrichtung ist nachvollziehbar. Während unter Lamb die Finanzierung der Einrichtung auf Dauer problematisch war, ergab sich mit dem Schwenk eine stabile komfortable Finanzsituation. Das CRU wurde als eine von zwei Zentralstellen ausersehen, welche  die weltweiten Klimadaten sammeln und zur Verfügung stellen ( Die andere Zentralstelle ist das GISS ).  Diese beiden liefern auch dem IPCC ( Klimarat ) die Daten. Negative Schlagzeilen ergaben sich für das CRU 2009 als nach Aufdeckung des Emailverkehrs des Institutes das ganze Maß an Datenfälschungen, Zensur und Kontrolle der wissenschaftlichen Zeitschriften des Faches, sowie die Absprachen der Fälschungen unter den relevanten Instituten öffentlich wurde.
Der Bericht über Lamb’s Wirken ist wesentlich eine Beleuchtung der allgemeinen Entwicklung der Klimatologie nach 1950 bis zum Tode Lamb’s. Er gibt einen interessanten Einblick in die innere Entwicklung des Gebiets und die jeweils vorherrschenden Vorstellungen und Paradigmata. Historisch stellte sich die Haupttätigkeit der Klimatologie als möglichst breite Sammlung von weltweiten Klimadaten dar. Die Wissenschaft blieb dabei aber weitgehend deskriptiv, zum Ziel einer Vorhersage auf der Basis verlässlicher historischer Messungen und Daten gab es kaum Fortschritte
Mit dem Aufkommen der Informationstechnik löste sich die Arbeit mehr und mehr von realen Messungen.  Es bildete sich die Vorstellung, mittels großer Rechenleistung ließe sich die Gesamtheit der Klimavorgänge abbilden, und das Klima sich sozusagen „ab initio“ berechnen und voraussagen, auch ohne Bezug zu Messdaten. Diese Vorstellung gewann in naiver Fehleinschätzung von Computerleistungen viele Anhänger,  so dass die Untersuchung von historischen Klimadaten verdrängt wurde.
 Warnen hätte sollen das historische Beispiel von Laplace. Dieser vertrat ja die Vorstellung, das gesamte Universum lasse sich, zumindest prinzipiell, mittels ausreichend hoher Rechenleistung in seiner gesamten Entwicklung berechnen ( die Einsicht „chaotischen“ ( d.h. zufallsgesteuerten ) Verhaltens vieler Systeme widerlegte ihn dann bekanntlich ) . Auch die ähnlichen Modellrechnungen des Club of Rome, die sich als kompletter Reinfall erwiesen, hätten nachdenklich stimmen sollen.
In der Folge wurde und wird der aussichtslose Versuch unternommen, durch immer größere Systeme von Differentialgleichungen das gesamte Klimageschehen von Atmosphäre, Ozeanen und Kontinenten zu simulieren. Die Ergebnisse der Versuche werden  mit Hilfe einflussreicher Gruppen / 1 / als zuverlässige Voraussage verkauft ,  aus geopolitischen Gründen mit ihr zerstörerische planwirtschaftliche Maßnahmen begründet, und die Öffentlichkeit auf den Transfer von 10000 ( in Worten:  zehntausend )  Milliarden Euro zu diesen Gruppen eingestimmt.
 Das Grundparadigma dieser Versuche ist die Vorstellung eines an sich konstanten Weltklimas, welches nur durch Zufallsereignisse, etwa Vulkanismus oder eben menschliche CO2 Emission „gestört“ wird. In Wirklichkeit hat das Klimasystem Eigendynamik, bewirkt  durch den Energieeintrag seitens der Sonne.
 Dies Paradigma wird offiziell vom IPCC als Tatsache verkündet: „Alle natürlichen Einflüsse sind kleine Störungen, die gegen den menschlichen Einfluss vernachlässigbar sind.“
Die Misserfolge dieser Aktivitäten offenbaren sich täglich in immer neuen Befunden, dass die Modellrechnungen in keiner Weise mit den Messungen übereinstimmen oder je übereingestimmt haben.
Als Physiker stockt einem der Atem ob dieses aberwitzigen Vorhabens und der Naivität, das ganze Klimageschehen der Welt in allen Einzelheiten modellieren zu wollen. Man weiß doch dass nur Modelle von bis zu 3, 4  partiellen Differentialgleichungen vernünftiges mathematisches Verhalten zeigen. Darüber hinaus sind sie gewöhnlich „chaotisch“, d.h. bei jedem Wiederholen der Rechnung bekommt man ein anderes Ergebnis.  Wie sollen dann wohl  Klimamodelle mit vielen tausend gekoppelten Differentialgleichungen verlässliche Ergebnisse liefern?
 Dies von allen guten Geistern verlassene, naive Unterfangen sowie auch die völlig blauäugigen Parametrisierungen nicht verstandener Prozesse erschienen mir zunächst als Propaganda: die Öffentlichkeit sollte mittels riesiger Gleichungssysteme sowie mit „Klima-Supercomputern“ beeindruckt werden und die Ergebnisse dadurch glaubwürdig erscheinen.
 Nach dem Bericht über Lamb’s Leben und Wirken erscheint der Sachverhalt aber auch anders. Die Klimatologie ist eben unterteilt in den datensammelnden Teil, der aus den beschriebenen Gründen deskriptiv geblieben ist, und dem jetzt völlig dominierenden ( von jungen Wissenschaftlern sicher auch als lieber bearbeiteten ) Bereich der Computermodelle, in welchem, offenbar mit Grundprinzipien der Physik und der Mathematik Unvertraute, ihren Computerspielereien nachgehen.
Kurz, der Stand ist, dass offenbar die Klimaforschung mit ihren Methoden und Einsichten derzeit weit entfernt davon ist, eine exakte Naturwissenschaft zu sein, welche verlässliche Voraussagen machen kann.
Es würde hilfreich sein, wenn sich dieses Bereichs, mit Modellierung erfahrene Wissenschaftler, annehmen würden. Daneben ist die Arbeit mit verlässlichen Daten statt luftiger „Computermodelle“ heute sicher ergiebiger als noch zu Lamb’s Zeiten.
 /1/  United States Senate Committee on Environment and Public Works Report:
“The Chain of Environmental Command: How a Club of Billionaires and their  Foundations Control the Environmental Movement and Obama’s EPA“
 30. Juli 2014
Prof. Dr. Carl-Otto Weiß ist Physiker mit dem Schwerpunkt Spektralphysik, Autor vieler Fachartikel auch zum Klima und pensionierter Abteilungsdirektor der PTB in Braunschweig