Englischer Europa-Abgeordneter spricht Klartext

Was in der EU geschieht – in England und Schottland noch schlimmer wegen zusätzlicher Kosten.

Die De-Industrialisierung Europas

von Roger Helmer

Wir könnten auch in den Flughäfen ein Schild aufhängen: „Wegen Geschäftsaufgabe geschlossen“.

 

Der Schuldige: EU-Umwelt-Kommissar Janez Potocnik.

Während die führenden europäischen Politiker über den Vorrang für Wachstum und Arbeitsplätze schwafeln, haben wir eine Klimarettungspolitik, die die Energiekosten massiv erhöht und ganze Industrien, Firmen, Arbeitsplätze und Investitionen aus der EU hinausteibt. Im Namen des Umweltschutzes zwingen wir sie ins Ausland, in Rechtsräume mit geringeren Umweltstandards.

Das betrifft ein ganzes Spektrum von energieintensiven Industrien: Metall, Stahl und Aluminium, Zement, Chemie, Glas, Papier und Holz. Wir sprechen von einer „Neuausrichtung der Wirtschaft in der Produktion“ und mit dem nächsten Atemzug schlagen wir „einen Basispreis für Kohlenstoff“ vor. Dann wundern wir uns, warum die Industrie im Abendrot verschwindet.

Ich habe jahrelang darüber geschrieben, aber so richtig deutlich wurde es mir gestern abend bei EUROFER anläßlich einer Abendveranstaltung in Brüssel. EUROFER ist der europäische Verband der Stahlproduzenten. Normalerweise folgen auf die Reden/Informationen/Darstellungen bei derartigen Veranstaltungen rege Diskussionen und Zwischenfragen aus dem Auditorium.  Diesmal wandte sich die Aufmerksamkeit nach den paar Ansprachen dem Abendessen zu, keine Debatte mehr. Meine sorgfältig vorbereitete Frage blieb ungefragt, deshalb möchte ich sie nun hier stellen.:

„Herr Vorsitzender, der Sprecher der Kommission hat richtigerweise gesagt, dass es die EU derzeit mit einer Wachstumskrise zu tun hat, niedriger Produktivität und Wettbewerbsfähigkeit, dazu hoher Arbeitslosigkeit. Und dies am Ende des Jahrzehnts des Lissabon-Prozesses, wo mit Überheblichkeit gehofft worden war, in Europa die ‚wettbewerbsfähigste wissensbasierte Wirtschaft der Welt zu schaffen‘. Bedeutet dieses massive Versagen nicht, dass da etwas grundlegend falsch ist im EU-Modell der ökonomischen Integration, ganz so, wie die derzeitige EURO-Krise bedeutet, dass da etwas grundlegend daneben geht in der Architektur der Einheitswährung?

Stimmt es ewa nicht, dass unsere Klimaschutzpolitik die Kosten erhöht und energieintensive Industrien wie die Stahlindustrie aus Europa vertreibt?“

Es bedurfte doch nur einer übertriebenen Regulierung und Besteuerung, um die EU zu einer unattraktiven Geschäftsregion zu machen. Zusätzlich haben in der jetzigen Rezession die westlichen Wirtschaften noch einen Klotz am Bein namens „SCHULDEN”. Und bei diesem dreifachem Pech haben wir in der EU uns vorsätzlich und freiwillig einen neuen Klotz ans andere Bein gebunden: Der heißt ‚Führungsrolle im Kampf gegen den Klimawandel'“.

Über „Führungsrollen“ wird in der EU sehr gerne gesprochen, in der Klimapolitik und wo sonst auch immer. Man merkt leider nicht, dass niemand sonst mitmacht. Der Klima-Alarmismus findet in der übrigen Welt keine Sympathie. Obama hat den Zertifikatehandel über Bord geworfen – und seine Kritiker von den Linksgrünen beschuldigen ihn, das Interesse an der Umwelt gänzlich verloren zu haben.
Wir hören, dass China in der Entwicklung Grüner Technologie führend wäre, aber dennoch bauen die Chinesen wöchentlich ein neues Kohlekraftwerk, während ihre Solarplatinen-Fabriken wegen Nachfragemangel pleite gehen.

Es bringt keinen Vorteil, der erste Lemming zu sein, der über die Klippe stürzt, aber das ist genau die Position, in der sich die EU befindet.

Ich sprach von „Rechtsräumen mit geringeren Umweltstandards“. Gestern abend wurde das mit einer Zahl belegt. Ein höherer EUROFER-Offizieller sagte mir, dass in Europa die Produktion einer Tonne Stahl mit ein-einhalb Tonnen CO2-Emissionen verbunden ist. Die Herstellung der gleichen Tonne Stahl in China setzt vier Tonnen CO2 frei. Mehr als das Doppelte.

Halten wir uns ganz klar vor Augen: Wir haben eine Politik, die Wachstum, Arbeitsplätze, Investitionen und Wohlstand zerstört und gleichzeitig möglicherweise die Emissionen verdoppelt. Das ist, wie so vieles in der EU, eine Politik, bei der man nur verlieren kann.

Ich habe oft erlebt, dass einzelne Sprecher ihre privaten Zweifel aussprechen, während Organisationen und Firmen ständig Kniefälle vor der herrschenden Klima-Lehre machen. Das war gestern Abend nicht anders. Die konventionelle Sicht wird aber allmählich von innen ausgehöhlt: die Skeptiker sind auf dem Wege, die Hirne und Herzen zu gewinnen.

Mein EUROFER-Gesprächspartner (dessen Namen ich aus verständlichen Gründen nicht nenne) sagte: „Wir bei EUROFER sind zum Kampf gegen den Klimawandel verpflichtet. Aber ich persönlich halte das für Unfug“.

Da haben wir es. Wir de-industrialisieren Europa im Namen des Klimawandels, einer bizarren, kollektiven Wahnidee, die so wieder vergehen wird, wie sie sich verbreitet hat.

Dieser Artikel erschien zuerst auf ConservativeHome und bei Roger Helmer.

Übersetzung: Helmut Jäger, EIKE




Pflichtlektüre für Kandidaten

Anthony Watts, Betreiber von WATTSUPWITHTHAT, schreibt:

Wieder einmal etwas Aufsehen Erregendes! Sechzehn Wissenschaftler, darunter Richard Lindzen, William Kininmonth, Wil Happer, Nir Shaviv, dazu der Ingenieur Burt Rutan, der Apollo-17-Astronaut Dr. Harrison Schmidt, haben ans Wall Street Journal einen geradezu häretischen Aufsatz geschrieben mit dem Thema, dass der Klimawandel völlig übertrieben sei, dass die Erwärmung im letzten Jahrzehnt aufgehört hat, und dass nun im Schwarzer-Peter-Spiel auf der Suche nach der Erwärmung die Wettererereignisse herhalten müssen. Zusätzlich erhalten wir eine Lektion in Wissenschaftsgeschichte. Die Wissenschaftler verweisen auf den Lyssenkoismus und zeigen, was dieser mit dem heutigen Alarmismus wegen des Klimawandels zu tun hat.

 Die Wissenschaftler schreiben:

„Nur keine Panik wegen Klimawandel!“

Wer sich als Kandidat für ein öffentliches Amt in heutigen Demokratien bewirbt, muss sich eine Meinung zur Frage bilden, ob und was gegen den „Klimawandel“ zu unternehmen ist. Die Kandidaten sollten aber wissen, dass die stetig wiederholte Aufforderung von seiten nahezu aller Wissenschaftler, etwas Dramatisches gegen den Klimawandel zu tun, eine Unwahrheit birgt: Tatsächlich hält nämlich eine immer größere Zahl von herausragenden Wissenschaftlern und Ingenieuren ein drastisches Handeln gegen die Erwärmung für unnötig.

Im September hat der Physiker und Nobelpreisträger Ivar Giaever, während der letzten Wahl ein Anhänger von Präsident Obama, öffentlich seinen Austritt aus der American Physical Society (APS) erklärt mit einem Schreiben, das wie folgt beginnt:

„Ich habe [meine Mitgliedschaft] nicht erneuert, weil ich diese Aussage [zur Position der American Physical Society] überhaupt nicht teile:
‚Die Beweislage ist unumstößlich: Der Klimawandel ist im Gange. Ohne Abschwächungsmaßnahmen werden wahrscheinlich deutliche Einschnitte bei den physikalischen und ökologischen Systemen, den Sozialsystemen, der Sicherheit und der menschlichen Gesundheit erfolgen. Wir müssen sofort mit der Verminderung der Treibhausgasemissionen beginnen.‘

Trotz einer jahrzehntelangen internationalen Kampagne zur Verbreitung der Botschaft von der Zerstörung der Zivilisation durch den zunehmenden Anteil des „umweltverschmutzenden“ Kohlendioxids in der Atmosphäre, teilt eine große Zahl von Wissenschaftlern, darunter viele herausragende, die Ansichten von Dr. Giaever. Auch steigt die Zahl der wissenschaftlichen „Häretiker“ mit jedem Jahr. Der Grund liegt in der Ansammlung von harten wissenschaftlichen Fakten.

Die vielleicht unangenehmste Tatsache [für die Klima-Alarmisten] ist das Ausbleiben der globalen Erwärmung seit mehr als 10 Jahren. Die Erwärmungsapostel wissen das, wie man aus der 2009er „Climategate“-E-mail des Klimatologen Kevin Trenberth ersehen kann:

„Tatsache ist, dass wir das Ausbleiben der Erwärmung nicht erklären können und das ist schlimm.“

Aber das Ausbleiben einer Erwärmung hat nur Bedeutung, wenn man an Computermodelle glaubt, wo sogenannte Rückkopplungen von Wolken und Wasserdampf die geringe Auswirkung des CO2 ungemein verstärken.

Das Ausbleiben einer Erwärmung seit mehr als einem Jahrzehnt – in der Tat: geringer als vorhergesagt in den 22 Jahren, seit das UN-Intergovernmental Panel on Climate Change (IPCC) mit seinen Vorhersagen begonnen hat – legt nahe, dass die Computermodelle grob übertrieben haben, wie viel Erwärmung von zusätzlichem CO2 verursacht wird. Angesichts dieser Blamage haben die Alarmschläger ihr Feurio-Geschrei von der Erwärmung auf die Wetter-Extrema verlegt mit dem Ziel, alles außergewöhnliche Geschehen in unserem chaotischen Klima dem CO2 anzulasten.

Tatsächlich ist CO2 kein Umweltverschmutzer. CO2 ist ein farb- und geruchloses Gas, das in hoher Konzentration von jedermann ausgeatmet wird und eine Schlüsselkomponente im Lebenszyklus der Biosphäre ist. Pflanzen geht es mit mehr CO2 besser. Die Besitzer von Treibhäusern erhöhen häufig die CO2-Konzentration um den Faktor drei oder vier, um besseres Wachstum zu erzielen. Das ist keine Überraschung, denn Pflanzen und Tiere sind entstanden, als die CO2-Konzentration etwa 10 mal höher als heute war. Höhere Pflanzenvielfalt, Kunstdünger und Ackerbaumanagement haben zum hohen Anstieg der landwirtschaftlichen Erträge im vergangenen Jahrhundert beigetragen, aber ein Teil davon geht mit Sicherheit auch auf das Konto von zusätzlichem CO2 in der Atmosphäre.

 

Unser blauer Planet und seine am linken Rand erkennbare Atmosphäre

Die Zahl der öffentlich widersprechenden Wissenschaftler steigt. Auch Nachwuchswissenschaftler sagen heimlich, dass sie aus Angst vor Karriereknicks oder vor noch Schlimmerem ihre Meinung nicht laut sagen könnten, obwohl sie ernsthafte Zweifel an der Botschaft von der globalen Erwärmung hätten. Sie haben allen Grund dazu. Im Jahre 2003 wagte Dr. Chris de Freitas, Herausgeber des Journal Climate Research, die Veröffentlichung eines fachbegutachteten Artikels mit der politisch inkorrekten (aber faktisch richtigen) Schlussfolgerung, dass die jüngste Erwärmung nicht ungewöhnlich im Kontext der Klimaveränderungen während der vergangenen tausend Jahre gewesen wäre. Das internationale Erwärmungs-Establishment hat rasch eine entschiedene Kampagne losgetreten, um Dr. de Freitas von seinem Herausgeberjob und aus seiner Universitätsposition zu entfernen. Glücklicherweise konnte Dr. de Freitas seinen Universitätsjob behalten.

So darf es nicht weitergehen. So etwas hat es früher schon einmal gegeben, z. B. während der schrecklichen Zeit, als Trofim Lyssenko die Biologie in der Sowjetunion beherrschte. Sowjetische Biologen, die erkennen ließen, dass sie an Gene glaubten, die Lyssenko für eine bourgeoise Phantasie erklärte, wurden aus ihren Positionen entfernt. Viele kamen in den GULAG, einige wurden sogar zum Tode verurteilt.

Warum gehen die Leidenschaften um die globale Erwärmung so hoch, warum wurde diese Angelegenheit so quälend, dass sich die American Physical Society, von der sich Dr. Giaever vor einigen Monaten verabschiedet hat, weigerte, eine anscheinend so vernünftige Forderung der Mitglieder auf Entfernung des Wortes „unumstößlich“ aus ihrer wissenschaftlichen Positionsbeschreibung zu entfernen? Es gibt mehrere Gründe, ein guter Anfang ist die alte Frage „CUI BONO?„, oder in moderner Form: „Verfolge die Geldströme.“

Klima-Alarmismus birgt große Vorteile für Viele, er sichert Regierungsfinanzierung für wissenschaftliche Forschung und liefert einen Grund für Bürokratiewachstum. Alarmismus liefert den Regierungen auch Begründungen für Steuererhöhungen, für Zuschüsse auf Steuerzahlerkosten zu Geschäftsmodellen, die verstehen, das politische System für ihre Zwecke zu nutzen. Er verführt zu großen Spenden an wohltätige Stiftungen, die versprechen, die Welt zu retten. Lyssenko und seine Anhänger lebten sehr gut, und sie verteidigten ihr Dogma mit Klauen und Zähnen und die damit verbundenen Privilegien.

Allen Kandidaten für öffentliche Ämter möchten wir namens vieler Wissenschaftler und Ingenieure, die sich sorgfältig und unabhängig voneinander mit der Klimawissenschaft beschäftigt haben, diese Botschaft zurufen: Es gibt kein zwingendes wissenschaftliches Argument für drastische Handlungen zur „Dekarbonisierung“ der Weltwirtschaft. Selbst wenn man die aufgeblasenen Klimavorhersagen des IPCC akzeptieren würde, wäre eine aggressive Politik zur Steuerung der Treibhausgase wirtschaftlich nicht gerechtfertigt.

Eine kürzliche Studie des Yale-Wirtschaftsprofessors William Nordhaus zu einem breiten Fächer von Politik-Optionen zeigte, dass das nahezu höchste Nutzen/Kosten-Verhältnis durch eine Politik erzielt wird, die mehr als 50 Jahre ungehindertes Wachstum erlaubt, ohne Behinderungen durch Treibhausgasbegrenzungen. Eine derartige Politik wäre besonders günstig für die weniger entwickelte Welt, die gerne an den erreichten Vorteilen der voll entwickelten Welt beim materiellen Wohlstand, beim Gesundheitswesen und bei der Lebenserwartung teilhaben möchte. Viele andere politische Antworten führen zu negativen wirtschaftlichen Ergebnissen. Wahrscheinlich wäre mehr CO2 und eine damit verbundene geringe Erwärmung insgesamt eine Wohltat für die Erde.

Wenn die Amtsträger unbedingt “etwas wegen des Klimas zu unternehmen” möchten, empfehlen wir die ausgezeichneten Wissenschaftler zu fördern, die unser Verständnis vom Klima vertiefen, indem sie die gut entworfenen Mess-Instrumente an Bord von Satelliten, in den Weltmeeren und an Land benutzen und Beobachtungsdaten analysieren. Je besser wir das Klima verstehen, umso eher können wir mit seiner immerwährenden Veränderung umgehen, mit der sich der Mensch während seiner gesamten Geschichte plagen musste. Viele der riesigen privaten und regierungsseitigen Investitionen ins Klima bedürfen allerdings dringend einer kritischen Überprüfung.

Jeder Kandidat sollte vernünftige Maßnahmen zum Schutz und zur Verbesserung unserer Umwelt unterstützen, aber es ist völlig unsinnig, auf teure Programme zu setzen, die Ressourcen vom tatsächlichem Bedarf abziehen, und die auf alarmierenden aber unhaltbaren Behauptungen von “unumstößlichen” Beweisen beruhen.

Die Unterzeichner:
Claude Allegre, former director of the Institute for the Study of the Earth, University of Paris; J. Scott Armstrong, cofounder of the Journal of Forecasting and the International Journal of Forecasting; Jan Breslow, head of the Laboratory of Biochemical Genetics and Metabolism, Rockefeller University; Roger Cohen, fellow, American Physical Society; Edward David, member, National Academy of Engineering and National Academy of Sciences; William Happer, professor of physics, Princeton; Michael Kelly, professor of technology, University of Cambridge, U.K.; William Kininmonth, former head of climate research at the Australian Bureau of Meteorology; Richard Lindzen, professor of atmospheric sciences, MIT; James McGrath, professor of chemistry, Virginia Technical University; Rodney Nichols, former president and CEO of the New York Academy of Sciences; Burt Rutan, aerospace engineer, designer of Voyager and SpaceShipOne; Harrison H. Schmitt, Apollo 17 astronaut and former U.S. senator; Nir Shaviv, professor of astrophysics, Hebrew University, Jerusalem; Henk Tennekes, former director, Royal Dutch Meteorological Service; Antonio Zichichi, president of the World Federation of Scientists, Geneva.

Übersetzung: Helmut Jäger, EIKE
Hervorhebungen [fett] vom Übersetzer

Original hier




Klimawahn und Energiezukunft der Menschheit

Sinn und Sensitivität II

By Christopher Monckton of Brenchley
Joel Shore, der wie jeder gute Skeptiker meine Rechnungen zur Klimasensitivität anzweifelte, hat freundlicherweise auf meine Bitte hin eine Referenz zu einem Papier von Dr. Andrew Lacis et al. vom Goddard Institute of Space Studies (GISS) genannt, um seine Behauptung zu untermauern, dass der CO2-Anteil mit ungefähr 75% zum Strahlungsantrieb aller Treibhausgase beitrüge. Wasserdampf dagegen, wegen seiner hohen Konzentration in der Atmosphäre das wichtigste Treibhausgas, kondensiere rasch aus, während die nicht-kondensierenden Gase, wie  CO2, jahrelang in der Atmosphäre verblieben.
Dr. Lacis erläutert sein eigenes Papier: “Während die nicht-kondensierenden Treibhausgase mit 25% zum gesamten Treibhauseffekt beitragen, sind es die kondensierenden Treibhausgase, die tatsächlich die Stärke des irdischen Treibhauseffekts steuern, weil sich die Beiträge des Wasserdampfs und der Wolken-Rückkopplung nicht selbst aufrechterhalten und deshalb nur eine Verstärkung darstellen.”
Dr. Lacis’ Argument ist, dass der Strahlungsantrieb des Wasserdampfes als eine Rückkopplung behandelt werden sollte, weil, selbst wenn alle Treibhausgase aus der Atmosphäre entfernt würden, der Großteil des jetzt in the Atmosphäre befindlichen Wasserdampfes kondensieren oder innerhalb von zehn Jahren abregnen würde, und innerhalb von 50 Jahren wäre die Globaltemperatur dann um etwa 21 K kälter als heute.
Zu diesem Papier habe ich viele Einwände, da es u. a. nicht der Tatsache Rechnung trägt, dass die Verdampfung von der Erdoberfläche dreimal so stark ist, wie in den Computer-Modellen abgebildet (Wentz et al., 2007). Deshalb ist viel mehr Wasserdampf in der Atmosphäre als von den Modellen unterstellt, selbst ohne Treibhausgase.
Im Papier wird auch behauptet, die Verweildauer von CO2 in der Atmosphäre wäre “nach Tausenden von Jahren zu bemessen”. Selbst das zur Übertreibung neigende IPCC setzt die Verweildauer nur auf 50 – 200 Jahre. Auf Anforderung kann ich drei Dutzend Papiere nennen, die bis auf Revelle in den 1950ern zurückgehen, welche die CO2-Verweildauer mit gerade mal sieben Jahren angeben, auch wenn Professor Lindzen sagt, dass aus vielerlei Gründen 40 Jahre eine gute Schätzung wäre.
Darüberhinaus ist fraglich, ob der rein politische Schlussabsatz des Papiers in einer angeblich unparteiischen wissenschaftlichen Analyse stehen sollte. Zu behaupten und keine Beweise anzuführen, dass jenseits einer CO2-Konzentration von über 300-350 ppmv “eine gefährliche anthropogene Beeinflussung des Klimasystems durch Überschreitung der 25% Risiko-Toleranz-Grenze einträte mit einer damit verbundenen Verschlechterung der Land- und Meeres-Ökosysteme, einem Meereshöhenanstieg [derzeit gerade mal knapp 5 cm pro Jahrhundert im Verlauf der letzten 8 Jahre, gemäß Envisat], einer unvermeidbaren Störung der sozioökonomischen und nahrungsmittelerzeugenden Infrastruktur” ist überhaupt nicht belegt und daher unwissenschaftlich: Das ist widerlich politisch.
Man merkt, dass viele Wissenschaftler am GISS einer gewissen politischen Strömung angehören, und dass mindestens einer von ihnen regelmäßige substanzielle Zuwendungen für Al Gores Wiederwahl-Kampagnen machte, wissenschaftliche Zeitschriften sind aber nicht der Ort für politische Linksausleger.
Mein Haupteinwand ist, dass das zentrale Argument im Papier eigentlich eine petitio principii ist, ein Zirkelschluss und daher ein ungültiges Argument: eine der Prämissen ist auch die Schlussfolgerung: eine starke netto-positive Rückkopplungswirkung verstärkt die vom Strahlungsantrieb hervorgerufene Erwärmung.
Das Papier beruht nicht auf Messungen, Beobachtungen und der Anwendung bewährter Theorie. Es kommt zu dem Ergebnis, – man ahnt es schon –, dass es mit einem berüchtigten Computer-Klima-Modell herumspielt: dem GISS ModelE. Dieses Modell unterstellt in der Tat sehr starke netto-positive Rückkopplungen, für welche es ziemlich wenig verläßliche empirische oder theoretische Indizien gibt.
Als Dr. Lacis’ Papier geschrieben wurde, enthielt das ModelE “flux adjustments” (auf gut Deutsch: Schummelfaktoren), die bis zu 50 Watt/Quadratmeter betrugen, ein Mehrfaches der Größenordnung des ziemlich kleinen Antriebs, den wir auf das Klima ausüben können.
Dr. Lacis sagt, das ModelE beruhe auf gut verstandenen physikalischen Prozessen. Wenn das wahr wäre, wären keine so großen Schummelfaktoren notwendig (wie im Betriebshandbuch des Modells erwähnt und quantifiziert).
Auch würde man bei der Vorhersagefähigkeit dieses und anderer Modelle eine viel größere Treffsicherheit erwarten, als sich gezeigt hat. Wie der große Dr. John Christy von der NASA kürzlich schrieb: Im Zeitalter der Satelliten (es fällt zum größten Teil mit der von der Pacific Decadal Oscillation herrührenden natürlichen Erwärmungsphase zusammen) sind die Temperaturen nur um ein Viertel bis zur Hälfte angestiegen, verglichen mit der von Modellen wie dem ModelE vorhergesagten Temperaturerhöhung.
An dieser Stelle kann ein wenig grundlegende Klimaphysik helfen. Es ist nicht besonders schwierig (sonst würde ich es nicht verstehen). Ich möchte die IPCC/GISS-Schätzungen des Antriebs, der Rückkopplungen und Erwärmung auf das anwenden, was seit 1750 tatsächlich beobachtet oder daraus abgeleitet worden ist.
Beginnen wir mit den Antrieben. Dr. Blasing und seine Kollegen vom Carbon Dioxide Information and Analysis Center haben kürzlich den Anteil der gesamten Treibhausgas-Antriebe seit 1750 mit 3,1 Watt/Quadratmeter bestimmt.
Bei Anwendung der Antriebstabelle des IPCC müssen wir davon 35%, oder 1,1 Watt/Quadratmeter abziehen, um negative anthropogene Antriebe zu berücksichtigen, besonders die Rußpartikel, die wie kleine Schirme gegen die Sonne wirken. Die netto-anthropogenen Antriebe seit 1750 betragen daher 2 Watt/Quadratmeter.
Wir multiplizieren 2 Watt/Quadratmeter mit dem Klima-Sensitivitäts-Parameter (vor der Rückkopplung) von 0.313 Kelvin pro Watt/Quadratmeter. Wir erhalten eine Erwärmung von 0,6 K, bevor irgendwelche Rückkopplungen wirken.
Dann wenden wir den impliziten, auf einen Jahrhundertmaßstab bezogenen IPCC-Rückkopplungsfaktor von 1,6 an (nicht den Gleichgewichtsfaktor von 2,8, weil das Gleichgewicht Tausende von Jahre entfernt ist: Solomon et al., 2009).
Nachdem alle Rückkopplungen über die gesamte Zeitspanne gewirkt haben, beträgt demnach die vom ModelE und anderen vom IPCC bevorzugten Modellen vorhergesagte Schätzung der Erwärmung 1,0 K.
We verfizieren, dass der (IPCC-implizite) jahrhundert-maßstäbliche Rückkopplungsfaktor von 1,6 richtig ist, weil wir sehen, dass 1 K Erwärmung geteilt durch 2 Watt/Quadratmeter des ursprünglichen Antriebs nun 0,5 Kelvin per Watt/Quadratmeter ergibt. Das ist tatsächlich der implizite transiente Sensitivitätsparameter für jahrhundert-maßstäbliche Analysen, der in allen sechs CO2-Emissionsszenarien des IPCC steckt, und auch in dessen Mittelwertbildung. (Der Faktor wird nicht explizit genannt: Es hat den Anschein, als ob man nicht möchte, dass wir die Dinge überprüfen.)
Dr. Lacis Papier sagt tatsächlich, dass 80% der Antriebe von allen Treibhausgasen dem CO2 zugerechnet werden müssen. Die jetzige implizite zentrale IPCC-Schätzung in allen sechs Szenarien und deren Durchschnitt ist von gleicher Größenordnung, um die 70%.
Beim Ansatz der IPCC-eigenen Antriebsfunktion für CO2: 5,35 * natürlicher Logarithmus von (390 ppmv / 280 ppmv) unter Berücksichtigung der gestörten und ungestörten Konzentrationen von CO2 über die Betrachtungsperiode, ergeben sich 1,8 Watt/Quadratmeter.
Bei dessen Multiplikation mit dem transienten Sensitivitätsfaktor des IPCC von 0,5 erhält man 0,9 K – das aber ist die gesamte jetzige Erwärmung seit 1750. Wo bleiben die ungefähr 20-30% Erwärmung, die von den anderen Treibhausgasen stammen? Das ist ein Anzeichen dafür, dass der CO2-Antrieb doch ziemlich übertrieben worden ist.
Das IPCC sagt in seinem 2007er Bericht nur, dass seit 1950 die gesamte Erwärmung zur Hälfte bis zum Gesamtbetrag beobachtet wurde (also seit 1750), und dass dies dem Menschen zugerechnet werden müsste. Daher wären 0,45 – 0,9 K der beobachteten Erwärmung auf uns zurückzuführen. Selbst bei Annahme des höheren Wertes und unter Annahme der IPCC/GISS-Parameterwerte und Methoden gingen auf das Konto des CO2 nicht 70-80% der beobachteten Erwärmung für den Zeitraum, sondern die gesamte Erwärmung.
Als Antwort auf Argumente wie dieses, erhebt der schon müde DEUS EX MACHINA der vielleicht allzu gutgläubigen IPPC-Anhänger mühsam sein Haupt und sagt, dass die fehlende Erwärmung mit uns Versteck spiele, heimlich auf dem Meeresgrund lauere bis sie zuschlüge.
Elementare Betrachtungen der Thermodynamik belegen aber, dass solche Vorstellungen Unsinn sind.
Nichts kann uns sagen, wie groß die Rückkopplungen wirklich sind – vor allem nicht, wie sie in der Einbildung des IPCC bestehen. Ohne die Unterstellung einer hohen netto-positive Rückkopplung kann man kein Klimaproblem erschaffen. Doch selbst mit der vom IPCC angenommenen, unrealistisch hohen Rückkopplung gibt es überhaupt kein Klimaproblem, wie ich jetzt zeigen werde.
Obwohl das IPCC seine Schätzung des Gleichgewichts-Parameters für die Klimasensitivität explizit nennt (wenn auch nur in der konfusen Fußnote 631 des 2007er Berichts), macht es den transienten Sensitivitäts-Parameter nicht explizit – es ist der Letztere, nicht der Vorhergehende, der für die nächsten paar Jahrhunderte politisch relevant ist.
Während wir also genügend Verdachtsgründe finden für eine nicht unbeträchtliche Übertreibung der vorhergesagten Erwärmung in den IPCC-Vorhersagen (oder “Projektionen”, wie sie vorsichtigerweise genannt werden) und für eine noch größere Übertreibung im GISS ModelE, wollen wir die zentralen Schätzungen erst einmal anwenden, ohne gleich auf das  einzugehen, was uns angeblich in diesem Jahrhundert erwartet.
Dem IPCC zufolge besitzen alle sechs Emissionsszenarien gleiche Gültigkeit. Daraus folgt, dass wir sie mitteln können. Das machen wir. Danach soll die CO2-Konzentration im Jahre 2100 bei 712 ppmv liegen im Vergleich zur den 392 ppmv von heute. Der CO2-Antrieb wird demzufolge 5,35 ln(712/392) betragen, oder 3,2 Watt/Quadratmeter. Wir teilen durch 0,75 (Durchschnitt der GISS- und IPCC-Schätzungen vom CO2-Anteil an den gesamten Treibhausgas-Antrieben), um die anderen Treibhausgase zu berücksichtigen. Wir erhalten 4,25 Watt/Quadratmeter.
Diesen Wert vermindern wir um 35%, um die negativen Antriebe aus unseren Ruß-Abschirmungen usw. zu berücksichtigen. Wir erhalten 2,75 Watt/Quadratmeter netto-anthropogenen Antrieb zwischen heute und 2100.
Jetzt folgt die Multiplikation mit dem jahrhundert-maßstäblichen transienten Sensitivitätsparameter 0,5 Kelvin pro Watt/Quadratmeter. Damit erhalten wir eine vernünftige zentrale Schätzung der bis 2100 zu erwartenden Erwärmung, wenn wir die IPCC- und GISS-Methoden und Werte durchgängig anwenden. Wie hoch ist nun die in diesem Jahrhundert zu erwartende Erwärmung, wenn wir alles so gemacht haben? Aha, es sind nicht ganz 1,4 K.
Nun kommen wir auf die zuvor bemerkte Diskrepanz zurück. Das IPCC sagt, dass zwischen der Hälfte bis zur Gänze der gesamten Erwärmung seit 1950 auf uns zurückginge, und nun scheinen die IPCC-eigenen Methoden und Parameterwerte eine Übertreibung um die 20-30% zu zeigen, selbst wenn wir annehmen, dass die gesamte Erwärmung seit 1950 auf uns zurückginge. Die Übertreibung wäre noch viel größer, wenn nur die Hälfte der Erwärmung von uns gekommen wäre.
Wenn man diese Übertreibung berücksichtigt, wird die anthropogene Erwärmung in diesem Jahrhundert auf kaum mehr als 1 K zurückgeschoben – das ist ein Drittel der 3-4 K, von denen wir so oft hören.
Man beachte, wie geschickt diese Verdreifachung der wahren Erwärmungsrate erzeugt wurde: Durch eine Reihe von kleinen Übertreibungen, die sich alle zusammengenommen zu einem Knaller auswirken. Es ist sehr schwierig, diese Übertreibungen ausfindig zu machen, nicht nur weil die meisten von ihnen gar nicht groß sind, sondern auch, weil nur so wenige der notwendigen Parameterwerte explizit in den IPCC-Berichten genannt werden, so dass jedermann bemerken könnte, was da vorgeht.
Der Stern-Bericht von 2006 übernahm die zentrale IPCC-Schätzung von 3 K Erwärmung im 20.  Jahrhundert und meinte, dass die Kosten der Nicht-Vermeidung dieser Erwärmung 3% des Bruttosozialprodukts des 21. Jahrhunderts betrügen. Das GDP tendiert aber zu einer Zunahme von 3% pro Jahr; also, selbst wenn das IPCC mit 3 K Erwärmung recht hätte, wäre alles, was wir im gesamten Jahrhundert verlören, sogar angesichts der von Stern stark übertriebenen Kostenschätzungen (dafür wurde Stern in der Zeitschrift World Economics kritisiert; er ist dort selbst Mitglied des Beraterstabs), wäre das Äquivalent eines Bruttosozialprodukt-Wachstums nur das im vielleicht einzigen Jahr 2100 zu erwartende. Mehr nicht.
Um die Dinge noch schlimmer zu machen, hat Stern einen künstlich niedrigen Abzinsungssatz für den Vergleich der Kosten zwischen den Generationen angenommen, sein Büro teilte ihn mir mit: 0,1%. Als er wegen dieses zu niedrigen Abzinsungssatzes im fachbegutachteten Wirschaftsjournal World Economics auseinandergenommen wurde, sagte er, die ihn kritisierenden Wirtschaftswissenschaftler wären "konfus", er hätte tatsächlich 1.4% angesetzt. William Nordhaus, der viele fachbegutachtete kritische Artikel zu Stern geschrieben hat, meint, dass es ganz unmöglich wäre, auch nur ein Stück von Sterns Arbeit zu verifizieren oder zu replizieren, weil kaum etwas von seiner Methode explizit und zugänglich wäre.
Wie oft wir das schon gehört haben! Anscheinend will man nicht, dass die Dinge nachgeprüft werden.
Der absolute minimale wirtschaftlich vernünftige Abzinsungssatz ist mindestens so hoch wie das reale Ergebnis auf das Kapital, d.h. 5%. Tun wir Stern den Gefallen und nehmen wir an, dass er einen Abzinsungssatz von 1,4% benutzte und nicht die 0,1% von denen sein Büro sprach.
Selbst wenn das IPCC recht hätte mit seiner Behauptung – entgegen der obigen Analyse von nur 1 K menschengemachter Erwärmung in diesem Jahrhundert –, dass die Menschheit 3 K Erwärmung um 2100 erleben würde (Zunahme im ersten Neuntel des Jahrhunderts: 0 K), würden sich die Kosten des Nichtstuns, abgezinst mit 5%, auf nur 0,5% des globalen Bruttosozialprodukts im 21. Jahrhundert belaufen, anstelle von Sterns 3%.
Nicht überraschend ergibt sich daher, dass die Kosten einer Vermeidung der
3 K – Erwärmung um mindestens eine Größenordnung höher wären, als die Kosten der klimabezogenen Schäden, die aus dem Nichtstun entstehen könnten, wenn wir uns nur anpassen würden, was unsere Spezies so gut kann.
Wenn aber die von uns verursachte Erwärmung im Jahre 2100 sich nur als 1 K herausstellt, dann wird in den meisten Analysen diese sanfte Erwärmung nicht nur als harmlos, sondern sogar als günstig angesehen. Es werden überhaupt keine Netto-Kosten entstehen. Ganz im Gegenteil: ein wirtschaftlicher Nutzen wird daraus folgen.
Deswegen und auf den Punkt gebracht, sollten die Regierungen das UNFCCC und das IPCC auflösen, die Klimazuwendungen mindestens um neun Zehntel vermindern, nur noch zwei bis drei Klima-Computer-Modelle bezahlen und sich um die wirklichen Probleme der Welt kümmern – wie z. B. um die heraufziehende Energieknappheit in England und Amerika, weil die Klima-Extremisten und ihr künstlich erzeugter Unsinn fatalerweise den Neubau von kohle- und atomar befeuerten Kraftwerken verhindert haben, die nun dringend gebraucht werden.
Wir müssen wieder Boden unter die Füße bekommen und unsere fossilen Brennstoffe nutzen, Schiefergas und so, um den Milliarden von Menschen Elektrizität zu geben, die noch keine haben: das nämlich ist der schnellste Weg, sie aus der Armut zu befreien und schmerzlos die Weltbevölkerung zu stabilisieren. Das würde echte Vorteile für die Umwelt bringen.
Sie wissen nun auch, warum der Zubau von vielen neuen Kraftwerken dem Klima nicht weh tut, und weil, selbst wenn ein reales Risiko einer 3 K Erwärmung in diesem Jahrhundert existieren würde, es um ein Vielfaches kosteneffektiver wäre, sich anzupassen, als zu versuchen, die Erwärmung aufzuhalten.
Wie man bei Lloyds in London zu sagen pflegt, “Wenn der Preis der Prämie die Kosten des Risikos übersteigt, versichere dich nicht.” – Selbst wenn dieser Merkspruch unterstellt, dass es ein Risiko gibt – welches in unserem Falle gar nicht existiert.
Viscount Monckton of Brenchley
Original hier
Übersetzung: Helmut Jäger, EIKE




Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Grundmodell der Erde als Schwarzkörper – Ein ganz schweres Problem

Robert G. Brown, Duke University

Die Erde hat nur eine Absorptionsfläche, die einer zweidimensionalen Scheibe gleicht, nicht einer Kugeloberfläche.
Eine halbe Nacht lang habe ich im Lern-Halbschlaf über dem Buch von Caballero zum Thema des Strahlungstransfers gebrütet und bin zu zwei Einsichten gekommen:
Erstens: das Grundmodell des Schwarzkörpers (es führt zu T_b = 255K) ist physikalisch ein schreckliches Grundmodell. Es behandelt den Planeten wie einen nicht rotierenden Wärme-Supraleiter ohne Wärmekapazität. Warum das so schrecklich ist? Weil es absolut falsch ist, 33K als Treibhauserwärmung in Bezug auf den Ausgangswert zu setzen. Dieser Ausgangswert ist ein völlig unphysikalischer Ausgangswert.
Zweitens, die 33K bedeuten nichts. Sie werfen Erwärmungs- und Abkühlungseffekte zusammen, absolut nichts mit dem Treibhauseffekt zu tun haben. Mehr dazu später.
Jetzt verstehe ich den Treibhauseffekt viel besser. Ich möchte das jetzt mit meinen eigenen Worten schreiben, weil mir einige von Caballeros Aussagen nicht gefallen, und weil ich denke, dass meine Darstellung einfacher und einleuchtender ist. Ich denke auch daran, sie vielleicht später für einen Modellbausatz zu verwenden, von der Art, wie man sie als Lernspielzeuge kaufen kann.
Fangen wir mit einer nicht rotierenden supraleitenden Kugel an, null Albedo, einheitliche Emissivität, vollständige Schwarzkörper-Strahlung von jedem Punkt der Kugel. Wie hoch ist die Durchschnittstemperatur?
Jetzt behandeln wir die nicht rotierende Kugel als vollständigen Nicht-Leiter, dergestalt, dass sich ein Teil der Oberfläche im Strahlungsgleichgewicht befindet. Wie hoch ist die Durchschnittstemperatur jetzt? Das ist für den Mond ein besseres Modell als das vorhergehende, aber immer noch nicht gut genug. Verbessern wir es!
Wir geben der Oberfläche nun einige thermische Wärme-Kapazität – wir machen sie Wärme-supraleitend, aber nur in vertikaler Richtung und wir nehmen noch eine Masseschale von einiger Dicke an, die eine vernünftige spezifische Wärme hat. Das ändert am vorherigen Ergebnis nichts, solange wir die Kugel nicht rotieren lassen. Oho, nun erhalten wir doch eine andere durchschnittliche (Oberflächen-) Temperatur, diesmal ist es der sphärische Durchschnitt einer Verteilung, die von der sphärischen Breite abhängig ist. Dabei liegt die höchste Temperatur auf der Tagseite nahe beim Äquator kurz nach dem „Mittag“ (verzögert, weil es Zeit braucht, um die Temperatur jedes Blockes zu erhöhen, weil die Einstahlung den Schwarzkörper-Verlust übersteigt, und weil es Zeit zur Abkühlung braucht, weil der Schwarzkörper-Verlust die Strahlung übersteigt, und die Oberfläche hat niemals und nirgends eine konstante Temperatur außer an den Polen (ohne axiale Kippung). Das ist wahrscheinlich ein recht passendes Modell für den Mond, wenn man rückschreitend eine Albedo hinzufügt (damit wird der Anteil der hereinkommenden Energie vermindert, der thermisch ausbalanciert werden muss).
Man kann für jede dieser Veränderungen tatsächlich die exakte parametrische Temperatur-Verteilung errechnen als Funktion des sphärischen Winkels und des Radius, und (durch Integration) die Veränderung berechnen in z. B. der durchschnittlichen Temperatur aufgrund der Annahme eines vollständigen Schwarzkörpers. Beim Übergang von einem supraleitenden, aber im Übrigen perfekt isolierenden (nicht rotierenden), Planeten zu einer lokal detaillierten Balance fällt die nachtseitige Temperatur einfach von ½ der Kugel Ihrer Wahl von 3 K, oder von null K nach sehr langer Zeit (das ist leichter zu idealisieren). Das ist die untere Grenze, unabhängig von Sonneneinstrahlung oder Albedo (in diesem Sinne hier: der Emissivität). Die tagseitige Temperatur hat eine polare Verteilung, wobei ein Pol auf die Sonne blickt, sie variiert nicht-linear mit der Einstrahlung, Albedo, und (wenn Sie sie verändern wollen) mit der Emissivität.
Das vermaledeite T^4 verkompliziert alles! Ich möchte noch nicht einmal das Vorzeichen der Veränderung der Durchschnittstemperatur zuweisen, wenn ich vom ersten Modell zum zweiten übergehe! Jedesmal, wenn ich meine, ein gutes heuristisches Argument für die Aussage von einer niedrigeren Durchschnittstemperatur zu haben, sagt eine innere Stimme – T^4 – bilde lieber das verflixte Integral, weil die Temperatur im Übergangsbereich von der Tagseite her allmählich auf Null gehen muss. und da gibt es eine ganze Menge von geringer Einstrahlung in einem Gebiet (und daher mit niedriger Temperatur), wo die Sonne auf fünf Uhr steht, sogar mit null Albedo und der Emissivität von einer Einheit! Leicht ist nur, den sphärischen Durchschnitt zu erhalten: Wir nehmen einfach den sphärischen Tagseiten-Durchschnitt und teilen durch zwei.
Mit dem Vorzeichen für die rotierende Kugel bin ich auch nicht glücklich, weil es auf vom Zusammenspiel zwischen der erforderlichen Zeit zur Erwärmung der thermischen Last (engl: „thermal ballast“) abhängt, bei gegebener Differenz zwischen Einstrahlung und ausgehender Strahlung und der Rotationsrate. Wenn man mit unendlicher Geschwindigkeit rotieren lässt, ist man wieder bei der supraleitenden Kugel. Wenn man dazwischen rotieren lässt, und – verdammt noch mal – indem man nur die Größe der thermischen Last verändert (die thermische Last bestimmt die Thermisierungszeit), kann man es sogar so einrichten, dass sich eine rasch rotierende Kugel wie die statische nicht-leitende Kugel verhält, oder wie eine langsam rotierende (jeweils zwischen null Wärme-Kapazität und sehr hoher Wärme-Kapazität).
Schlimmer noch, wenn man die Geometrie der axialen Pole verändert (die noch in Bezug auf die Ekliptik als ungekippt angenommen werden). Während zuvor die Tag/Nacht Grenze sich allmählich an T = 0 von der Tagseite annäherte, gilt das nun nur noch an den Polen! Das Integral des polaren Gebietes (bei einem gegebenen Polarwinkel dtheta) ist viel kleiner als das Integral des Äquator-Winkels, und zudem hat man nun auch noch einen darüber verschmierten Satz von festen Temperaturen, die alle Funktionen des Azimut-Winkels phi und des Pol-Winkels theta sind, der verändert sich nicht-linear, wenn man einen der folgenden Parameter ändert: Einstrahlung, Albedo, Emissivität, omega (Winkelgeschwindigkeit der Rotation) und Wärmekapazität der Oberfläche.
Und dabei ist noch nicht einmal eine Atmospäre berücksichtigt! Oder Wasser. Aber wenigstens bis zu diesem Punkt kann man die Temperaturverteilungsrechnung T (theta,phi,alpha,S,epsilon,c) exakt lösen, denke ich.
Darüberhinaus kann man tatsächlich so etwas wie das Wasser recht gut modellieren. Wenn wir uns nun die Erde als mit einer Schicht von Wasser bedeckt anstelle von Luft vorstellen, mit einem Schwarzkörper auf dem Grund und einer dünnen Schicht einer völlig transparenten Frischhaltefolie drauf, um die vermaledeite Verdampfung zu verhindern, dann wird das Wasser zu einem Teil des thermischen Ballasts. Nun braucht es viel viel länger, um die Temperatur einer ein-Meter-dicken Wasserschicht (bei gegebenem Ungleichgewicht zwischen der einfallenden Strahlung) zu erhöhen oder zu vermindern, als die Temperatur im vielleicht oberen Zentimeter eines Felsens, von Dreck oder von Sand. Es dauert viel länger.
Wenn man das alles einigermaßen im Griff zu haben meint, könnte man das Modell mit Meeren und Landmassen füllen (aber immer noch den lateralen Energie-Transfer verbieten, und einen unmittelbaren vertikalen Ausgleich unterstellen). Man könnte dem Wasser die richtige Albedo zuschreiben und es beim Erreichen der richtigen Temperatur gefrieren lassen.
Danach wird es aber wirklich schwer.
Jetzt muss nämlich eine Atmosphäre dazukommen. Auch das noch!
Die Meere müssen Konvektionsfähigkeit erhalten, Dichte und unterschiedliche Tiefen. Und das alles auf einer rotierenden Kugel, wo alles was nach oben geht (Luftmassen) gegen die Erddrehung (relativ zur Oberfläche) abgelenkt wird, wo alles, was herunterkommt, in Richtung der Erddrehung angelenkt wird, was nach Norden geht auf der Nordhalbkugel in Drehrichtung abgelenkt wird (es wird schneller), was nach Süden geht, gegen die Drehrichtung abgelenkt wird, als Funktion von Winkel, Geschwindigkeit und Drehgeschwindigkeit. Verdammte Coriolis-Kraft, sie lenkt die Küstenartillerie ab, usw. Und jetzt erwärmen wir mal dieses verdammte Ding differentiell so, dass überall und über alle Entfernungen Turbulenzen vorkommen, für die wir kaum noch die einfachste Symmetrie für das differentielle Erwärmen haben. So ungefähr, wenn wir ein fünfjähriges Kind Farbe auf die Kugel spritzen lassen, um anzuzeigen, wo Landmassen und Ozeane sind, oder wir hätten ihm auch Spielzeuglastwagen geben und es im sphärischen Sandkasten spielen lassen können, bis eine schöne unregelmäßige Oberfläche entstanden wäre. Und diese Oberfläche hätten wir mit Wasser auffüllen können, bis die Oberfläche ungefähr zu 70 % unter Wasser gestanden hätte.
O weh! Mein armer Kopf raucht!
Wohlgemerkt – Wir haben immer noch keinen Treibhauseffekt dabei! Nur eine Heuristik für die Abkühlung durch Abstrahlung in einem idealen Zustand, der ist ganz wörtlich genommen destilliert; in Temperatur und Höhe aufgebrochen, noch ohne die Präsenz von CO2. Wolken. Luft verteilt sich mit nicht-trivialer kurzer Wellenlänge über den Querschnitt. Energietransfer satt!
Bevor wir uns nun mit dem CO2 auseinandersetzen, müssen wir die Quantenmechanik und das Inzidenzspektrum berücksichtigen, dazu auf die bislang ignorierten Details des Erdbodens, der Luft und des Wassers blicken. Für die Luft brauchen wir einen Temperatur-Gradienten, der sich mit der Feuchtigkeit, der Albedo, der Bodentemperatur verändert, usw. … Die Luftmoleküle üben einen Rückstoß aus, wenn sie die einfallenden Photonen verteilen, und wenn es eine Kollision mit einem anderen Luftmolekül im rechten Zeitintervall gibt, werden sie beide einen Teil oder die gesamte Energie absorbieren und die Luft erwärmen, anstatt sie elastisch zu verteilen. Ein Molekül kann auch eine Wellenlänge absorbieren und eine Kaskade von Photonen mit einer anderen Wellenlänge emittieren (abhängig von seinem Spektrum).
Und zum Schluss müssen die Treibhausgase dazukommen, vor allem CO2, (Wasser ist schon drin). Sie bewirken eine Zunahme der ausgehenden Strahlung von der (wärmeren) Oberfläche in einigen Bändern und transferieren etwas davon auf das CO2, wo sie eingefangen bleibt, bis sie zur Spitze der CO2-Säule diffundiert ist, von wo sie mit kühlerer Temperatur emittiert wird. Die gesamte hinausgehende Kraft wird auf diese Weise aufgespalten, dabei wird das vermaledeite Schwarzkörperspektrum so moduliert, dass verschiedene Frequenzen verschiedene Wirktemperaturen haben, lokal moduliert – von nahezu allem. Temperaturgradient, Feuchtigkeitsgehalt. Wolken. Massentransport von Wärme nach oben oder unten qua Konvektion! Massentransport von Wärme nach oben oder unten qua eingefangener Strahlung in Teilen des Spektrums. Und bitte nicht die Umgehungen vergessen! Alles fließt jetzt, Wind und Verdampfung sind gekoppelt, die Zeitdauer für den Temperaturausgleich des Meeres erstreckt sich nun von „im gleichen Maß wie die Rotationsperiode“ für flache Meere bis zu tausend oder mehr Jahren. Der Ozean ist niemals im ausgeglichenen Zustand, er zieht immer an den Oberflächentemperaturen in die eine oder andere Richtung mit nennenswerter thermischer Last, die Wärme wird nicht für einen Tag, sondern für eine Woche, einen Monat, ein Jahr, eine Dekade, ein Jahrhundert, ein Jahrtausend gespeichert.
Jawohl, eine verdammt harte Nuß! Wer auch immer so etwas „gesichertes Wissen“ (settled science) nennt, muss wirklich nicht mehr ganz bei Trost sein.
Wohlgemerkt: ich habe noch nicht den solaren Magnetismus oder ernsthaftere Modulationen der Sonneneinstrahlung einbezogen, noch nicht die Neigung der Erdachse, die noch einmal alles verändert, weil damit die Zeitskalen an den Polen jährliche werden, Nord- und Südpol sind überhaupt nicht gleich. Man beachte die enormen Unterschiede ihrer thermischen Last und den ozeanischen und atmosphärischen Wärmetransport!
Eine harte Nuß. Vielleicht nehme ich sie mir einmal zum Knacken vor, wenn ich Zeit habe, wenigstens für die ersten wenigen Schritte zu Anfang. Ich möchte zumindest eine bessere Vorstellung von der Richtung der ersten kleinen Schritte gewinnen zum Bau eines Spielzeug-Modells für die Durchschnittstemperatur. (Der Begriff „Durchschnittstemperatur“ meint hier etwas Bestimmtes, nämlich bevor das System chaotisch gemacht wird).
Dr. Robert Brown
Der Aufsatz führte auf WUWT zu einer Diskussion mit derzeit über 430 Beiträgen, die wegen des Umfangs leider nicht mehr übersetzt werden können. Wer sich für die Diskussion interessiert, möge die Beiträge und das Original hier lesen.
Übersetzung: Helmut Jäger, EIKE




Keine Indizien für positive Rückkopplung, keine Klimakipppunkte in Sicht

Auf WATTSUPWITHTHAT hatte der amerikanische Physiker und Dozent an der Duke Universität von North Carolina, Dr. Robert Brown, den Beitrag "Was wir über den Energiefluss der Erde nicht wissen" veröffentlicht, der eine rege Diskussion auslöste. Auf viele Einwände jener Diskussion schrieb Dr. Robert Brown einen längeren Aufsatz. Anthony Watts hält Dr. Browns Ausführungen zur angeblich vom CO2 bedrohten Klimastabilität für so kenntnisreich, dass er den gesamten Beitrag auf WATTSUPWITHTHAT gesondert veröffentlichte.

Im einleitenden Satz zitiert Dr. Brown eine Behauptung aus einem der vielen Kommentare zu "Was wir über den Energiefluss der Erde nicht wissen".

Keine neuen „strange attractors“: Aussagekräftige Indizien gegen die positive Rückkoppelung und die Katastrophe

von Dr. Robert Brown

Man muss schon feststellen, dass beide Systeme innerhalb der gleichen Parameter oszillieren, aber die Wahrscheinlichkeit der Synchronisation zwischen ihnen ist nil?

Leider nein, nicht über lange Zeiträume. Systeme können so verschieden sein, wie ein magnetisierter Ferromagnet, der in einer Richtung magnetisiert ist, sich von einem identischen Ferromagneten unterscheidet, der in umgekehrter Richtung magnetisiert ist. Oder im Falle der Erde, die als eiszeitliche Erde völlig unterschiedlich sein kann von einer zwischeneiszeitlichen Erde. Der Punkt ist, dass beide Zustände “stabil” sein können, bei genau der gleichen Einstrahlung, weil die Rückkoppelung im globalen System sie zu einem stabilen Zustand rekonfigurieren kann.
Wenn Sie in dem hier angegebenen Link to chaos theory die beiden Figuren mit den geschlossenen Linienbündeln anschauen, sehen Sie ein heuristisches Bild der Art von Möglichkeiten, die ein gekoppeltes nichtlineares Differential-System hat.

Eine Darstellung der Lorenz-Attractoren für Werte r = 28, σ = 10, b = 8/3 (aus Wikipedia
Mitten in jeder Schleife ist ein sogenannter “strange attractor“, der typischerweise ein „limit point“ ist. Die x und y – Achsen sind Koordinaten in einem generalisierten (Phasen-) Raum, der den Zustand des Systems zu jedem gegebenen Zeitpunkt repräsentiert: x(t), y(t). Die Linien selbst sind der Bahnverlauf des Systems über die Zeit, wie es sich unter der Einwirkung der zugrundeliegenden Dynamiken entwickelt. Mit der Figur soll illustriert werden, dass es keinen einzigartigen Umlauf gibt, mit dem die Erde einen regulären Attractor wie die Sonne umkreist: Das System oszilliert eine Zeitlang um einen Attractor, dann um den anderen, dann um beide. Anstelle von schönen geschlossenen Bahnverläufen haben wir Verläufe, die fast niemals gleich sind.
Zwei Bahnverläufe, die in kurzem Abstand hintereinander gestartet wurden, werden normalerweise die Attractoren anfänglich auf diese generelle Art umkreisen. Aber allmählich, oft schon bemerkenswert rasch, werden beide Bahnverläufe voneinander abweichen. Eine Bahn wird auf den anderen Attractor überspringen, eine andere nicht. Nach erstaunlich kurzer Zeit werden die beiden Bahnverläufe fast völlig de-korreliert sein, dergestalt, dass das Wissen um die Lage der einen Bahn (im allgemein zugänglichen Raum der Phase) überhaupt keine Hinweise zur Lage der anderen gibt.
Nur in diesem Sinne trifft die eingangs zitierte Behauptung zu. Jedes der Systeme muss im Raum der physikalisch konsistenten Zustände durch Differenzierung vom Startpunkt aus aufgefunden werden. Es gibt keine Garantie, dass die Bahnen den “Phasenraum füllen” werden. Nur in diesem Sinne können beide in dem von den Ausgangspunkten aus zugänglichen Phasenraum gefunden werden. Wenn die beiden Startpunkte dicht genug beieinander liegen, werden sie vermutlich zu sehr ähnlichen Phasenräumen führen, aber es gibt keine Garantie, dass diese identisch sein werden – besonders, wenn es (viel) mehr als zwei Attractoren gibt und irgendeinen einfachen Parameter. In der Statistischen Mechanik gibt es ein Theorem hierzu, aber meines Wissens nicht für den allgemeinen Fall der offenen Systemdynamik eines chaotischen Systems.
Wen es interessiert – das Herumspielen damit kann ganz spaßig sein – sollte mal bei den “predator-prey differential equations” vorbeischauen.
Wenn ich mich recht erinnere, befindet sich dort eines der einfachsten Systeme mit einem Attractor und begrenztem Durchlauf und es zeigt viele der Eigenschaften von komplizierteren dynamischen Systemen. Der Attractor/fixed point in diesem Falle ist die Population von z. B. Füchsen und Kaninchen, die von Jahr zu Jahr in perfektem Gleichgewicht bleibt. Man beachte wohl, dass diese Gleichung deterministisch ist. In einer echten Population – selbst wenn sie modelliert ist – gibt es natürlich immer zufällige (oder zumindest “unvorhersehbare”) Variationen – das ist ein gewisser Anteil von Rauschen -, der in diskreten, nicht in stetigen Werten angegeben wird, weil es z.B. keinen Geparden geben kann, der pi Paviane frißt.
Eine bessere stetige “Form”  einer Differentialgleichung zur Beschreibung von Systemen mit Rauschen ist die Langevin-Gleichung in der Physik – ein System mit “schnellen” mikroskopisch kleinen Freiheitsgraden, auf das man sich verlässt bei der Durchschnittsbildung mit einem stochastischen Term und langsameren Freiheitsgraden, die man herausintegriert wie bei der „predator prey“- Gleichung. In der Physik gibt es den speziellen limitierenden Fall von etwas, was dann die verallgemeinerte „Master-Gleichung“ genannt wird. Das ist die vollständige integro-differentiale Beschreibung eines „many body open quantum systems”; Sie ist wirklich sehr sehr schwierig. Der allgemeinere Ansatz ist hier aber gangbar – vermutlich ist er Teil der meisten vereinfachten Klimamodelle. Wenn man die Temperaturverläufe “glättet”, z. B. mit Hilfe eines laufenden Durchschnitts, verliert man Information (die Variationen über kurze Zeitspannen) und man reduziert die Komplexität des Systems durch die Konzentration auf eine langsamere Dynamik auf der Zeitskala.
Das ist zulässig, wenn das System wirklich einfach ist: d.h. es gibt nur einen einzigen Attractor und das System oszilliert um ihn, das Ausglätten des “Rauschens” ist irrelevant und fügt dem einzigen Bahnverlauf nur kleine Variationen zu. Wenn aber das System multistabil mit vielen örtlichen Stabilitätspunkten ist; oder noch schlimmer, wenn einige der Freiheitsgrade Dinge wie die Sonne sind, deren zeitliche Entwicklung völlig außerhalb “des Systems” liegt, dessen Zukunft unversagbar ist, und dessen Auswirkung man nicht genau kennt, dergestalt, dass sich die Attractoren selbst umherbewegen, wenn sich das System lokal entwickelt, – dann ist das wahrscheinlich nicht zulässig.
Das Symptom eines multistabilen Systems der letzteren unzulässigen Art ist eine Folge von durchbrochenen Gleichgewichten, sichtbar in den geglätteten Daten. Die 30-jährigen Satellitendaten und die Meeresoberflächendaten (Sea Surface Temperatures) zeigen dieses Bild ziemlich klar.
Und hier ein sehr wichtiger Punkt: oszillierende Systeme haben fast immer negative Rückkoppelung. Das ist die grundlegende Eigenschaft, die ein oszillierendes System bestimmt: es besitzt selbst eigene Attractoren. Die eigenen Attractoren sind Stabilitäts-(Gleichgewichts-)Punkte dergestalt, dass das System immer wieder zurück in den Gleichgewichtszustand gezogen wird und nicht weg davon, wenn es von ihnen gestört wird.
Im allgemeinen Falle von Attractoren in hochdimensionalen Räumen führt das zu (Poincare-) Zyklen um die Attractoren herum, wie sie in den  “predator-prey”-Gleichungen sichtbar werden, oder in der Chaos-Figur mit zwei „strange attractors“, mit der Ausnahme, dass diese in 3+ dimensionalen Räumen sehr, sehr kompliziert werden können (nur schwierig zu veranschaulichen). Mit dimensionalen Räumen sind keine physikalischen Räume gemeint, sondern parametrische “Phasen”-Räume (Zustandsräume).
In der Nachbarschaft eines Attractors gibt es im Allgemeinen viel lokale Stabilität – Bahnverläufe in solcher Nachbarschaft schwingen eng angelehnt um den Attractor und springen relativ selten auf andere Attractoren um. Deshalb tendieren eiszeitliche und zwischeneiszeitliche Perioden zu recht langen Zeiträumen (im Vergleich zu all den vielen kürzeren Zeitspannen, die im System verfügbar sind).
Das Bewegen eines zugrundeliegenden externen Parameters – z. B. der anthropogenen CO2-Konzentration, des Zustands der Sonne, des geomagnetischen Zustands – kann als Verschiebung der Festpunkte des multistabilen Systems gedacht werden. Wenn wir das linearisieren, können wir oft wenigstens die Richtung der ersten Ordnung der Bewegung abschätzen. Mehr CO2 z. B., sollte unter der Annahme des Treibhauseffekts zum Einfangen von mehr Wärme führen und damit die globale Temperatur erhöhen. Der stabile Festpunkt sollte sich daher ein wenig in Richtung „wärmer“ verschieben.
Fast das gesamte Argument bewegt sich um zwei einfache Probleme herum (und das in mehr als einer Weise). Beachten Sie, dass ich diese Probleme ganz anders als gewohnt darstelle:

a) Ist die Vermutung eines linearen Verhaltens gültig?

Das ist keine triviale Frage. Erhöhtes CO2 in einem multistabilen System bewegt nicht nur den lokalen Attractor, es bewegt alle Attractoren, und das nicht notwendigerweise auf simple lineare Art in einem wirklich komplizierten System mit vielen negativen Rückkoppelungen (die Hypothese erfordert eine Bewegung über den gesamten Ort, weil das System von Attractoren bestimmt wird). In vielen Systemen befinden sich bewahrende Prinzipien (nicht notwendigerweise bekannte), die als Beschränkungen derart wirken, dass durch die Aufwärtsbewegung eines Attractors ein anderer nach unten bewegt wird. Oder die “Schwellenhöhe” zwischen zwei Attractoren wird erhöht und damit alle begrenzenden Zyklen deformiert.

b) Liegt die Systemreaktion in der Größenordnung der mittleren Differenz zwischen den Attractoren, die vorwiegend schon vom System „gesampled“ sind?

Falls sie größer ist, wird das System wahrscheinlich nicht den wirkenden Attractor bewegen, sondern auf einen anderen Attractor überkippen. Das muss nicht der erwartete Attractor auf der wärmeren Seite des vorhergehenden sein. Mehr Erwärmung – wie die Warmisten in eher heuristischen Termini sagen – kann das System zu mehr unkontrolliertem Schwingen bringen und dabei wärmer als der wärmste Teil der Schwingung sein und kälter als der kälteste. Falls der neue Ausschlag der Schwingung groß genug ist, kann er das System auf beiden Seiten zum Schwingen um einen neuen Attractor stoßen.
Man beachte, dass die letzte Behauptung noch zu einfach ist, weil sie danach klingt, als ob es nur zwei Richtungen gäbe: wärmer oder kälter. Das ist nicht der Fall. Es gibt wärmer mit mehr Wasserdampf  in the Atmosphäre, wärmer mit weniger Wasserdampf  in the Atmosphäre, wärmer mit aktiver Sonne, wärmer mit nicht aktiver Sonne, wärmer mit zunehmendem Meereis, wärmer mit abnehmendem Meereis, wärmer mit mehr Wolken, wärmer mit weniger Wolken, und die Wolken können Tages- oder Nachtwolken sein, arktische or antarktische Wolken, im Sommer, Herbst, Winter oder Frühling, monats- oder tageweise, überall mit Rückkoppelungen – das Herumfingern an jedem beliebigen Aspekt des Zyklus wirkt auf alles Andere. Das war erst der Anfang einer Auflistung der gesamten wichtigen Dimensionen. Beachten Sie auch, dass es wirklich wichtige zeitliche Skalen mit fast periodischen  Oszillationen von vielen dieser Treiber gibt, und auch, dass die zu Grunde liegende Dynamik auf einem rotierenden Globus  stattfindet, der im ständigen Verlauf Luftwirbel erzeugt, deren Beständigkeit von Tagen bis zu Jahrzehnten reicht.
Ich habe in früheren Beitragen argumentiert, dass das in der Klimahistorie erkennbare durchbrochene Quasi-Equilibrium es sehr wahrscheinlich macht, dass die Antwort auf b) JA ist. Das anthropogene CO2 verschiebt das System um die Größenordnung des Abstands von einem oder mehr Attractoren, weil das System um die Attractoren herumspringt, sogar zu Zeiten, als es noch kein anthropogenes CO2 gab. Und weiter, die Ausreißer des Systems bei seinem Wechsel zwischen den Attractoren waren ebenso groß wie heute und qualitativ nicht anders.
Dies ist ein starkes Indiz, dass der Effekt geringer, und nicht größer ist als die natürliche Schwingungsbreite. Die negativen Rückkoppelungsfaktoren, die die multistabilen Attractoren (lokal) zur Wirkung bringen, wirken auch als negative Rückkoppelung auf die CO2-induzierte Verschiebung! Diese Aussage steht, ob nun die Annahme der Gültigkeit der Existenz einer linearen Antwort (pro Attractor) in a) zutrifft oder nicht, und die zusätzlich noch mit dem riesigen Problem der Beweisführung behaftet ist.
Das letztere ist das Fluktuations-Dissipations-Theorem, wie ich schon in dem einen oder anderen Beitrag gesagt habe. In einem offenen System in lokal stabiler Phase koppeln sich die Oszillationen (fluctuations) mit der Dissipation dergestalt, dass erhöhte Fluktuation zu mehr Dissipation führt – das ist negative Rückkoppelung. Falls das nicht zuträfe, wäre die lokal stabile Phase nicht stabil.
Das ist ein starkes Argument gegen die Katastrophe! Wenn es unter der Annahme, dass CO2 nur kleine, langsame, lokale Verschiebungen der Attractoren untereinander bewirkt im Vergleich zu den großen Schwüngen des Systems; wenn es einen Punkt gäbe, wo das System wahrscheinlich auf einen viel wärmeren stabilen Punkt überspringen würde (die von den Warmisten angedrohte “Katastrophe”), dann hätte das fast mit Sicherheit bereits geschehen müssen. Denn die Phasenschwingungen der vergangenen zehntausend Jahre haben schon viele Male zur gleichen Wärme geführt wie heute.
Die Tatsache, dass es nicht geschehen ist, ist wirklich ein ganz starker Beleg gegen die Behauptung einer positiven Rückkoppelung und einer Katastrophe. Ja. anthropogenes CO2 könnte die Attractor-Temperaturen ein wenig nach oben geschoben haben, es könnte auch kleinere Anpassungen in der Anordnung der Attractoren verursacht haben, aber es gibt kein Indiz dafür, dass es wahrscheinlich und plötzlich einen neuen Attractor außerhalb der normalen, von der Klimahistorie gezeigten Variationsbreite, erzeugen würde. Wäre es unmöglich? Natürlich nicht, aber nicht wahrscheinlich.

Ich möchte eine kleine Analogie anschließen

Als die Physiker sich auf den Test der ersten Atombombe vorbereiteten, wurden damals von weniger begabten Physikern Bedenken geäußert, dass die  Erdatmosphäre „in Brand gesetzt”, oder die Erde in eine Sonne verwandelt werden könnte (Das war, bevor die Kernfusion verstanden war – auch der Energie-Zyklus der Sonne war noch unbekannt). Jüngst habe ich von Befürchtungen gelesen, das Kollisionen im Großen Hadronen-Speicherring den gleichen Effekt haben könnten – nämlich die Erzeugung eines Mini-Schwarzen Lochs oder so ähnlich, das die Erde verschlingen würde.
Das sind törichte Ängste (obgleich sie von wirklichen Wissenschaftlern geäußert werden, weil sie Derartiges für möglich und vorstellbar halten).

Warum sind solche Ängste töricht

Die von einer Atombombe erzeugten Temperaturen und Drücke sind nicht einzigartig! Wenn auch selten, so fallen doch Asteroiden auf die Erde und erzeugen dabei viel höhere Drücke und Temperaturen als Atombomben. Ein kleinerer Asteroid kann in wenigen Millisekunden mehr Energie freisetzen als das Zehntausendfache der gesamten Sprengkraft aller menschengemachten Explosivmittel auf der Erde, einschließlich der Kernwaffen. Kurz gesagt: wenn etwas mit einer gewissen vernünftigen Wahrscheinlichkeit passieren könnte, wäre es schon passiert.
Das gleiche gilt für die Furcht vor dem Großen Hadronen-Speicherring, oder anderen “Super-” Teilchenbeschleunigern. Ja, sie erzeugen Kollisionen in der Größenordnung von Elektronen-Teravolt, aber diese Art von Energie bei nuklearen Kollisionen ist nicht einzigartig! Die Erde wird ständig von hochenergetischen Partikeln bombardiert, die von energetischen Extrem-Ereignissen hervorgerufen wurden, wie den Supernovae, die sich vor langer Zeit ereigneten. Die Energien dieser kosmischen Strahlen sind viel höher  als alles, was wir jemals in Labors produzieren können, es sei denn, wir könnten eine Supernova machen. Das bislang höchstenergetische beobachtete kosmische Teilchen war (vermutlich) ein Proton mit der kinetischen Energie eines wuchtig geschlagenen Baseballs, der rund 150 Km/h erreicht. Weil wir eins davon während mehrerer Beobachtungs-Jahrzehnte entdeckt haben, müssen wir annehmen, dass sie ständig kommen – buchstäblich trifft jede Sekunde ein kosmischer Strahl mit dieser Energie die Erde irgenwo (Die Erde ist ein RIESIGES Ziel. Wenn solch eine Kollision mit einer gewissen Wahrscheinlichkeit ein Schwarzes Loch mit der Kraft zur Planetenzerstörung erzeugen könnte, dann wären wir schon vor langer Zeit zu Staub geworden.
Es bleibt daher töricht, den Großen Hadronen-Speicherring oder nukleare Brandstiftung zu fürchten. Falls dies wahrscheinlich wäre, gäbe es uns nicht, die wir einen Großen Hadronen-Speicherring oder Atombomben bauen.

Die Furcht vor dem Klimawandel ist nicht ganz so töricht

Es ist aber nicht ganz so töricht den CO2-anthropogenen Klimawandel zu fürchten. Es stimmt: Wir haben noch nicht lange genug das Klimasystem erforscht, um zu wissen, welche Arten von Rückkoppelungen und Faktoren die multistabilen Klima-Attractoren strukturieren. Deshalb kann man sich seine Weltuntergangsszenarien basteln – Erwärmung bis auf einen kritischen Punkt, der massive Mengen von Methan freisetzt, was zu einer schlagartigen Erderwärmung führt. Das Meer wird sein gesamtes CO2 freisetzen, die Eiskappen werden schmelzen und die Meere kochen. Plötzlich wäre unsere Erde wie die Venus mit einer mittleren Außentemperatur von 200 oC.
Wenn wir uns so etwas ausdenken und niederschreiben können, dann muss es möglich sein, nicht wahr? Science-Fiction Romane in Massen beschäftigen sich genau damit. Oder Filme mit dem Gegenteil: dem Auftauchen von Attractoren, die irgendwie und sofort die gesamte Erde zum Einfrieren bringen und eine Eiszeit verursachen. Schaut, es kann passieren!
Aber ist es wahrscheinlich?
Das oben Gesagte sollte uns ruhig schlafen lassen. Es gibt kaum etwas in der Klimahistorie das auf einen anderen großen stabilen Zustand hindeutet, auf einen anderen Haupt-Attractor, der weit über dem derzeitigen Warmphasen-Attractor läge. Ganz im Gegenteil: die Klima-Geschichte der vergangenen zig Millionen Jahre deutet darauf hin, dass wir uns mitten in einer verlängerten Abkühlungsphase des Planeten befinden, wie sie sich wiederholt während geologischer Zeiträume ereignete, und wir befinden uns im Haupt-Attractor der warmen Phase. Darüber gibt es nichts mehr. Wenn da noch etwas wäre, hätten wir es schon erlebt.
Stattdessen: Die lokalen Variationen und die Oszillation um sie herum hat den vielen kleinen Warmphasen-Attractoren erlaubt, wiederholt Bedingungen zu zeigen, die einen Sprung hätten hervorrufen können, wenn ein solcher überhaupt wahrscheinlich gewesen wäre.
Zumindest müsste es eine Spur von so etwas in der Temperaturhistorie der vergangenen Millionen Jahre geben, aber sie gibt es nicht. Wir sind in einer der längsten und wärmsten der uns bekannten fünf Zwischeneiszeiten. Wir befinden uns nicht am wärmsten Punkt der gegenwärtigen Zwischeneiszeit, dem Holozän. Wenn es wirklich einen wärmeren Attractor gäbe, hätte er sich wahrscheinlich bereits am wärmsten Punkt des Holozäns gezeigt.

Weil das nun wirklich nicht geschehen ist, können wir davon ausgehen, dass die gesamte Rückkoppelung sicher negativ ist, und dass alle “Katastrophe-Hypothesen“ relativ unwahrscheinlich sind.

Wir sollten uns stattdessen eher wegen einer katastrophalen globalen Abkühlung Sorgen machen. Wir wissen, dass es einen Kaltphasen-Hauptattractor von etwa 5-10 oC kühler als heute gibt. Die menschliche Zivilisation ist im Holozän entstanden, und wir sind noch nicht so weit, dass wir einen Umschwung zu eiszeitlichen Konditionen überleben könnten, jedenfalls nicht ohne den Tod von 5 Mrd Menschen und einem wahrscheinlichen Fast-Kollaps der Zivilisation. Wir wissen, dass dieser Übergang nicht nur vorkommen kann, sondern dass dies geschehen wird. Wann, wissen wir nicht, auch nicht, warum, oder wie wir seine generelle Wahrscheinlichkeit abschätzen könnten. Wir wissen ganz bestimmt, dass die Kleine Eiszeit – nurmehr 400-500 Jahre her – die kälteste Periode im gesamten Holozän nach dem jüngeren Trias-Ausreißer war. Ganz allgemein sieht es so aus, dass sich das Holozän von seiner wärmsten Periode her abzukühlen scheint, und das 20. Jh. hat  ein Großes Solares Maximum mit der aktivsten Sonne seit 11.000 Jahren erlebt. Dieses Maximum ist nun vorbei.

Eher Kälte als Wärme

Ich fürchte, wir befinden uns in einer Instabilität, in welcher ein vollständiger Umschwung zu einer kalten Phase wahrscheinlicher ist als uns lieb sein kann, als dass wir uns einer superwarmen Phase näherten, für die es keine Anzeichen in der Klimageschichte gibt. Die Wahrscheinlichkeit für Kälte ist aus zwei Gründen höher:
(1) Anders als für eine superwarme Phase wissen wir: die Kaltphase existiert tatsächlich, und sie ist viel stabiler als die Warmphase. Die “Größe” der quasistabilen Poincare-Zyklus-Schwingungen um den Hauptattractor der Kaltphase ist viel größer als die um die Warmphasen-Attractoren, und kurze Erwärmungsphasen werden oft zequetscht, bevor sie sich in tatsächliche Zwischeneiszeiten wandeln können – daran kann man erkennen, wie stabil sie sind.
(2) Wir haben 90% unserer Zeit in einer eiszeitlichen Phase verbracht, nur 10% in einer Zwischeneiszeit. Das Holozän ist eine der längeren Zwischeneiszeiten! Wir verstehen die über lange Zeitskalen wirkenden Dynamiken noch nicht. Wir haben gerade mal eine erste unklare Idee, was den (im Wesentlichen chaotischen) Übergang von einer warmen in eine kalte Phase oder umgekehrt bewirkt – es gibt sehr vorläufige Ideen über Kombinationen von Milankovich-Zyklen, Neigungen der Ekliptik, Polwanderung, Erdumlauf-Resonanzen, usw. Aber es gibt eine deutliche starke Rückkoppelung innerhalb des Klimazyklus, die das „Umkippen“ in eine Kaltphase bewirken kann, vermutlich hat das etwas mit der Albedo zu tun.
Das könnte etwas so Einfaches wie eine stille Sonne sein; das Maunder-Minimum der Kleinen Eiszeit legt nahe, dass wir eine stille Sonne wirklich fürchten sollten, weil irgend etwas im nicht-linearen Differential-System kältere Attractoren während eines Maunder-artigen Minimums zu bevorzugen scheint (während man sich noch in der Phase des warmen Attractors befindet). Man muss sich vergegenwärtigen, dass der Übergang zur Vereisungszeit wahrscheinlicher am Tiefpunkt von z. B. einer Kleinen Eiszeit liegt, als zu irgend einem anderen Zeitpunkt. Das Holozän lebt vermutlich mit "geborgter" Zeit an einem Punkt, wo es ein Intervall von der Art einer verlängerten Kleinen Eiszeit umkippen könnte.

Eine neue KLEINE EISZEIT wäre schlimmer als eine Erwärmung

Auch nur eine KLEINE EISZEIT wäre eine weit größeres Unglück als alle Katastrophenvorstellungen der Warmisten. Die Weltbevölkerung ist enorm gewachsen seit der letzten Eiszeit. Eine riesiger Anteil lebt in gemäßigten Breiten und kultiviert dort das Land. Frühe Winter mit spätem Frühlingsanfang könnten das verfügbare kultivierbare Land vermindern und die Anzahl der Ernten halbieren, und das bereits vor der totalen Vereisung. Kalte (Warme) Phasen sind oft auch verbunden mit hitzebedingten und tropischen Dürren, zumindest in gewissen Weltteilen. Meines Erachtens könnte der “rasche” Beginn einer KLEINEN EISZEIT eine Milliarde Menschen umbringen, weil es Miss-Ernten in Sibirien, China, Canada und den nördlichen Vereinigten Staaten gäbe. Dies könnte leicht die angespannte politische Weltlage destabilisieren. Ein Weltkrieg würde unsere großen Übel noch mehr verschlimmern.
Wir könnten dann vielleicht wirklich erkennen, dass ein menschengemachter Klimawandel unsere Rettung wäre. Das durch unseren Zivilisationssprung emittierte CO2 könnte die nächste KLEINE EISZEIT abmildern oder verschieben, es könnte den Ausreißer in die Kalt-Phase verhindern und den Beginn der nächsten jahrzehnte- oder jahrhundertelangen WIRKLICHEN Eiszeit verhindern. Inzwischen könnten wir vielleicht zusammenarbeiten und uns Gedanken darüber machen, wie wir in einer zivilisierten Welt zusammenleben könnten, nicht nur in einigen zivilisierten Ländern mit Menschen im Wohlstand und den übrigen Ländern, wo die Menschen arm sind und von einer Handvoll Tyrannen oder religiösen Oligarchen versklavt werden.
Wohlgemerkt, letzteres ist “spekulative Fiktion”. Auch ich verstehe die Klimazyklen nicht völlig (Sie sind ein großes Problem). Aber zumindest kann ich Indizien für eine in der tatsächlichen Klimaaufzeichnung lauernde Katastrophe liefern, sie ist viel weniger “fiktiv” als ein CO2-verursachter Klimawandel.
Dr. Robert Brown; Universität von North Carolina,
Originalbeitrag hier  
Übersetzung: Helmut Jäger, EIKE