Und ewig droht der Weltuntergang

Doch «Snowmageddon» traf nicht ein. Statt von einem Blizzard wurde New York von einem normalen winterlichen Schneegestöber überrascht. Die Kinder freuten sich, die Meteorologen entschuldigten sich für den Fehlalarm und am nächsten Tag pulsierte die Stadt wieder in ihrer gewohnten Hektik.
Amerikaner und speziell New Yorker neigen nicht dazu, zurückzuschauen. Aber vielleicht erinnerte sich doch der eine oder andere daran, was führende Klimawissenschaftler einige Jahre zuvor prophezeit hatten. Gemäss ihnen hätte es Wetterereignisse wie «Juno» oder auch harmlosere Schneevorkommen gar nicht mehr geben dürfen.
Anfang 2000 meinte etwa der englische Klimatologe David Viner, dass «in wenigen Jahren Schneefall in Grossbritannien ein ‹sehr seltenes und aufregendes Ereignis›», ja, «eine Sache der Vergangenheit» sein werde. «Kinder werden nicht mehr wissen, was Schnee ist.» Viner war damals Forscher an der East Anglia University, akademische Hochburg jener einflussreichen Kreise, die vor einer aufziehenden katastrophalen Klimaerwärmung warnen, angeblich verursacht durch den CO2-Ausstoss der industriellen menschlichen Zivilisation. Seine Prognose wurde vom Weltklimarat der Vereinten Nationen (IPCC), dem globalen Politbüro zur Verhinderung der Ökokalypse, mehrfach geteilt.
Schottlands Skilifte konnten im Januar 2013 zwar nicht in Betrieb genommen werden, aber eben nicht, weil es keinen Schnee mehr gab, sondern weil es zu fest geschneit hatte. Sowohl Grossbritannien als auch der Rest der Welt erlebten weiterhin strenge, kalte oder auch mildere Winter – so wie seit Menschengedenken.
Doch auch alle anderen Desasterprognosen erwiesen sich als falsch. Die Eiskappe der nördlichen Arktis löste sich auch in den Sommermonaten nie in Wasser auf und die gewaltigen Eismassen der Antarktis wuchsen zur Freude der Pinguine in den letzten Jahren gar prächtig. Zudem tauchte kein einziger ­«Klimaflüchtling» etwa aus Ozeanien oder der Karibik auf. Dabei hatte das Umweltprogramm der UNO 2005 von Millionen von Vertriebenen geschrieben, deren Inseln bis 2010 in den steigenden Ozeanen absaufen oder von vermehrt auftretenden Tornados verwüstet würden.
Vor allem aber findet seit 18 Jahren keine Klimaerwärmung mehr statt. Dies entgegen sämtlichen Berechnungen aller 73 Klimamodelle des Klimarates. Vom ideologisierten und politisierten UNO-Organ war bis heute allerdings kein Wort über das eigene Versagen zu vernehmen. Umso mehr wäre die unabhängige Skepsis der Medien gefordert. Der Stoff ist faszinierend. Er handelt von einem länderübergreifenden Klimagremium, das wie ein düsterer Katastrophenkult agiert; von Wissenschaftlern, die sich in Schamanen verwandeln; vom riskanten Spiel grüner Lobbyisten mit der archaischen Angst vor der Apokalypse. Doch die meisten Medien weichen dem Thema aus. Sie vermeiden es, sich gegen dem rotgrün beherrschten Zeitgeist und dessen Profiteure in Politik, Akademie und Wirtschaft zu stellen.
Sowohl Grossbritannien als auch der Rest der Welt erlebten weiterhin strenge, kalte oder auch mildere Winter.
Übernommen von ACHGUT hier 




Die Ethik der Energiewende stellt 50 Jahre zuverlässiger Stromversorgung Deutschlands auf den Prüfstand

Eine sofortige Rückkehr zum Statu quo ante durch Entfall des Einspeisevorrangs für Wind- und Solarstrom in einem freien Strommarkt ohne Sondersteuern hätte gravierende wirtschaftliche und politische Verwerfungen zur Folge. Mit an Sicherheit grenzender Wahrscheinlichkeit werden die handelnden Politiker den Status quo der Energiewende 2015 ausbessern, einfrieren und die Probleme in bewährter Manier aussitzen. Am Ende wird es nur Verlierer geben, das vermutet der Autor.

1. Die Einstimmung

Im Jahr 1960 waren 73 Millionen Deutsche mit 2,4% Teil einer Weltbevölkerung von 3 Milliarden Menschen. Im Jahr 2010 war ihre Zahl auf 81 Millionen angestiegen und ihr Anteil an nun 7 Milliarden Menschen auf der Welt hatte sich auf 1,2 % halbiert.
Der jährliche Stromverbrauch der Deutschen stieg Im gleichen Zeitraum von knapp 300 TWh1 auf über 600 TWh an. Der Strombedarf pendelt seit einigen Jahren um diese 600 TWh.
Energieintensive Industrie meidet das Land inzwischen und über die zukünftige Entwicklung der Größe der Bevölkerung wird gestritten. Gegenläufig zum Sinken der Geburtenrate existiert jedoch unverändert ein erhebliches Interesse an Einwanderung. 
Seit dem Ende des zweiten Weltkrieges besorgte zunächst deutsche Steinkohle die Stromversorgung des Landes. Eine viertel Million Arbeitskräfte förderten in Deutschland  „unter Tage“ Steinkohle. 
Braunkohle aus dem „Tagebau“ kam nach der Entwicklung eines für ihre Nutzung erforderlichen speziellen Dampfkessels hinzu, Ihre erheblich geringeren Gewinnungskosten zusammen mit einem Verfall der Preise sowohl für Erdöl als auch für importierte Steinkohle machten deutsche Steinkohle in den 60 er Jahren des vorigen Jahrhunderts hoffnungslos unwirtschaftlich.
Der Strombedarf stieg zu dieser Zeit in den Industrieländern und auch  in Deutschland jährlich um etwa 7%. Seine geographische Lage stellte insbesondere an die Versorgung Süddeutschlands mit Strom besondere Anforderungen.

Politiker und Energieversorger erarbeiteten einvernehmlich eine Lösung des Problems: 

Die Steinkohleförderung soll grundsätzlich sozialverträglich und hinreichend langsam ersetzt werden. Die Mehrkosten bis zum endgültigen Ausstieg aus ihrer Nutzung, der leider auch in 2014 nicht vollständig abgeschlossen wurde, trägt der Steuerzahler.  Die seinerzeit nicht einmal annähernd erahnten Gesamtkosten haben sich inzwischen über regelmäßige Neuverschuldung auf etwa 1 Billion Euro in den Staatsschulden Deutschlands akkumuliert. Ein nachhaltig niedriger Ölpreis schien unwahrscheinlich und schied daher als Alternative aus. Neben der Importkohle kam Kernenergie ins Blickfeld. Mit dem Einsatz von Kernenergie konnte auf den  kostspieligen Energietransport nach Süddeutschland über Stromleitungen verzichtet werden.
Dieses Konzept wurde erfolgreich umgesetzt. Eine sichere, zuverlässige und durch umfassende Abgasreinigung umweltfreundliche Stromversorgung lieferte noch im Jahr 2000 Haushaltstrom zum Preis von 12 Cent/kWh für Tagstrom und etwa 8 Cent/kWh für Nachtstrom an Haushalte und andere Kleinverbraucher. Die Strompreise für industrielle Großverbraucher lagen deutlich darunter.
Erst nach 2000 wurde das lebenswichtige Kohlenstoffdioxid mit der Energiewende in der Stromversorgung Deutschlands signifikant wirksam. Noch im Lande ansässige stromintensive Industrie muss inzwischen durch Subvention gestützt werden. Der Preis für den Haushaltsstrom ist auf 28 Cent/kWh angestiegen. Die für eine zuverlässige Stromersorgung erforderlichen Kapazitätsreserven zuverlässiger Kraftwerke sind geschrumpft, verdrängter Strom  führt in die Verlustzone.

2. Die Energiewende soll „den“ anthropogenen Klimawandel stoppen

Im Jahr 1988 gründen dazu das „United Nations Environment Program“ und die „World Meteorological  Organization“ das „Intergovernmental Panel on Climate Change“, das  IPCC [1]. oder auch Weltklimarat genannt:

 „Es drohe ein gefährliche Erwärmung, ein Klimawandel [2], wenn die Nutzung fossiler Brennstoffe nicht unverzüglich drastisch reduziert, wenn nicht gar völlig eingestellt würde.“

Einer Hinterfragung zur Sache selbst vorangestellt wird folgend zunächst geprüft, ob ein solche drastische Forderung überhaupt global umsetzbar sein könnte und welchen Beitrag die Stromversorgung Deutschlands dazu leisten kann:
Im Jahr 1970 wurden mit Hilfe fossiler Bennstoffe global 5.500 TWh elektrischen Stroms erzeugt.  Diese Strommenge ist bis zum Jahr 2011 auf 14.000 TWh  angestiegen. Das ist ein Anteil von 64%  am Gesamtverbrauch von etwa 22.000 TWh. Die Differenz zum Gesamtverbrauch glichen Wasserkraft mit 14%, Kernenergie mit 9 %, Windkraft und Solarenergie zusammen mit 9 % ergänzt durch einen Beitrag der Biomasse von gut 4% aus. .
Sowohl die Industrialisierung als auch das Wachstum der Weltbevölkerung schreiten fort. Für eine Abschwächung  im Trend der ständig weiter ansteigenden Nutzung fossiler Brennstoffe zur Stromerzeugung ist weder eine realistische Möglichkeit noch ein Indiz  zu erkennen. Auf einer Vielzahl internationaler Konferenzen, einberufen zur Umsetzung der Empfehlung des IPCC , wird folgerichtig de facto lediglich leeres Stroh gedroschen.
Im Jahr 1970 wurden in Deutschland 300 TWh Strom erzeugt. Fossile Brennstoffe waren daran mit etwa 270 TWh beteiligt. Ab 2000 ansteigend verdrängen im Jahr 2014  fluktuierender Wind- und Solarstrom  72,5 TWh, etwa 12% einer jährlich um 600 TWh schwankenden Gesamtmenge. Das reduziert den Beitrag der mit fossilem Brennstoff betriebenen Kraftwerke um 18%. 
Wind und Sonne fallen für Zeiträume bis zu zwei Wochen nahezu komplett aus. Zusätzliche Stromspeicher, die solche Zeiträume überbrücken könnten, sind technisch, wirtschaftlich und ökologisch eine Utopie [3]. Zum Erhalt der Stromersorgung kann daher auf keines der anderen Kraftwerke im Netz verzichtet werden. Selbst eine weitere marginale Steigerung des Beitrages von Wind und Sonne zur Stromerzeugung muss daher eine Illusion bleiben.
Im Zeitraum vom Jahr 2000 bis zum Jahr 2011 hat Kernenergie in Deutschland jährlich mit mindestens 180 TWh, d. h. mit 30%, zur Stromerzeugung beigetragen. Der nach 2011 verbliebene Beitrag von etwa 20% muss in den kommenden Jahren als Folge der gesetzlich fixierten Abschaltung der Kernkraftwerke ersetzt werden. Das können Windkraft, Solarenergie aus den genannten Gründen nicht leisten. Nur eine verstärkte Nutzung fossiler Brennstoffe in zusätzlichen neuen Kraftwerken und Stromtrassen könnte daher die fehlenden Kernkraftwerke ersetzen. Zum Schwerpunkt dieser Aufgabe wird erneut die Stromversorgung Süddeutschlands.  
Die Umsetzung der Energiewende bis zur Abschaltung des letzten Kernkraftwerkes würde aus den genannten Gründen im Vergleich zum Jahr 2010 einen Anstieg des Beitrages fossiler Brennstoffe zur Stromerzeugung um etwa 100 TWh, das sind mehr  als 15%  des gesamten Strombedarfes, erzwingen. 

Fazit:

Die deutsche Energiewende kann die CO2 Freisetzung nicht reduzieren, sondern bewirkt ihre Zunahme. Auch  ein erhoffter Ersatz fossiler Brennstoffe durch Strom in anderen Teilen der Energieversorgung ändert daran nichts.  Darüber hinaus muss entweder der Strompreis weiter signifikant über 28 Cent/kWh hinaus ansteigen, oder Insolvenzen der Betreiber von Kraftwerken, die fossile Brennstoffe zur Stromerzeugung nutzen, beenden eine zuverlässige Stromerversorgung in Deutschland.

3. Ist der Klimawandel Angstobjekt [4] oder Realität [5]?

Für den Fall, dass ein „anthropogener Treibhauseffekt“ tatsächlich existieren sollte,  reduziert sich das Problem Klimawandel auf die Frage ob und in wieweit seine Wirkung als Komponente der stets erforderlichen Anpassung an die natürlichen Klimaänderungen berücksichtigt werden könnte. Die behauptete Existenz eines solchen Effektes wird allein gestützt durch grundsätzlich fragwürdige Modellrechnungen [6]. Natürliche Klimaänderungen können allerdings nicht vorhergesagt, sondern lediglich in der Geschichte der Klimate dokumentiert werden:
Assimilation der Flora hat den CO2 Gehalt der Luft von ursprünglich mindestens 25% auf gegenwärtig 0,04% reduziert, das inzwischen fehlende CO2 in Sauerstoff, Kohle, Erdöl und Erdgas gewandelt und dazu noch Eisenerzvorkommen entstehen lassen 
Während des Zeitraums von 12.000 Jahren nach dem Ende der letzten Eiszeit stiegen die Meeresspiegel jährlich im Mittel um 10 mm an. Dieser Anstieg hat sich seit einigen tausend Jahren auf gegenwärtig 1 – 2 mm/Jahr verringert.
Im Verlauf der letzten 150 Jahre ist eine mittlere Temperatur über der Erdkruste um etwa 0,7 ℃ angestiegen, seit 18 Jahren ändert sich dieser Zahlenwert nicht mehr.
Man muss  sehr stark im Glauben sein, um sich von den Modellrechnungen, die das IPCC als angeblichen Beweis eines anthropogenen Einflusses auf den natürlichen Klimawandel anbietet, ängstigen zu lassen.

4. Aufstieg und Fall der Kernenergie in Deutschland

Das „Atom for Peace“ Programm der USA und der wachsende Strombedarf lösten in Deutschland um 1960 einem fast „revolutionären“ Einstieg in die wirtschaftliche Nutzung der Kernenergie aus. Forschung und Lieferindustrie erreichten 20 Jahre später einen globalen Spitzenplatz. Bis zum Jahr 2011 hatten 17 große Kernkraftwerke fast ein Drittel einer Stromversorgung übernommen, die insgesamt sicher, zuverlässig, umweltfreundlich und preiswert funktionierte. 
Parallel dazu eskalierte (eifrig geschürt) menschliche Angst vor allem Neuen auch gegen Kernenergie. Widerstand organisierte  sich, politisches und kommerzielles Interesse half dabei nach Kräften. Ein erwarteter Zuwachs des Strombedarfes von jährlich bis zu 7% setzte sich nicht fort, so dass – bedingt durch eine Vorlaufzeit von etwa 10 Jahren zwischen der Entscheidung zum Bau eines Kraftwerkes bis zu seiner Inbetriebnahme – zwangsläufig eine Überkapazität entstehen musste.
So wurde es möglich und politisch opportun, den Aufstieg der Kernenergie zu beenden und den Ausstieg einzuleiten. Die Forschung wurde eingestellt. Restlaufzeiten der Kernkraftwerke wurden gesetzlich festgeschrieben. Das alles geschah, obwohl deutsche Kernkraftwerke – nach wie vor – als die sichersten der Welt gelten. Die Lieferindustrie hatte keine Wahl, eine Aufgabe des Geschäftszweiges Kernenergie war unter diesen Umständen unvermeidbar. – Die Wartung deutscher Kernkraftwerke blieb durch potente ausländische Industrie gesichert.
Als die Laufzeiten der Kernkraftwerke verlängert wurden, schien es, als sei die globale Vernunft im Begriff, nach Deutschland zurückzukehren. Doch eine Naturkatastrophe in Fukushima, Japan, im März 2011 zerstörte auch solchen Hoffnungsschimmer:
Obwohl die zuständige Reaktorsicherheitskommission im japanischen Reaktorunfall  keine Relevanz für Deutschland erkennen konnte, wurden in einer Panikreaktion 8 der 17 Kernkraftwerke abgeschaltet. Japan setzt dagegen die Nutzung der Kernenergie fort. Dieser Alleingang Deutschlands war damals und ist auch heute rational nicht zu begründen. Helfen mussten daher Fachfremde, die „endlich herausfanden“, dass Kernenergie in Deutschland nicht mit der Ethik vereinbar sei, Zitat: 

Der Ausstieg ist nötig und wird empfohlen, um Risiken, die von der Kernkraft in Deutschland ausgehen, in Zukunft auszuschließen. Es ist möglich, weil es risikoärmere Alternativen gibt. Der Ausstieg soll so gestaltet werden, dass die Wettbewerbsfähigkeit der Industrie und des Wirtschaftsstandortes nicht gefährdet wird. Durch Wissenschaft und Forschung, technologische Entwicklungen sowie die unternehmerische Initiative zur Entwicklung neuer Geschäftsmodelle einer nachhaltigen Wirtschaft verfügt Deutschland über Alternativen: Stromerzeugung aus Wind, Sonne, Wasser, Geothermie, Biomasse, die effizientere Nutzung gesteigerte Produktivität von Energie sowie klimagerecht eingesetzte fossile Energieträger. Auch veränderte Lebensstile der Menschen helfen Energie einzusparen, wenn diese die Natur respektieren und als Grundlage der Schöpfung erhalten.“

Dazu nur folgende Anmerkung: Wenn künftig Ethiker exklusiv und unbelastet von jeder Fachkunde die Bewertung der Risiken des Lebens vornehmen und über ihre Akzeptanz entscheiden sollen, läuft gegenwärtig fast nichts richtig in Deutschland.  
Zur Erinnerung: Der Reaktorunfall in Fukushima als Folge einer Naturkatastrophe hat zum Glück nicht einmal die Gesundheit eines einzigen Menschen in Gefahr gebracht!

6. Die Suche nach den Schuldigen

Die Suche nach den Schuldigen, das Aufspüren der Täter und selbst ihre Bestrafung können entstandenen und fortschreitenden Schaden niemals beseitigen. An der Energiewende haben sehr viele gewerkelt:
Das IPCC, die Leichtgläubigen,  die Scharlatane, die Opportunisten in Politik, Wirtschaft und in vielen Bereichen des gesellschaftlichen Lebens. Ohne Wertung der jeweiligen Beteiligung folgend einige Beispiele:
Wer keinen Markt für Gas-, Kohle-, oder Kernkraftwerke hat, liefert gern Windmühlen als Ersatz, hinter denen Andere ein versprochenes, durch Verbraucher (zwangs-) subventioniertes Geschäft wittern.
Ein Elektriker, der zu wenige Neubauten findet, installiert mit Fleiß Solarzellen auf Dächern, unter denen Menschen leben, die eine zuverlässig fließende Nebeneinnahme erwarten.
Grüne Politiker erkennen die Möglichkeit, Wählerstimmen zu sammeln, SPD Politiker können das nicht überhand nehmen lassen und steigen ein, CDU/CSU Nachläufer nutzen eine günstige Gelegenheit um auch einen Platz auf der Lokomotive des „Wählerzuges“ zu besetzen. 
Die öffentlich rechtlichen Sendeanstalten folgen ihrem (Rundfunk) Rat, der doch völlig neutral von allen Parteien besetzt wird und „verkünden zuverlässig Energiewende“:
Die Presse ist eine kommerzielle Veranstaltung, die sowohl von hilfreicher Information, als auch von Werbung lebt. Warum also Streit suchen?
Diese unvollständige Liste ergänzt eine gläubige Mehrheit der „Klimawandel Gläubigen“, die inzwischen sogar die Kindertagestätten erreicht hat. 
Es melden sich seit vielen Jahren auch einige Menschen zu Wort, die vorgeben Fachleute zu sein. Sie nörgeln, nörgeln und nörgeln noch einmal, – Das kann und darf doch Niemanden davon abhalten, die „Kuh Energiewende“ aufs Eis zu treiben. Das Eis ist inzwischen leider so dünn geworden, dass die Kuh – für alle sichtbar -einbrechen und ertrinken könnte.

7. Die „Energiewende“ ist trotz gegenteiliger Fakten und Argumente inzwischen stabil:

Es ist die normative Macht des Faktischen die zuverlässig schnelle und signifikante Änderungen des Status quo ausschließt.
Der Ratio konstatiert:   
Für den Fall, dass der feste Glaube an den Klimawandel erschüttert werden könnte, würde eine sofortige Rückkehr zum „Status quo ante“ die sichere, zuverlässige, umweltfreundliche und preisgünstige Stromversorgung wieder herstellen. 
Dann müssten jedoch (im Wesentlichen):

deutsche Politiker zugeben, dass sie (vorsätzlich oder fahrlässig) teils Scharlatanen auf den Leim gegangen sind, teils den Rat von Fachleuten missachtet haben, teils nur ihre Wiederwahl betrieben haben.

Das Vertrauen in die parlamentarische Demokratie wäre (zu Unrecht) erschüttert, das Vertrauen in die handelnden Personen (zu Recht) ebenfalls. Ihre Wiederwahl würde zur Illusion. – Beimischung direkter Demokratie bekäme endlich auch in Deutschland eine Chance.

– alle Subventionen und Sonderrechte für Stromlieferung ersatzlos entfallen.

Wind- und Solarstrom sind dann an einer Strombörse weitgehend unverkäuflich, die Investition daher im Handel wertlos, die Eigennutzung  wird sogar spezifisch teurer, wenn eine Netzanbindung nötig wird.

– alle Kraftwerke (auch die abgeschalteten 8 Kernkraftwerke) wieder eine uneingeschränkte Betriebserlaubnis erhalten, solange sie ihre Eignung für den Betrieb (wie auch in der Vergangenheit stets erforderlich) nachweisen.

Die Betreiber der zur Versorgung unverzichtbaren Kraftwerke würden die Verlustzone verlassen. Die Investition in Kraftwerke würde wieder kalkulierbar und die Stromerzeugung selbst wieder optimierbar. Der Preis für Haushaltsstrom würde sich etwa halbieren.
Es ist in der Geschichte allerdings weitgehend unbekannt, dass auf Macht freiwillig verzichtet wird. Vielleicht war Gorbatschow unter dem Druck der Fakten eine solche Ausnahmeerscheinung. Im vorliegenden Fall bilden die Politiker aller zu beachtenden deutschen Parteien eine Phalanx, deren Verhalten z. B. mit dem einer Elefantenherde verglichen werden kann. „Man ist gemeinsam so stark, dass die Möglichkeit einer freiwilligen Richtungsänderung ausgeschlossen werden muss.“           
Literatur
[1]. Die Aktivitäten des IPCC:
http://www.ipcc.ch/activities/activities.shtml
[2] IPCC Fifth Assessment report
http://www.ipcc.ch/report/ar5/
[3] Kernenergie, Windkraft und Pumpspeicher
https://de.scribd.com/doc/129978934/Kernenergie-Windkraft-und-Pumpspeicher-docx
[4] Angst auf Objektsuche wählt Klimawandel und Energiewende
http://de.scribd.com/doc/190496647/Angst-auf-Objektsuche-wahlt-Klimawandel-und-Energiewende
[5] Klimaänderung, ein Buch mit sieben Siegeln
https://de.scribd.com/doc/251222131/Klimaa-nderung-ein-Buch-mit-sieben-Siegeln
[6] Fakten, die Klimapolitik beachten sollte.
https://de.scribd.com/doc/245220065/Fakten-Die-Klimapolitik-beachten-sollte?post_id=100005110448729_335951823251830#_=_


1 1 Terawattstunde [TWh] = 1 000.000.000 Kilowattstunden [kWh]




Direktor des MPI für Meteorologie Jochem Marotzke findet den Zufall als Begründung warum die Modelle alle falsch liegen

Warum CO2 ohne Bildungskatastrophe wichtigstes Kühlmittel ist!

Trotz Bildungsexplosion, Internet und Google verstehen die allermeisten Menschen heute nicht, warum die Sonne genügend Energie liefert, um praktisch beliebig viele Menschen auf der Erde und noch wesentlich mehr im Weltall in Wohlstand, immer besserer Gesundheit und immer glücklicher leben zu lassen. Dahinter verbirgt sich eine Bildungskatastrophe unvorstellbaren Ausmaßes, die zum Beispiel in meiner Familie einen gewissen Höhepunkt erkennen lässt: Selbst mein viertes und jüngstes Kind, welches als einziges in die naturwissenschaftlichen Fußstapfen seines Vater getreten ist und an der Universität Marburg gerade mit seiner Doktorarbeit in Molekularer Genetik befasst ist, die einfachen naturwissenschaftlichen Regeln nicht mehr anwendet, die seinem Vater die Gewissheit vermitteln, dass mit einem einfachen Infrarot-Strahlungsthermometer experimentell gezeigt werden kann, dass CO2 das wichtigste Kühlmittel der Erde ist, während wissenschaftliche Gesellschaften wie die Max-Planck-Gesellschaft oder der UN-Weltklimarat über Politik und Medien seit Jahrzehnten das genaue Gegenteil verkünden.
Gerade schreibt der Direktor des Hamburger Max-Planck-Instituts für Meteorologie, Herr Prof. Dr. Jochem Marotzke, diesen Satz, der über dpa in fast allen Tageszeitungen zu lesen war: "Im 21. Jahrhundert hat sich die Erde deutlich schwächer erwärmt, als sämtliche Modelle vorhersagen – das war nur Zufall. Skeptikern, die immer noch am menschengemachten Klimawandel zweifeln, bricht nun eines ihrer letzten Argumente weg: Zwar gibt es eine Erwärmungspause, die Erdoberfläche hat sich seit der Jahrtausendwende also deutlich schwächer aufgeheizt, als sämtliche relevanten Klimamodelle vorhergesagt hatten.
Das „Lügenmärchen“ dieses Professors beginnt schon damit, dass es keine Skeptiker gibt, die an Menschen gemachten Klimaeinflüssen zweifeln. Jeder der mit dem Fahrrad aus einem Wald kommend in eine Stadt fährt, nimmt wahr, dass es in der Stadt wärmer ist als auf dem freien Feld oder gar im Wald. Das wissen alle. Die Skeptiker zweifeln insofern nicht an anthropogenen Wirkungen, sondern ganz genau fokussiert am experimentell nicht nachweisbaren, sogenannten anthropogenen Zusatztreibhauseffekt des CO2. Öffentlich die Skeptiker falsch darzustellen, gehört zu der Art niederträchtiger Lügen, wie sie heute in der „Demokratie der Parteien“ als quasi selbstverständlich praktiziert werden.
Jeder Abiturient mit einer vernünftigen Note in Deutsch muss logisch schlüssige Aufsätze schreiben können. Für eine logische Konstruktion wie diese von Prof. Marotzke muss es ein glattes Mangelhaft geben: „Keiner der physikalischen Gründe erklärt die Streuung der Prognosen und die Abweichung von den Messungen, der Zufall dagegen sehr wohl.“ Man stelle sich das vor: Der Zufall soll fähig sein, einen Sachverhalt zu erklären! Unerklärte Streuung und Zufall, sind ein und das selbe. Keines von beiden erklärt das andere! Das ist so als würde die Milch erklären: „Meine weiße Farbe erklärt sich daraus, dass ich eben Milch bin!“ In welcher Zeit leben wir heute eigentlich? Das Lesen Tausende von geschulten Journalisten, Parteiexperten aller politischen Richtungen, Professoren und Richter, interessierte und für ihr normales Leben gut ausgebildete Normalbürger. Und alle nehmen das so hin? Der Grund ist vermutlich ganz einfach. Keine Sau interessiert sich mehr für diese Art von öffentlich verbreiteten „Lügenmärchen“.
Aber für den interessierten Leser muss dieses ganze „Lügenmärchen“ noch tiefer gehend dargestellt werden. Die rechte Spalte der Internetseite des Max-Planck-Instituts dieser Pressemitteilung (http://www.mpg.de/8914929/klimawandel-erwaermungspause) bietet einen Videoclip an. Dieser erklärt, wie Klimamodelle entstehen und wie sie durch Lösen von Differentialgleichungen funktionieren. Dazu werden Parameter verwendet, die die gesamte Physik in korrekter Weise abbilden sollen. Die zwei wichtigsten Parameter werden namentlich genannt: Luftdruck und Temperatur. Weitere Parameter werden nicht genannt. Vor allem wird der entscheidende Parameter, die CO2 Wirkung, nicht näher benannt und auch nicht näher beschrieben!
Als Fachmann weiß man, unter den ‚weiteren Parametern‘ gibt es dann auch Parameter für die Erwärmung durch CO2. Diese sind der verheimlichte „Pudels Kern“, wenn es um die CO2 bedingte Temperaturentwicklung geht. Fest steht, dass Parameter für die CO2 Verdoppelung von 360 auf 720 ppm sehr gering ist im Vergleich zu den effektiven Temperaturparametern: Sonne, Wolken, Aerosole, Strömungen von Atmosphäre und Ozeanen, Vulkanen an Land und den zahlreicheren unter dem Meer, Landnutzungsänderungen durch die Biosphäre selbst und durch den Menschen (Stadteffekt oder wissenschaftlich UHI – urban heat islands). Alle Parameter mit Auswirkung auf die Temperatur werden als Energieflussinkremente dargestellt, welche die Klimamodellierer als ‚forcing‘ bezeichnen. Die Dimension des ‚forcing’ ist W/m2.
Einigkeit soll darüber bestehen, dass das tatsächliche ‚forcing’ des CO2 experimentell nicht geklärt werden kann. Daher spricht selbst der UN-Weltklimarat immer nur von Wahrscheinlichkeiten, nie von Gewissheit. Deshalb arbeiten die Klimamodelle mit unterschiedlich wirkungsvollen Parametern für das CO2 ‚forcing’ und lassen so CO2 weniger empfindlich, empfindlich und sehr empfindlich wirken. Zahlenwerte dazu könnten sein: +1, +3 und +5 W/m2 (die genauen Werte sind unbekannt!). Jeder dieser drei Werte für die CO2 Empfindlichkeit bedeutete aber unter dem Strich immer eine Erwärmung durch CO2. Dass CO2 keine Wirkung hätte, also der Wert 0 W/m2 für das CO2 ‚forcing’, wird von vorne herein ausgeschlossen. Völlig ausgeschlossen ist auch eine mögliche kühlende Wirkung von CO2 etwa ein Wert von -0,9 W/m2.
Legt man aber die tatsächlichen Energieflüsse laut NASA oder auch laut IPCC zugrunde, ergibt sich für CO2 eine Kühlwirkung, die rechnerisch zu diesen maximal -0,9 W/m2 abgeschätzt werden kann.
Energieflüsse werden in der Physik aus den gemessenen Temperaturdifferenzen zwischen warmem und kaltem Körper berechnet. Bei Heizplatte (Quelle) und Kochtopf (Senke) erfasst man damit den gesamten Energiefluss, der auch Anteile an Strahlungsfluss enthalten kann. Will man wissen, ob auch wirklich Strahlungsfluss beteiligt ist, muss man die Temperaturen von Quelle und Senke zusätzlich auch noch mit einem Strahlungsthermometer messen. Ergeben sich dabei unterschiedliche Temperaturwerte dann zeigt das, es findet auch Strahlungsfluss statt.
Die wichtigste Quelle für Strahlungsenergie ist die 6000°C heiße Sonne, die wichtigste Senke das –273,15°C kalte Weltall. Damit ist klar, dass Strahlungsenergieflüsse in die Erdoberfläche hinein unter Erwärmung und aus der Erdoberfläche heraus unter Kühlung immer sowohl durch klassische wie durch Strahlungstemperaturmessung gemessen werden müssten.
Die Meteorologie misst aber grundsätzlich nur die meteorologische Temperatur auf klassische Art und Weise in 2 m hohen Wetterhütten. Für Energieflüsse in den Boden hinein und aus dem Boden heraus interessieren sich die Wetterfrösche nicht. Tatsächlich ist der klassische Energiefluss zwischen Boden und Luft auch meteorologisch ohne große Bedeutung, weil die Wärmekapazität der Luftsäule von 2 m Höhe gegenüber der Wärmekapazität der Erdoberfläche keine große Rolle spielt.
Beim Energieaustausch durch Strahlung ist das aber ganz anders. Das zeigen die Strahlungstemperaturen von Boden und Luft, genauer gesagt die der Luft, denn die Bodentemperaturen sind gleich groß egal ob klassisch gemessen und als Strahlung. Die Lufttemperaturen sind demgegenüber völlig unterschiedlich und zeigen als Strahlung gemessen die gewaltige Strahlungskühlwirkung der Atmosphäre, die ja zu Ende gedacht nur die Strahlungskühlwirkung des Weltalls darstellt.
Das Phantastische an den Messungen der Strahlungstemperatur der Luft ist, dass hier ganz analog zum Kälteempfinden des Menschen in der freien Natur die Wetterlage über die Kühlung des Bodens durch die Atmosphäre entscheidet und dass sie überall und von jedermann selbst nachvollzogen werden können für 18 Euro beim Discounter. Die meteorologische Messung der Lufttemperatur in der Wetterhütte bekommt davon rein gar nichts mit!
Bei Regen sind die Temperaturdifferenzen mit –2 bis -3°C gering. Bei Wolken sind die Differenzen deutlich größer mit –7 bis –10°C und bei klarem Himmel werden die Differenzen sehr groß bis zu –30°C. Klassische meteorologische Temperaturmessungen in der Wetterhütte würden diese Unterschiede der Lufttemperatur gar nicht anzeigen, daher die „gefühlten Lufttemperaturen“!
Insgesamt aber zeigen all diese Temperaturmesswert, dass eine Erwärmung der Erdoberfläche durch die Atmosphäre nicht stattfindet. Ein erwärmender Treibhauseffekt der Atmosphäre, der in den Klimamodellen als Parameter fest eingebaut ist, existiert in Wirklichkeit nicht.
Für den Chemiker ist „Luft“ nicht nur einfach „die Atmosphäre“ wie für Meteorologen, Klimatologen, Physiker oder Ökonom, sondern eine Gasmischung aus den IR-inaktiven Hauptbestandteilen Stickstoff und Sauerstoff und den IR-aktiven Spurengasen H2O und CO2. Weiß wirklich nur ein Physikochemiker, dass die Vermittlung der unendlichen Kühlungssenke des Weltalls an die Atmosphäre über diese IR-aktiven Spurengase erfolgt und nicht über die IR-inaktiven Hauptbestandteile? Eigentlich sollte das heute jeder Mittelschüler wissen. Und er sollte auch wissen, dass das IR-aktive Spurengas Wasserdampf H2O(Gas) kondensiert zu H2O(Flüssig) und zu H2O(Fest). Die Folge davon ist, dass hoch oben in der Atmosphäre kein H2O(Gas) mehr vorhanden ist. Damit erfolgt die Hauptkühlung der Atmosphäre in Weltallnähe nur noch durch CO2. Jeder Mensch mit guter Allgemeinbildung, der guten Willens ist, kann sich so auf ganz einfache Weise selbst klar machen, dass CO2 das wichtigste Kühlmittel der Erde ist. (mehr dazu unter: www.gerhard-stehlik.de)




Haben “Erneuerbare Energien” uns vor einem Strompreis-Schock bewahrt?

Zentraler Punkt des Diskussionspapiers (die Macher sprechen anders als die meisten Presseartikel nicht von einer Studie) ist der preissenkende Effekt, den die “Erneuerbaren” auf den „Day-Ahead“-Handel, also auf den kurzfristigen Spotmarkt, ausüben. Dadurch, dass Strom aus Wind und Sonne zum Preis von 0 Cent pro kWh auf den Spotmarkt strömen, wann immer sie anfallen, drückt das dort die Preise nach unten. Der Preis von 0 Cent ergibt sich daraus, dass der Strom bereits vorher durch die EEG-Zwangsabgabe gezahlt wurde.

Hypothetische Preiseffekte

Beziffert wird diese Preissenkung mit 5,29 Cent pro KWh. Woher die Zahl kommt wird nicht klar, man kann sie für recht hoch halten. Die Preise beim Day-Ahead-Handel haben in den letzten 12 Jahren stark geschwankt, aber der Unterschied zwischen dem höchsten und niedrigsten Preis betrug in diesem Zeitraum maximal 4 Cent/kWh. Begründet wird der starke angenommene Anstieg damit, dass mit dem Abschalten der Kernkraftwerke in Deutschland das Gleichgewicht zwischen Angebot und Nachfrage stark gestört worden wäre, was sich eben in den Preisen widerspiegelt.
Abb 1: Entwicklung Staatsanteil der Strompreise, Bildquelle: Bundesverband der Energie- und Wasserwirtschaft
Das Diskussionspapier geht bei dieser hypothetischen Betrachtung von einigen Annahmen aus, die mit der Realität wenig zu tun haben. Erstens wird vorausgesetzt, dass es ohne “Erneuerbare” zu einer Verknappung von Strom gekommen wäre. Da wäre vielleicht kurzfristig so gekommen, aber in einem funktionierenden Markt hätten die dadurch steigenden Preise automatisch dafür gesorgt, dass neue Kraftwerke gebaut worden wären. Hohe Preise bedeuten schließlich, dass man mit seiner Investition so gutes Geld verdienen kann.

Abb, 2: Die Entwicklung des Spotmarkt-Strompreises von 2002 bis 2014. Quelle: Fraunhofer ISE

“Erneuerbare” als Lösung für selbst geschaffene Probleme

Dass solche Investitionen in den letzten Jahren nicht stattfanden, umgekehrt sogar immer mehr Kraftwerke stillgelegt werden sollen, liegt ja gerade daran, dass sich deren Betrieb wegen des niedrigen Börsenstrompreises nicht mehr lohnt. Die Realität ist also, dass die über das EEG bezahlte und dann zu Null Grenzkosten und mit Vorrang in die Strombörse gedrückten “Erneuerbaren” Energien den klassischen Strommarkt zerstört haben und jetzt in diesem Papier als Lösung für ein Problem ausgegeben werden, für das sie selbst die Ursache sind.
Ein zweiter zentraler Punkt ist das Zustandekommen der vorgeblichen 11,2 Milliarden Euro, den die Stromkunden durch die “Erneuerbaren” Energien gespart haben sollen. Die Zahl ergibt sich, wenn man die (unter dubiosen Umständen ermittelten) 5,29 Cent pro KWh mit dem Nettostromverbrauch von Deutschland im Jahr 2013 in Höhe von 596 Terawattstunden multipliziert (das ergibt 31,6 Mrd. Euro) und davon die 20,4 Mrd. Euro abzieht, die in diesem Jahr an EEG-Subventionen netto ausbezahlt worden sind.

Spotmarkt nicht gleich Strommarkt

Dabei wird stillschweigend davon ausgegangen, dass die hypothetische Preiserhöhung am Spotmarkt den gesamten gehandelten Strom betroffen hätte. Das ist aber überhaupt nicht der Fall. 2013 wurde 21,5% des Stroms am Spotmarkt gehandelt, der Rest über Langfristverträge am Terminmarkt. Die Mehrkosten hätten demnach nur 6,8 Mrd. Euro betragen, nicht 31,6 Mrd. Mit dieser Zahl hätte sich aber ergeben, dass die Verbraucher durch das EEG im jahr 2013 nicht 11,2 Mrd. Euro gespart, sondern 13,6 Mrd. Euro zu viel gezahlt hätten.
Dass dies nicht im Sinne der Autoren des Diskussionspapiers sein konnte, ergibt sich, wenn man sich ansieht unter welcher Prämisse die Zusammenarbeit zwischen Siemens der Universität Erlangen-Nürnberg gestartet ist, aus der dieses Papier schließlich hervorgegangen ist:
Zukünftig werden Siemens und die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) bei der Erforschung nachhaltiger, bezahlbarer und zuverlässiger Energiesysteme zusammenarbeiten. Dies geht aus einer Pressemitteilung der FAU hervor. Gemeinsam sollen innovative wettbewerbsfähige Systeme entwickelt werden, die zum Erfolg der Energiewende beitragen sollen
Ob die “Erneuerbaren” Energien innovativ im eigentlichen Sinne sind, darüber mag man gewiss streiten. Dass sie nicht wettbewerbsfähig sind erkennt man allein schon an der Tatsache, dass deren Bau und Betrieb durch Subventionierung über das Erneuerbare-Energien-Gesetz (EEG) gefördert werden muss. Dass dadurch die Strompreise nicht sinken, sondern stetig steigen, sieht jeder auf seiner Stromrechnung. Dass ein Konzern wie Siemens, der über seine Windkraftsparte enorm von dieser Entwicklung profitiert, ein Interesse daran hat, die “Erneuerbaren aber trotzdem als wettbewerbsfähig, ja gar als kostensenkend, darzustellen, liegt auf der Hand. Und mit Prof. Dr. Jürgen Karl vom Lehrstuhl für Energieverfahrenstechnik an der Universität Erlangen-Nürnberg scheint sich auch jemand gefunden zu haben der bereit ist, dieser Aussage wissenschaftliche Weihen zu verleihen.
Der Beitrag erschien zuerst bei ScienceSceptical




Wärmer oder kälter? AWI-Studie zur Klimageschichte Sibiriens der letzten 7000 Jahre gibt Rätsel auf

Die Ergebnisse der Untersuchungen gab das AWI am 26. Januar 2015 per Pressemitteilung bekannt:

Winter in sibirischen Permafrostregionen werden seit Jahrtausenden wärmer
Wissenschaftlern des Alfred-Wegener-Institutes, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) ist es erstmals gelungen, mit einer geochemischen Methode aus der Gletscherforschung Klimadaten aus Jahrtausende altem Permafrost-Grundeis zu entschlüsseln und die Wintertemperatur-Entwicklung im russischen Lena-Delta zu rekonstruieren. Ihr Fazit: In den zurückliegenden 7000 Jahren ist die Wintertemperatur in den sibirischen Permafrostregionen langfristig gestiegen. Als Grund für diese Erwärmung nennen die Forscher eine sich ändernde Stellung der Erde zur Sonne, verstärkt durch den steigenden Ausstoß von Treibhausgasen seit Beginn der Industrialisierung. Die Studie erscheint als Titelgeschichte der Februar-Ausgabe des Fachmagazins Nature Geoscience und heute vorab schon einmal online.

Was bedeuten diese Resultate? Zugegeben handelt es sich um eine für Laien komplexe Thematik. Es geht um schwierige geochemische Methoden, schwer fassbare lange Zeiträume, eine behauptete Verknüpfung mit der anthropogenen Klimaerwärmung sowie Milankovic-Zyklik. All das spielt im fernen Sibirien, das vermutlich kaum einer der Leser genauer kennt. Hängenbleiben wird beim ersten Überfliegen der Pressemitteilung „Klimaerwärmung seit tausenden von Jahren, Industrialisierung, Treibhausgase“. Seht her, da ist ein weiterer Beweis für unser frevelhaftes Tun und die unaufhaltbare Klimakatastrophe in Zeitlupe. Aber nicht so schnell. Lassen Sie uns die Komponenten der Studie einzeln diskutieren und auf ihre Gültigkeit und Bedeutung überprüfen.

Langfristige Erwärmung der Winter im Verlauf der letzten 7000 Jahre

Ein übraus interessantes Resultat: Eine langfristige, natürliche Erwärmung der Winter im Untersuchungsgebiet in den letzten Jahrtausenden. Exakte Temperaturwerte können die AWI-Forscher nicht angeben, wie das AWI in seiner Pressemitteilung erläutert:

Um wie viel Grad Celsius genau die arktischen Winter wärmer geworden sind, können die Wissenschaftler nicht in absoluten Zahlen sagen: „Das Ergebnis der Sauerstoff-Isotopenanalyse verrät uns zunächst nur, ob und wie sich das Isotopenverhältnis verändert hat. Steigt es, sprechen wir von einer relativen Erwärmung. Wie groß diese allerdings genau ausgefallen ist, können wir noch nicht ohne Weiteres sagen“, erklärt Thomas Opel.

Aber es wäre sicher ganz nett gewesen, wenn eine ungefähre Temperaturabschätzung erwähnt worden wäre. Die heutigen Wintertemperaturen betragen im Lenadelta minus 30 Grad bis minus 40 Grad, wie die Encyclopaedia Brittanica weiß:

The climatic features of the Lena River basin are determined by its location, with its upper course well inside the continent and its lower course in the Arctic. In winter the powerful Siberian anticyclone (high-pressure system) forms and dominates all of eastern Siberia. Because of the anticyclone, the winter is notable for its clear skies and lack of wind. Temperatures fall as low as −60 to −70 °C, with average air temperature in January ranging from −30 to −40 °C. In July averages range between 10 and 20 °C.

Nun war es laut AWI vor ein paar tausend Jahren also noch etwas kälter, sagen wir einfach mal minus 45 Grad, nur um einen Wert zu haben. Es geht also in der ganzen Geschichte um eine Winter-„Erwärmung“ die sich von „sehr, sehr super saukalt“ hin zu „immer noch sehr super saukalt“ entwickelt hat. Bei Nennung dieser Temperaturen hätte vielleicht dem einen oder anderen Leser die Idee kommen können, dass die Winter-Erwärmung der Gegend zweitrangig ist und möglicherweise sogar ganz gut getan hätte.
Nun könnte man sagen, ja, im Winter ist die Entwicklung wohl eher weniger interessant. Wie sieht es denn im Sommer aus, wo laut Encyclopaedia Brittanica heute mit bis zu 20°C zu rechnen ist? Müssen wir hier Angst vor einer „arktischen Turboerwärmung“ haben? Die AWI-Pressemitteilung erklärt etwas verklausuliert, dass Rekonstruktionen der Sommertemperaturen eine gegenteilige Entwicklung anzeigen: In den letzten Jahrtausenden ist es in Sibirien immer kälter geworden:

Die neuen Daten sind die ersten eindeutig datierten Wintertemperaturdaten aus der sibirischen Permafrostregion und zeigen einen klaren Trend: „In den zurückliegenden 7000 Jahren sind die Winter im Lena-Delta kontinuierlich wärmer geworden – eine Entwicklung, die wir so bisher aus kaum einem anderen arktischen Klimaarchiv kennen“, sagt Hanno Meyer. Denn: „Bisher wurden vor allem fossile Pollen, Kieselalgen oder Baumringe aus der Arktis genutzt, um das Klima der Vergangenheit zu rekonstruieren. Sie aber speichern vor allem Temperaturinformationen aus dem Sommer, wenn die Pflanzen wachsen und blühen. Die Eiskeile stellen eines der wenigen Archive dar, in denen reine Winterdaten gespeichert werden“, erklärt der Permafrost-Experte.  Mit den neuen Daten schließen die Wissenschaftler zudem eine wichtige Lücke: „Die meisten Klimamodelle zeigen für die zurückliegenden 7000 Jahre in der Arktis eine langfristige Abkühlung im Sommer sowie eine langfristige Erwärmung im Winter an. Für letztere aber gab es bisher keine Temperaturdaten, eben weil die meisten Klimaarchive hauptsächlich Sommerinformationen speichern. Jetzt können wir zum ersten Mal zeigen, dass Eiskeile ähnliche Winterinformationen enthalten wie sie von den Klimamodellen simuliert werden“, so AWI-Modellierer und Ko-Autor Dr. Thomas Laepple.

Noch klarer wird es in der offiziellen Kurzfassung der Arbeit (Auszug):

Relative to the past 2,000 years12, the Arctic region has warmed significantly over the past few decades. However, the evolution of Arctic temperatures during the rest of the Holocene is less clear. Proxy reconstructions, suggest a long-term cooling trend throughout the mid- to late Holocene345, whereas climate model simulations show only minor changes or even warming67,8

Bei den genannten Literaturzitate 3 bis 5 handelt es sich um:

3. Marcott, S. A., Shakun, J. D., Clark, P. U. & Mix, A. C. A reconstruction of regional and global temperature for the past 11,300 years. Science 339, 1198_1201 (2013).
4. Vinther, B. M. et al. Holocene thinning of the Greenland ice sheet. Nature 461, 385_388 (2009).
5. Wanner, H. et al. Mid- to Late Holocene climate change: An overview. Quat. Sci. Rev. 27, 1791_1828 (2008).

Gerne hätte an dieser Stelle auch einer Arbeit einer internationalen Forschergruppe um Benoit Lecavalier von der University of Ottawa aus dem März 2013 in den Quaternary Science Reviews erwähnt werden können. Die Forscher fanden, dass sich Grönland in den letzten 8000 Jahren um etwa 2,5°C abgekühlt hat (siehe „Ein Thema das die Medien meiden wie der Teufel das Weihwasser: Vor 5000 Jahren war es in Grönland zwei bis drei Grad wärmer als heute”).
Die Sommer wurden in den letzten 7000 Jahren kälter und die Winter wärmer. So kann man den aktuellen Erkenntnisstand zusammenfassen. Ursache für diesen Langzeittrend sind die Milankovic-Zyklen, die auf Veränderungen der Erdbahnparameter zurückzuführen sind. Dies sind langfristige Zyklen im Bereich von 20.000 bis 100.000 Jahre, die für die aktuelle Klimadiskussion keine große Rolle spielen. Sie sind auch die Ursache für das sogenannte mittelholozäne Klimaoptimum, als die globalen Temperaturen vor 7000 Jahren um zwei Grad höher lagen als heute.
Während die Hauptstory, nämlich die Erwärmung der sibirischen Winter in den letzten Jahrtausenden, durchaus plausibel erscheint, muss man sich doch wundern, weshalb die zeitgleiche Sommer-Abkühlung nicht besser in der AWI-Pressemitteilung herausgearbeitet wurde. Letztendlich geht es neben den Jahreszeiten doch auch darum, wie sich der Jahresmittelwert entwickelt hat. Dazu kein Kommentar vom AWI.
Zu klären wäre auch, weshalb die AWI-Presseabteilung nicht schon einige Monate zuvor aktiv geworden ist, als ein ebenfalls von Hanno Meyer angeführtes Forscherteam im September 2014 im Fachblatt Global and Planetary Change eine Studie zu Kamschatka publizierte. Die Forscher rekonstruierten die Temperaturen in der Region für die vergangenen 5000 Jahren und fanden interessanterweise einen langfristigen Abkühlungstrend. Über lange Zeiten war Kamschatka während der letzten Jahrtausende offenbar wärmer als heute, eine überraschende Erkenntnis (eine genaue Besprechung der Arbeit gibt es auf The Hockey Schtick). Das wäre eine schöne Schlagzeile geworden:

Kamschatka hat sich in den letzten 5000 Jahren abgekühlt.

Aber offenbar war dem AWI diese Schlagzeile zu heiß. Beim weiteren Stöbern wird man das böse Gefühl nicht los, dass man in der AWI-Pressestelle bewusst Studien ausspart, die nicht so recht in die Klimakatastrophengeschichte zu passen scheinen. Bereits im Mai 2013 waren erste Ergebnisse zum Kamschatka-Projekt in den Quaternary Science Reviews publiziert worden, zu denen die Öffentlichkeitsabteilung des AWI keinen Mucks machte (siehe unseren Blogbeitrag „Überraschende Forschungsergebnisse des AWI aus dem subarktischen Kamtschatka: In den letzten 4500 Jahren war es bis zu 4 Grad wärmer als heute”). Die unheimliche Serie setzte sich im September 2013 fort, als im Fachmagazin Palaeogeography, Palaeoclimatology, Palaeoecology  eine AWI-Studie eines internationalen Forscherteams um Juliane Klemm erschien. Auch diese Forschergruppe hatte Unerhörtes herausgefunden, etwas was man auf keinen Fall mit der Presse teilen wollte (siehe unseren Blogbeitrag: „Neue AWI-Studie: Heutige Sommertemperaturen in der sibirischen Arktis unterscheiden sich kaum von denen der letzten Jahrtausende”).

Was hat nun die Klimakatastrophe mit all dem zu tun?

Zurück zum aktuellen Paper über das Lena-Delta. Die Erwärmung der Wintertemperaturen in den letzten 7000 Jahre mag interessant sein, ist aber lediglich die Hinleitung zur eigentlichen „Pointe“ der Studie, nämlich, dass der menschengemachte Klimawandel der letzten 150 Jahre die Wintertemperaturen im Studiengebiet nach oben gejagt hätte. In der AWI-Pressemitteilung liest sich das so:

Deutliche Hinweise fanden die Wissenschaftler bei der Suche nach den Ursachen der Erwärmung. Hanno Meyer: „Wir sehen in unserer Kurve eine klare Zweiteilung. Bis zum Beginn der Industrialisierung um das Jahr 1850 können wir die Entwicklung auf eine sich ändernde Position der Erde zur Sonne zurückführen. Das heißt, damals haben die Dauer und Intensität der Sonneneinstrahlung von Winter zu Winter zugenommen und auf diese Weise zum Temperaturanstieg geführt. Mit dem Beginn der Industrialisierung und dem zunehmenden Ausstoß von Treibhausgasen wie Kohlendioxid aber kam dann noch der vom Menschen verursachte Treibhauseffekt hinzu. Unsere Datenkurve zeigt ab diesem Zeitpunkt einen deutlichen Anstieg, der sich wesentlich von der vorgegangenen langfristigen Erwärmung unterscheidet.“

Leider versäumt es das AWI, der Pressemitteilung die Temperaturkurve bzw. die Isotopen-Proxy-Kurve beizufügen. Wie muss man sich diesen „deutlichen Anstieg“ im Detail vorstellen? Stattdessen werden der Presse stimmungsvolle Expeditionsfotos angeboten. Das schönste hiervon wollen wir auch hier im Blog nicht vorenthalten (Abbildung 1).
Abbildung 1rechts oben:. Die Wissenschaftler Alexander Dereviagin, Dr. Thomas Opel und Dr. Hanno Meyer (v.l.) machen eine kurze Mittagspause. Foto: Volkmar Kochan/rbb. Quelle: AWI.
Wirklich ein schönes Foto. Aber trotzdem wäre die Kurve doch um einiges informativer gewesen. Wir schauen daher in die Originalpublikation, wo die gesuchte Kurve abgedruckt ist (Abbildung 2).

Abbildung 2: Winter-Temperaturentwicklung des sibirischen Lena-Deltas während der letzten 8000 Jahre auf Basis von Sauerstoffisotopenmesssungen an Eiskeilen. Abbildung aus Meyer et al. 2015.
Der langfristige Winter-Erwärmungstrend ist gut erkennbar. Ganz am Ende der Kurve, in der industriellen Phase ab 1850, springen die letzten drei Datenpunkte steil nach oben. Offensichtlich handelt es sich um einen Nachfahren der berühmten Hockeystick-Kurve. Nie waren die Sauerstoff-Isotopenwerte höher als in den letzten anderthalb Jahrhunderten.
Es drängen sich sogleich einige wichtige Fragen auf:
–Spiegelt die Isotopenkurve tatsächlich die Temperaturen wieder? Isotopenverschiebungen können vielerlei Gründe haben und müssen nicht unbedingt Temperaturen abbilden. In vielen Fällen sind Niederschlagsänderungen Hauptkontrollfaktor für Veränderungen der Sauerstoffisotopen.
–Gibt es andere Winter-Temperaturrekonstruktionen aus der Region, die den behaupteten Verlauf mit anderen Methodiken betätigen könnten?
– Wie sehen die real gemessenen Winter-Temperaturen sowie Jahresmittelwerte des Lena-Delta-Gebiets für die letzten 150 Jahre aus?
Schauen wir uns hierzu die GISS-Temperaturkarte des New Scientist an, in welcher der Temperaturverlauf in der Lenadelta-Region für die vergangenen 130 Jahre angegeben ist (Abbildung 3). Fazit: Ja es ist wärmer geworden, so wie in fast allen Teilen der Erde nach Beendigung der Kleinen Eiszeit. Dabei fiel die Wiedererwärmung in den arktischen Gebieten stärker aus als zum Beispiel in den Tropen. Soweit ist das Resultat also nachvollziehbar.

Abbildung 3: GISS-Temperaturverlauf der Lenadelta-Region für die vergangenen 130 Jahre. Quelle: New Scientist.
Nun wissen wir aber leider auch, dass die GISS-Datenbank lange vom bekennenden Klimaaktivisten James Hansen geführt wurde und die Temperaturrohdaten arg nachbearbeitet wurden. Daher schauen wir lieber auf einen Rohdatensatz des Ortes Tiksi, der seit 1936 Messdaten liefert. Die Daten stammen aus dem BEST-Projekt der University of California in Berkeley, sollten also relativ vertrauenswürdig sein (Abbildung 4). Der Ort Tiksi ist auf der Landkarte in Abbildung 3 eingezeichnet.
Die Überraschung ist groß: Der im GISS-Datensatz dargestellte starke Erwärmungstrend ist in den Originaldaten kaum zu erkennen. Anstatt einer GISS-Erwärmung von 2 Grad pro Jahrhundert verzeichnet BEST lediglich eine Erwärmungsrate von etwa 0,5 Grad nach Qualitätsüberprüfung.

Abbildung 4: Temperaturdaten der Wetterstation Tiksi im Lena-Delta laut BEST-Projekt.
Die wirkliche Frage muss jedoch sein, auf welchem Niveau sich die Temperaturen während der Mittelalterlichen Wärmeperiode (MWP) im Lena-Delta bewegten. In einer zusammenfassenden Darstellung zur MWP für den asiatischen Teil Russlands auf co2science.org stoßen wir bei unseren Recherchen auf eine Veröffentlichung von Matul et al., die 2007 im Fachblatt Oceanology erschien. CO2 Science fasst die Ergebnisse der Arbeit wie folgt zusammen:

What was done
The authors studied the distributions of different species of siliceous microflora (diatoms), calcareous microfauna (foraminifers) and spore-pollen assemblages found in sediment cores retrieved from 21 sites on the inner shelf of the southern and eastern Laptev Sea, starting from the Lena River delta and moving seaward between about 130 and 134°E and stretching from approximately 71 to 78°N, which cores were acquired by a Russian-French Expedition during the cruise of R/V Yakov Smirnitsky in 1991.
What was learned
In the words of the five Russian researchers, this endeavor revealed “(1) the warming at the beginning of the Common Era (terminal epoch of the Roman Empire) during ~1600-1900 years BP; (2) the multiple, although low-amplitude, coolingepisodes at the beginning of the Middle Ages, 1100-1600 years BP; (3) the Medieval Warm Period, ~600-1100 years BP; (4) the Little Ice Age, ~100-600 years BP, with the cooling maximum, ~150-450 years BP; and (5) the ‘industrial’ warming during the last 100 years.”
What it means
“Judging from the increased diversity and abundance of the benthic foraminifers, the appearance of moderately thermophilic diatom species, and the presence of forest tundra (instead of tundra) pollen,” Matul et al. conclude that “the Medieval warming exceeded the recent ‘industrial’ one,” and that “the warming in the Laptev Sea during the period of ~5100-6200 years BP corresponding to the Holocene climatic optimum could be even more significant as compared with the Medieval Warm Period.” Once again, therefore, we have another example of a paleoclimate study that challenges the contention of Hansen et al. (2006) that “probably the planet as a whole” is “approximately as warm now as at the Holocene maximum.”

Die Autoren um Matul rekonstruierten also mithilfe von Mikroorganismen die holozäne Klimageschichte des Lena-Deltas und der vorgelagerten Laptevsee. Matul und Kollege fanden dabei für die vergangenen 2000 Jahre die bekannte Millenniumszyklik bestehend aus Römischer Wärmeperiode, Kälteperiode der Völkerwanderungszeit, Mittelalterlicher Wärmeperiode, Kleiner Eiszeit und Moderner Wärmeperiode. Interessanterweise war die Mittelalterliche Wärmeperiode offenbar deutlich wärmer als heute. Zudem war das mittelholozäne Klimaoptimum im Untersuchungsgebiet vor 6000 Jahren sogar noch wärmer.
Nun wundert es doch sehr, dass die AWI-Gruppe diese wichtige Arbeit in ihrer neuen Lena-Delta Arbeit mit keiner Silbe erwähnt. Selbst wenn Matul et al. wohl überwiegend Sommertemperaturen rekonstruiert haben, hätte die Arbeit doch auf jeden Fall Berücksichtigung finden müssen. Sind die Sommertemperaturen nicht vielleicht viel wichtiger als die sowieso unterkühlten Winterwerte?
Bill Illis konnte in einer Diskussion zum AWI-Paper auf WUWT zeigen, dass die AWI-Autoren zwei möglicherweise wichtige Datenpunkte aus der Betrachtung ausschlossen (Abbildung 5). Einer davon zeigte während der Römischen Wärmeperiode eine bedeutende Winter-Erwärmung an, die sich etwa auf heutigem Temperaturniveau bewegte. Der Wert wurde unter Hinweis auf „oberflächennahe Kontaminierung“ aus dem Rennen geschmissen und in der Auswertung ignoriert.

Abbildung 5: Plot der Temperatur-Proxy-Wert aus Meyer et al. 2015, mit zwei zusätzlichen Werten, die die Autoren wegen „möglicher Kontaminierung“ verworfen hatten. Plot: Bill Illis/WUWT.

Unterm Strich

Was bleibt unterm Strich? Eine paläoklimatologische Studie findet eine unerwartete Entwicklung, die sogleich als Beleg für die drohende Klimakatastrophe missbraucht wird. Wichtige anderslautende Befunde aus der gleichen Region sowie andere AWI-Arbeiten werden totgeschwiegen. Der auffällige Hockeyschläger-Charakter der approximierten Temperaturentwicklung lässt die Alarmglocken schrillen: Ist die verwendete Methodik zuverlässig? Weshalb wurden möglicherweise wichtige Datenpunkte bei der Bearbeitung ignoriert? Wie wichtig ist die ultrakalte Wintertemperaturentwicklung wirklich im Vergleich zum Sommerverlauf? Weshalb können andere Messreihen und Temperaturrekonstruktionen den rasanten Hockeyschläger-Anstieg nicht reproduzieren? Immerhin geben sich die AWI-Forscher ergebnisoffen, wie sie in der Pressemitteilung betonen:

In einem nächsten Schritt wollen die Forscher nun überprüfen, ob dieselben Anzeichen für eine langfristige Winter-Erwärmung der Arktis auch in anderen Permafrostregionen der Welt zu finden sind. Thomas Opel: „Wir haben Daten aus einem Gebiet 500 Kilometer östlich des Lena-Deltas, die unsere Ergebnisse stützen. Wir wissen allerdings nicht, wie es zum Beispiel in der kanadischen Arktis aussieht. Wir vermuten, dass die Entwicklung dort ähnlich ist, belegen aber können wir diese Annahme noch nicht.“

Siehe auch den Blog-Beitrag „Arktische Turboerwärmung auf dem Prüfstand: Ein Konzept auf wackeligen Beinen
Zuerst erschienen bei "Die kalte Sonne" hier