Die Säulen der Energiewende wanken – Der weitere Ausbau von Wind- und Solarstrom ist sinnlos.

Es ist bereits mehrfach dargelegt worden, dass es sich dabei um eine katastrophale Fehlentscheidung handelt, weil die Versorgungssicherheit bedroht wird, weil die Kosten untragbar hoch werden und weil insbesondere der Ausbau der Windkraft nicht nur zu massiven Naturschäden, sondern auch sogar zu einer Bedrohung der Gesundheit der Menschen führt.

Obwohl das begründet und bewiesen  wurde, hat sich die Regierung bisher unbeeindruckt gezeigt.

Eine nähere Prüfung der bisherigen Entwicklung führt nun zu überraschenden Ergebnissen:

Wir verdanken Rolf Schuster die minutiöse Verfolgung und Darstellung der Stromerzeugung aus Wind- und Solaranlagen, deren Verlauf er über mehrere Jahre durch Auswertung der EEX-Strombörsedaten sowie der Informationen von Übertragungsnetzbetreibern (z.B.TenneT) in zahlreichen  Grafiken dokumentiert hat. Auch in diesem Papier verwende ich mehrfach seine Dokumentationen.

In den Darstellungen der in den vergangenen Jahren gemessenen Leistungserzeugung von Photovoltaik-Anlagen (Abb.1),  Land-Windkraftanlagen (Abb.2) sowie Offshore-Windparks (Abb.3) sind in den Abbildungstexten bereits Anmerkungen zu dem wachsenden Auseinanderdriften der installierten Kapazitäten einerseits und den von diesen tatsächlich produzierten elektrischen Leistungen andererseits angestellt worden.

Abb 1: Tatsächliche Leistung aller installierten Photovoltaikanlagen im Zeitraum 2011 – März 2015. Obere Grenze des gelben Bereichs: Die installierte Leistung aller PV-Anlagen. Der Leistungsgang besteht aus 365 „Nadeln“ im Jahr, die täglich zwischen ca. 9:00 und 15:00 Uhr auftreten und je nach Wetterlage mehr oder weniger hoch sind. Niemals erreichen sie die installierte Maximalleistung. In den Wintermonaten – bei maximalem Strombedarf – bricht die PV-Leistung fast völlig ein.  Quelle: EEX; Darstellung: Rolf Schuster

Der  Blick auf die besonders teure Solarstromerzeugung – siehe Abb.1 – zeigt, dass sich im Laufe der letzten 3 Jahre zwar die installierte Leistung deutlich erhöht hat, nicht jedoch die erzeugte Leistung.

                  

Abb.2: Gesamte aktive Windstromleistung Deutschlands 2011 – März 2015.  Obere rote Linie:  Installierte Maximalleistung der Anlagen.  Quelle: EEX Leipzig; ab 2015 ÜNB. Darstellung Rolf Schuster

Abb.3: Leistung der Offshore-Windparks Sept. 2009 – Sept. 2014.  Mehrere starke, z.T. längere Leistungseinbrüche durch technische Probleme.  Die Fortsetzung in 2015 wies für Januar  eine Leistungserzeugung von Null bis 400 MW und für März Null bis 750 MW  aus – bei einer installierten Leistung von 1.700 MW im Januar und 1.850 MW im März. Quelle: TenneT-TSO,  Darstellung Rolf Schuster

Aus der Darstellung der kombinierten Leistungserzeugung aller Wind- und Solarstromanlagen zwischen

2012 und dem Frühjahr von 2015 (Abb.4) erschließt sich diese Diskrepanz besonders deutlich.

 

Abb.4: Die Leistungserzeugung von Wind- und Solarstrom zusammen – von 2011 bis März 2015. Die Solarstrom-„Nadeln“ treten vom Frühling bis Herbst auf; im Winter nur Windstrom – mit großen Schwankungen durch Starkwind-Ereignisse. Abgesehen von diesen Windstromspitzen ist keine Erhöhung der Gesamtleistung über den 3-jährigen Zeitraum erkennbar, obwohl in dieser Zeit die Installierte Leistung aller Anlagen von 44.000 MW auf 80.000 MW gesteigert wurde. Quelle: EEX Leipzig; ab 2015 ÜNB. Darstellung Rolf Schuster

Bereits auf den ersten Blick erkennt man die Merkwürdigkeit:

Während die Summe der Erzeugungskapazitäten in diesem Zeitraum von 44.000 MW auf enorme 80.000 MW anstieg, dümpelte die produzierte Leistung in einem „Durchschnitt“ von geschätzt 3.000 MW dahin – dies jedoch als völlig ungesicherte Leistung. Dazu muss bemerkt werden, dass es im Grunde angesichts des zerrissenen und stark fluktuierenden Leistungsverlaufs, der auch immer wieder auf Null einbricht, überhaupt keinen Mittelwert geben kann, der irgendetwas aussagt. In den Sommermonaten zeigt sich Solarstrom um die Mittagszeit; im Winter ausschließlich stark fluktuierender Windstrom.

Auffallend ist nun die ausbleibende Zunahme der Erzeugung trotz des starken Zubaus an Anlagen. Das einzige, was sich z.B. 2014 gegenüber 2012 geändert hat, ist die Höhe der Windstrom-Spitzen bei Starkwindereignissen.

Rolf Schuster hat die Minimal- und Maximalwerte der jeweiligen Jahre durch eine Datenbankabfrage  ausgewertet und kommt zu dem Ergebnis, „dass der Minimalwert (bei zunehmender installierter Leistung) keinen positiven Trend erkennen lässt, wo hingegen die Maximalwerte enorm angestiegen sind.“

Hier hat wieder die Physik zugeschlagen: Weil sich die Leistung eines Windrades mit der 3. Potenz der Windgeschwindigkeit ändert, bedeutet jede Periode geringerer Windgeschwindigkeiten, dass die Windrad-Leistung auf Null einbricht. Daher werden Windkraftanlagen diese Null-Einbrüche niemals los.

Bei Starkwind hingegen wirkt dieses Gesetz in gleicher Weise: Das Windrad läuft in Richtung seiner Maximalleistung hoch.

Für die Netzbetreiber werden deshalb die zu bewältigenden Fluktuationen des Windstroms mit dessen zunehmendem Ausbau immer bedrohlicher.

  

Abb.5: Windstrom-Leistung 2006-2013. Es wurden die Viertelstunden-Extremwerte – also maximale bzw. minimale Viertelstunden-Leistung je Monat dargestellt. Quellen: EEX, IWET; Darstellung: E. Wagner 2.12.2013

Eine gleichfalls aufschlussreiche Darstellung von E. Wagner zeigt Abb.5. Bei den Viertelstunden-Maximalwerten der Leistung setzt ab 2011 eine Stagnation ein. Dass die Maximal-Spitzen mit zunehmender WKA-Zahl höher werden, entspricht R. Schusters Feststellung.

Interessant ist aber auch die Betrachtung der minimalen Viertelstundenleistung über die 8 Jahre: Sie liegt durchgehend bei Null. Und daran ändert auch die Vermehrung der Windräder nichts. Was alle – bis auf die Regierung – schon immer wussten: Hochdruck-Wetterlagen, die weit größere Ausdehnungen  besitzen als das kleine Deutschland,  bedeuten Flauten – also Null Windstrom, und das auch  immer wieder  einmal für zwei oder mehr Wochen am Stück.

Rolf Schuster hat sich auch das Leistungsäquivalent des Wind- plus Solarstromangebots und dessen Veränderung im Laufe der Jahre näher angesehen:

Dies ist der Quotient von realer Einspeiseleistung dividiert durch die installierte Leistung. Das Ergebnis: Dieses Leistungsäquivalent sinkt stetig mit wachsendem Ausbau – von 0,15 auf 0,125 in den letzten 4  Jahren.

Für die Ergebnisse dieser Dokumentationen gibt es mehrere, vermutlich gleichzeitig zutreffende Erklärungen:

1. Der Zubau an Windrädern erfolgt immer öfter in besonders ungeeigneten Regionen Mittel- und Süddeutschlands. Dort erzeugen auch besonders große Schwachwindanlagen (bereits diese offizielle Bezeichnung ist eine fachliche Bankrotterklärung) weit weniger Strom als kleinere Anlagen in Norddeutschland.

2. Der teilweise  länger andauernde Ausfall von Offshore-Windparks beginnt sich auf die Bilanz der gesamten Windkraft negativ auszuwirken. Von dem „wichtigen Standbein“ ist keine Rede mehr.

3. Auch die Photovoltaik (PV) leidet unter einem zunehmenden Mangel geeigneter Flächen (Süddächer) – und wohl auch an einer abnehmenden Neigung von Hauseigentümern, sich darauf einzulassen.

4. Bei PV-Anlagen gilt das Umgekehrte wie bei Windrädern: In Süddeutschland gibt es die relativ höchsten Erträge. Jeder Solarstrom-Ausbau in Mittel- und Norddeutschland führt zu deutlich geringeren Erträgen.

5. Die mit den Jahren zunehmende Degradierung der Solarmodule könnte sich bei vielen älteren Anlagen bemerkbar machen.

6. Ein von der Lobby gerne benutztes Argument, dass es sich jeweils leider um ein besonders schlechtes Windjahr/Sonnenjahr gehandelt habe, kann den sehr deutlichen Trend zu einer Stagnation von Wind- und Solarstrom nicht erklären.

Die Konsequenzen dieser bereits abgelaufenen Entwicklung:

·       Die oben genannten Ziele der Regierung sind in Bezug auf den künftigen Anteil der „Erneuerbaren“ an der Stromerzeugung unerreichbar. Durchaus erreichbar ist natürlich das kostspielige Vollpflastern Deutschlands mit Windrädern und PV-Anlagen. Nur nutzt es nichts – außer der Lobby.

·       Sehr ernst zu nehmen ist das Anwachsen größter Windstrom-Leistungsspitzen im Winter.

·       Die zunehmende Landschaftsverschandelung, die Gesundheitsgefährdung der Menschen, die Tötung von Greifvögeln und Fledermäusen und die Gefährdung der Netzstabilität sind somit die einzigen verbleibenden Auswirkungen eines weiteren Ausbaus der Windkraft.

·       Wind- und Solarstrom tragen auch bei größtem weiterem Ausbau nichts zur gesicherten Leistung bei. Ohne Kohlekraftwerke wird auch künftig nicht gehen.

·       Der Beitrag der beiden „Erneuerbaren“, die angeblich die zentralen Stützen der Energiewende sind, zur Stromversorgung kann allenfalls nur noch geringfügig wachsen und kaum ein einziges konventionelles Kraftwerk ersetzen.  Andererseits sollen aber die noch verbliebenen 8 Grundlast-Kernkraftwerke eins ums andere vom Netz genommen werden. Nur Kohlekraftwerke  können sie ersetzen, deshalb sind sämtliche CO2-Einsparungsziele der Regierung Makulatur.




Neue Meeres-Spiegel-Studie zeigt: Satelliten-Daten überhöht !

Nach der Auswertung umfangreicher neuer Arbeiten und Untersuchungen aus den Jahren 2011-2013 waren wir zu diesem Ergebnis gekommen [1]:

"Zahlreiche Auswertungen von Küsten-Pegel-Messungen über 200 Jahre sowie neuerdings von Schwere-Messungen der GRACE-Satelliten ergeben immer wieder einen Meeres-Anstieg von etwa 1,6 mm/yr. Dagegen stehen die seit 1992 publizierten Altimeter-Messungen mit den Satelliten-Systemen TOPEX/POSEIDON/JASON mit doppelt so hohen Werten von 3,2 mm/yr. Die erhebliche Diskrepanz ist bis heute ungeklärt. Dabei stimmen jedoch immerhin die Trends überein: Der Meeres-Anstieg verläuft seit wenigstens 100 Jahren linear, es gibt keine Beschleunigung des Anstieges. Ein Signal durch anthropogenes CO2 (AGW) ist nirgends erkennbar. Das alles steht in krassem Widerspruch zu den Verlautbarungen und insbesondere zu den alarmistischen Prognosen des Klimarates IPCC und einiger Klima-Institute."

Dieses alles wird nun bestätigt, ergänzt und erweitert in der hier in folgendem besprochenen Publikation von ALBERT PARKER [4]. Dabei bringen wir alle folgenden Zitate daraus in deutscher Übersetzung [5]. Bei alledem beschränken wir uns auf die im Wesentlichen in den Abschnitten Abstract, Introduction und Conclusion von PARKER zusammen gefaßten Kern-Aussagen, sowie einige wenige Abbildungen aus der Arbeit. Die ausführliche englische Original-Publikation geben wir hier als Anlage zum download anbei. Für die in folgendem ständig verwendeten und international üblichen Abkürzungen setzen wir an den Schluß dieser unserer Ausführungen ein kleines Glossar.

Im Astract der Arbeit von Parker heißt es zunächst :

"Die Erfassung der gegenwärtigen Höhe des Meeresspiegels wurde immer schwieriger durch die Festlegung der Verfahren, die zu Schätzungen des globalen mittleren Meeresspiegels (GMSL) führen. Dieser GMSL wird wöchentlich abgeglichen mit Messungen mittels Gezeitenpegeln und Satelliten-Altimeter-Messungen….

Dieser GMSL ist stark abhängig von ‚Kalibrierungen‘ subjektiver Natur und scheint mehr Produkt einer Berechnung zu sein statt einer wirklichen Messung."

                                     Abb.1  Die anfangs publizierten SAT-Daten zeigten keinen Trend,

                                    abgesehen vom Jahrhundert-ElNinos 1997/98 (6), nachzit. nach (4)

                       Abb.2 Ab Ende der 90er Jahre wurden zahlreiche Korrekturen "nach oben"

                               vorgenommen, so daß ein scheinbarer Anstieg von zunächst 2 und

                            mittlerweile von über 3 mm/yr "produziert" wurde. (6), nachzit. nach (4)

Und im Abschnitt "Zusammenfassung" schreibt PARKER dazu noch weitergehender und deutlicher:

"Es gibt keinen wissenschaftlichen Grund, sich auf die korrigierte Rate des Anstiegs des rekonstruierten GMSL zu konzentrieren, die einer Modellkorrektur folgt, nach einer (Anm.: wiederum schon vorangehenden) Modell-Korrektur."

Seit Jahren Zweifel an den hohen SAT-Daten

Genau auf diesen Umstand hat schon RUDOLF KIPP [7] in einer umfangreiche Recherche zu den zahlreichen unüberschaubaren Korrekturen der Sat-Altimeter-Messungen aufmerksam gemacht – alle in einer Richtung, nämlich nach oben (!) :

"Nur durch zahlreiche Korrekturen, die auf Annahmen beruhen die nicht weiter ausgeführt werden, ergibt sich der “offizielle” Wert von zur Zeit 3,1 mm pro Jahr."

Und w.a.a.O.:

"Der “Environmental Satellite” (Envisat; 2002-2012) ist so etwas wie das Prunkstück der European Space Agency (ESA). … Zu den Aufgaben dieses Satelliten gehört unter anderem … die Vermessung des Meeresspiegels. Allerdings hat die Auswertung letzterer Daten bislang zu Ergebnissen geführt, die weder mit den Aussagen (Anm.: IPCC) eines beschleunigten Meeresspiegel-Anstiegs, noch mit den Messungen der amerikanischen Jason-Satelliten in Einklang standen. …

Der von Envisat gemessenen Anstieg des Meeresspiegels betrug im Zeitraum von Ende 2003 bis Ende 2011 lediglich 0,48 mm/Jahr, was 4,8 cm in 100 Jahren entsprechen würde. Die Messungen des Jason-1 Satelliten haben für den gleichen Zeitraum einen Anstieg von 2,05 mm pro Jahr gefunden. … Um diesem Umstand zu begegnen wurden bei der ESA bereits im letzten Jahr Methoden diskutiert, wie man die Envisat Daten rechnerisch an die Ergebnisse der Messungen der Jason Satelliten angleichen kann. Diese Anpassung wurde jetzt beim Umstellen auf die neueste Version der Envisat Daten (Version 2.1) offensichtlich vorgenommen. Aus dem bisherigen minimalen Anstieg von 0,48 mm/Jahr wurde dadurch quasi über Nacht ein Anstieg von 2,32 mm/Jahr. Wer nach einer Begründung für diese Maßnahme sucht, der wird auf der Aviso-Homepage unter “Processing and corrections”  fündig. Dort heißt es: ’sign of instrumental correction (PTR) corrected via external CLS input (impact of +2 mm/year drift)‘ Man hat also einen Abgleich an externen Daten vorgenommen. Es findet sich allerdings kein Wort dazu, was für Daten das sind oder welcher Umstand diesen radikalen Eingriff notwendig gemacht hätte."

…und w.a.a.O.:

"Und auch die aktuell bei den Daten des europäischen Envisat Projektes vorgenommenen Korrekturen folgen nicht nur dem altbekannten Schema, dass diese Maßnahmen ausnahmslos in eine Richtung weisen, und zwar zu höheren Werten." …

"Auch die Begründung, welche die Wissenschaftler anbieten, trägt mehr zur Verschleierung bei, als dazu aufzuklären, warum ein so fundamentaler Eingriff in die Daten vorgenommen werden musste. Was bleibt ist der Eindruck, dass hier Daten systematisch “hochgerechnet” werden. Schließlich steht der nächste Zustandsbericht des Weltklimarates (IPCC) für das Jahr 2014 an. Und dieser kann seine volle Wirkung nur entfalten, wenn alles sich noch viel schlimmer darstellt, als man im letzten Report 2007 bereits gesichert wusste. Ein seit Jahren langsamer werdender Anstieg des Meeresspiegels wäre hierzu ganz sicher nicht hilfreich."

Und diese nahezu prophetischen Worte von RUDOLF KIPP im Jahre 2012 haben sich schon 2013 "erfüllt", denn – genau so ist es gekommen: der Klimarat IPCC hat seine Meeres-Prognose im AR 2014 für 2100 erstmals wieder erhöht, nachdem IPCC in den drei Vorberichten (AR’s 1995, 2001, 2007) schrittweise eine "Herunter-Stufung" der Prognosen Richtung Meß-Realität vorgenommen hatte: vgl. Abb.3 !

                                    Abb.3  IPCC-Prognosen [IPCC-Rep. 1990-2013/14]

Pegel-Messungen zuverlässiger als SAT-Daten

In der hier nun weiterhin besprochenen Arbeit von PARKER heißt es :

"Der Meeresspiegel relativ zu einem bestimmten Datum wurde historisch mittels Gezeiten-Pegeln gemessen, die konsistente, zuverlässige und genaue Messungen seit dem 19. Jahrhundert liefern. …

Die Messung mit Satelliten-Altimetern ist eine alternative Methode, Änderungen des Meeres-Spiegels zu messen, und GPS ist ein ergänzendes Verfahren, die vertikale Bewegung von Landmassen an den Pegelstationen zu erfassen. Diese Studie hat diese neuen Verfahren zum Thema und zeigt, daß beide Verfahren derzeit immer noch weit davon entfernt sind, irgendwelche verbesserten Informationen bezüglich der Auswirkungen schmelzenden Eises und thermische Expansion auf den Meeresspiegel zu zeigen."

"Aus Satelliten-Altimeter-Messungen kann man keine genauen Berechnungen der Vertikalgeschwindigkeit „fixierter“ GPS-Punkte ablesen. Daher ist es kaum glaubhaft, daß der Satellit ein genaues Bild der fortwährend oszillierenden Meeresoberfläche liefern kann."

"Der globale mittlere Meeresspiegel (GMSL) schwankt nicht um eine Gerade mit der Steigung von 3 mm/Jahr, er ist vielmehr konstant mit einem zusätzlichen Rausch-Anteil.

Es gibt keinen wissenschaftlichen Grund, sich auf die korrigierte Rate des Anstiegs des rekonstruierten GMSL zu konzentrieren, die einer Modellkorrektur folgt, nach einer (Anm.: einer weiteren, vorhergehenden) Modellkorrektur."

                                   Abb.4 a+b: Gegenüberstellung der Pegel- und Sat-Daten

8 (Textfelder in Abb.4a ergänzt, dto. Doppel-Pfeil in 4b)

Und weiter bei PARKER [4]:

"Was während dieses Jahrhunderts gemessen wurde ist, daß die Temperatur in allen Tiefen der Ozeane zwischen 0 und 2000 m Tiefe konstant geblieben ist, und zwar im Bereich zwischen 60°N und 60°S; weiterhin eine zunehmende globale Ausbreitung von Meer-Eis, wobei die Ausdehnung desselben in der Antarktis den Eisschwund in der Arktis weit überkompensiert."

Hier räumt PARKER gleich mit zwei ständig wiederholten AGW-Märchen auf :

(1) Die Spekulationen um die angeblich in den Weltmeeren "verschwundene Wärme", womit die IPCC-nahen Institute versuchen, den seit 17 Jahren andauernden Temperatur-Stillstand zu "erklären"; die Messungen der Meeres-Temperaturen geben dazu keinen Anhalt [9];

(2) Global nimmt die Meer-Eis-Ausdehnung seit einigen Jahren wieder zu [10], trotz der "Arktis-Schmelze" !

Kein AGW-Effekt beim Meeres-Anstieg erkennbar

Dazu PARKER:

"Das Problem wird in einer Reihe von Fallstudien beleuchtet, wobei man zu dem Ergebnis kommt, daß die Auswirkungen der globalen Erwärmung auf die Raten des Anstiegs des Meeres-Spiegels bisher sehr gering oder vernachlässigbar waren."

…u.a.a.O.:

"Auch während der letzten beiden Jahrzehnte haben die langfristig messenden Pegel Daten übermittelt, die konsistent sind mit einem mittleren schwachen Anstieg (weniger als ein halber Millimeter pro Jahr) ohne jede signifikante Komponente einer Beschleunigung."

"Außerdem haben alle Langzeit-Tidenmessungen der Welt mit hoher Qualität und ausreichender zeitlicher Länge das Fehlen von Spuren irgendeiner Beschleunigung gezeigt. Die jüngste mittlere relative Rate des Meeresspiegel-Anstiegs aus einer Datensammlung von 170 Pegeln weltweit mit Zeitreihen über 60 Jahren beträgt +0,43 mm/Jahr, ohne jede Komponente einer Beschleunigung."

Und dazu noch deutlicher an anderer Stelle:

"Falls es irgendeinen Effekt bezüglich der globalen Erwärmung gibt, sollte man dies in Form einer Zunahme der relativen Raten erkennen, mit den örtlichen konsolidierten und genauen Verfahren der Pegelmessungen. Weil dies nicht der Fall ist, muß ich folgern, daß es bezüglich des Meeresspiegel-Anstiegs als Folge der globalen Erwärmung keinerlei Auswirkungen gibt."

=================================================================

F a z i t :
Die mehrfach nach oben korrigierten Daten der indirekten Satelliten-Meßmethode zeigen mindestens doppelt so hohe Werte als die weltweiten direkten Pegel-Messungen. Die SAT-Daten sind infolge ’subjektiver Kalibrierungen‘ [4] deutlich überhöht. Die ständig von den AGW-Alarmisten wiederholte Behauptung eines beschleunigten Meeres-Anstieges wird sogar durch beide Methoden widerlegt !

==================================================================

G l o s s a r :

Altimeter-Messungen : "Ein Satellit trägt als Nutzlast ein RadarAltimeter, von diesem werden kurzwellige Radioimpulse senkrecht nach unten ausgesendet, an der (Meeres-)Oberfläche reflektiert und das Signal am Satelliten wieder empfangen. Wenn dessen Bahn genau bekannt ist, erhält man aus der gemessenen Laufzeit des Signals und der geozentrischen Höhe des Satelliten die Meereshöhe." [11]

G P S :  Global Positioning System … ist ein globales Navigations-Satelliten-System zur Positions-Bestimmung." [12]  

G M S L :  Global Mean Sea Level: Hiermit sind stets die mehrfach korrigierten Anstiegs-Raten der Sat-Messungen mit den Altimetern benannt, nicht die Pegel-Messungen (Tide-Gauges). 

Q u e l l e n :

[1] Säkularer und Aktueller Meeres-Anstieg: Pegel (1.6 mm/Jahr) oder SAT-Altimeter (3.2 mm/Jahr) – WAS ist richtig ? http://www.eike-klima-energie.eu/news-cache/saekularer-und-aktueller-meeres-anstieg-pegel-16-mmjahr-oder-sat-altimeter-32-mmjahr-was-ist-richtig/  ; 08.07.2014

[2] PIK übertrifft sogar NOSTRADAMUS : Meeresspiegel-Prophezeiung für das Jahr 4000  http://www.eike-klima-energie.eu/news-cache/pik-uebertrifft-sogar-nostradamus-meeresspiegel-prophezeiung-fuer-das-jahr-4000/ ; 21.07.2013

[3] Wo bleibt der Meeres-Anstieg? http://www.eike-klima-energie.eu/climategate-anzeige/wo-bleibt-der-meeres-anstieg-verlangsamung-statt-beschleunigung/ 11.12.2013

[4] Albert Parker: Problems and reliability of the satellite altimeter based Global Mean Sea Level computation ; Pattern Recogn. Phys., 2(2), 65–74, 2014 ;  http://www.pattern-recognition-in-physics.com ; © Author(s) 2014. CC Attribution 3.0 License. School of Aerospace Mechanical and Manufacturing Engineering, RMIT University, Bundoora, VIC, Australia.

[5] Übersetzung von CHRIS FREY

[6]  Mörner, N.-A.: The great sea-level humbug. There is no alarming sea level rise. 21st Century Science & Technology, winter 2010/11, 12-22, 2011. www.21stcenturysciencetech.com/Articles_2011/Winter-2010/Morner.pdf [visited 17/07/2014] ; nachzitiert nach [4]

[7] Rudolf Kipp: (a) Nachträgliche Korrekturen der Satelliten-Meeresspiegeldaten: Was nicht paßt wird passend gemacht? 14. Juli 2012   http://www.kaltesonne.de/?p=4544

(b) http://www.science-skeptical.de/blog/was-nicht-passt-wird-passend-gemacht-esa-korigiert-daten-zum-meeresspiegel/007386/ ; 13. April 2012 | Von Rudolf Kipp

[8]  http://climatesanity.wordpress.com/2011/06/06/deception-from-nasa-satellites-are-true-cause-of-sea-level-rise/  06.06.2011

[9]  http://www.eike-klima-energie.eu/news-cache/behauptung-natuerliche-variation-maskiert-die-globale-erwaermung-und-ist-grund-fuer-den-stillstand/  02.08.2014

[10]  http://wattsupwiththat.com/reference-pages/sea-ice-page/

[11]  http://de.wikipedia.org/wiki/Satellitenaltimetrie

[12]  http://de.wikipedia.org/wiki/Global_Positioning_System

=================================================================

Anmerkung der EIKE-Redaktion:

Zum download sind anbei verfügbar die hier besprochene Original-Arbeit von A.PARKER, sowie dieser vorstehende Aufsatz dazu; darin sind die Abbildungen in besserer Qualität lesbar, als das hier im Editor möglich ist.

===================================================

Related Files




Neue Golfstrom-Publikation des PIK fällt in der Fachwelt glatt durch

[Aufmacherbild: Passt doch zum Golfstrom genauso gut wie Dr. Mann zu Klimaforschung? Anm. d. Übers.]

Golfstromsystem verliert an Kraft – Klimawandel im Verdacht
Wie eine gewaltige Umwälzpumpe transportieren Strömungen des Atlantiks warmes Wasser in den Norden und kaltes Wasser in den Süden. Teil dieses Strömungssystems ist auch der Golfstrom, der für das meist milde Klima im Nordwesten Europas sorgt. Jetzt haben Forscher Belege dafür entdeckt, dass diese riesige Meeresströmung schwächer wird. Beobachtungen weisen darauf hin, dass die Umwälzung in den letzten Jahrzehnten langsamer war als jemals zuvor im vergangenen Jahrhundert, wahrscheinlich sogar im vergangenen Jahrtausend. Zu dieser Abschwächung hat offenbar die zunehmende Eisschmelze auf Grönland beigetragen, die durch den mensch-gemachten Klimawandel verursacht wird. Eine weitere Verlangsamung der Strömung könnte nicht nur Folgen haben für marine Ökosysteme, sondern auch für den Meeresspiegel und das Wetter in den USA und Europa. „Verblüffenderweise hat sich trotz fortschreitender globaler Erwärmung ein Teil des nördlichen Atlantik in den letzten hundert Jahren abgekühlt“, sagt Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung, Leit-Autor der in Nature Climate Change erscheinenden Studie. Frühere Forschung hatte bereits Hinweise darauf gegeben, dass eine Abschwächung der großen Umwälzströmung im Atlantik, die so genannte Atlantic Meridional Overturning Circulation, hierfür verantwortlich sein könnte. „Jetzt haben wir starke Belege dafür gefunden, dass dieses atlantische Förderband sich in den vergangenen hundert Jahren tatsächlich verlangsamt hat, besonders seit 1970“, so Rahmstorf. […] Wenn die Strömung zu schwach wird, könnte sie sogar vollständig zusammenbrechen – die atlantische Umwälzung wird schon lange als mögliches Kipp-Element im Erdsystem betrachtet.

Neben dem schillernden Rahmstorf gehört zu den Coautoren auch der umstrittene Michael Mann, bekannt als Erfinder der mittlerweile diskreditierten Hockeystick-Kurve. Bei dieser Besetzung lohnt es sich durchaus, etwas genauer hinzuschauen. Wie plausibel ist die vom PIK vorgebrachte Geschichte? Erst vor wenigen Monaten hatte ein Team bestehend aus Forschern der Universität Heidelberg, Geomar, ETH Zürich und der Universität Bern das glatte Gegenteil herausgefunden und in Nature publiziert (Böhm et al. 2015). Die Universität Heidlberg gab hierzu am 15. Dezember 2014 eine Pressemitteilung heraus:

Klimawandel: Ozeanzirkulation im Atlantik war stabiler als erwartet
Die Ozeanzirkulation im Atlantik, die einen entscheidenden Einfluss auf das Erdklima hat, ist stabiler als bislang angenommen. Das zeigen Untersuchungen eines internationalen Forscherteams, an dem Wissenschaftler der Universität Heidelberg beteiligt sind. Die Forscher analysierten die nordatlantische Tiefenwasserzirkulation der vergangenen 140.000 Jahre und konnten zeigen, dass der aktuelle atlantische „warm“-Zirkulationsmodus entgegen bisheriger Annahmen selbst während der letzten Kaltzeit der Erde bestimmend war. Nach den Worten von Dr. Evelyn Böhm vom Institut für Umweltphysik lässt dies den Rückschluss zu, dass die derzeitige Zirkulation so stabil ist, dass ihr Zusammenbruch etwa durch Schmelzwasser von verstärkt abtauendem Grönlandeis extrem unwahrscheinlich ist. Daher sei nicht mit einem plötzlichen extremen Temperatursturz in Europa zu rechnen. […] Entgegen bisheriger Annahmen der Forscher zeigte sich, dass der „warm“-Modus nicht nur in Warmzeiten, sondern auch in der letzten Kaltzeit vorherrschend war. „Wir konnten lediglich während der Höhepunkte der letzten beiden Kaltzeiten das Zirkulationsmuster des ‚kalt‘-Modus beobachten“, erklärt Dr. Marcus Gutjahr vom GEOMAR in Kiel. „Die Ergebnisse zeigen daher, dass der ‚warm‘-Modus, dem auch das heutige Zirkulationsmuster entspricht, stabiler ist als bisher angenommen“, ergänzt Gutjahrs Kollege Prof. Dr. Martin Frank. Nach Angaben der Wissenschaftler führen in diesem Zirkulationsmuster große Mengen Süßwasser durch abschmelzende Eismassen nur zu einer kurzen Abschwächung, aber nicht zu einem vollständigen Abbruch der nordatlantischen Tiefenwasserbildung. Erst als die Eismassen während der Höhepunkte der Kaltzeiten maximal ausgedehnt waren, bewirkten solche Süßwassereinträge einen Kollaps der Tiefenwasserbildung im Nordatlantik über mehrere hundert Jahre mit der Folge eines weiteren Absinkens der Durchschnittstemperaturen auf der Nordhemisphäre.

Zwei Pressemitteilungen zum selben Thema. Die eine mit Klimaalarm, die andere entwarnend. Die Auswertung der Medienreaktionen ist dabei hoch aufschlussreich. Während die PIK-Meldung in fast jeder deutschsprachigen Zeitung gelaufen ist, sucht man nach der Heidelberger Studie nahezu vergeblich, und das obwohl neben der Universität Heidelberg auch das Geomar eine Pressemitteilung herausgegegeben hatte. FAZ, Sächsische Zeitung, Rheinische Post, Spiegel, Deutsche Welle, Deutschlandfunk, NTV, Klimaretter – sie alle lieben den Klimaschauder des PIK, blieben aber im Dezember 2014 stumm, als die Heidelberger ihre hochinteressanten Ergebnisse präsentierten.

Allein die österreichische Tageszeitung Der Standard berichtete über beide Studien (Artikel zur Heidelberger Studie hier). Vielleicht ist dies auch der Grund, weshalb der Standard berechtigte Zweifel an der Berichterstattung über die PIK-Ergebnisse anklingen lässt:

Forscher konstatieren Abschwächung der Meeresströmung im Atlantik
Starke Veränderungen im 20. Jahrhundert könnten dem Klimawandel geschuldet sein, schreiben Forscher aus Potsdam – Kollegen melden allerdings Zweifel an. […] Der Klimaforscher Martin Visbeck vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel sieht Rahmstorfs Deutung der Ergebnisse kritisch: “Die Konzentration der Studie auf den subpolaren Teil des Atlantiks und die spektrale Analyse sind interessant”, sagt er. Aber es gebe auch andere Schätzungen der AMOC, die auf einen ganz anderen Verlauf hindeuteten. Die Arbeit biete keine starken Hinweise auf die Entwicklung der AMOC während der letzen 50 Jahre.

Der Spiegel reagierte auf das PIK-Modell sogar mit noch stärkerer Skepsis:

Umstrittene Studie: Schwächelt der Golfstrom?
Droht Europa eine Abkühlung? Der Golfstrom hat in den vergangenen Jahrzehnten deutlich an Kraft verloren, behaupten Forscher. Die Ursache sei der Klimawandel. Andere Experten geben sich skeptisch.
[…] Allerdings zeigen die Daten aus der Studie von Rahmstorf und seinen Kollegen auch, dass es offenbar keinen einfachen Zusammenhang zwischen steigenden Temperaturen und schwächer werdender Amoc gibt. Denn seit 1990 hat die Zirkulation wieder einen Teil ihrer Kraft zurückerlangt – obwohl die Eisschmelze in der Arktis im gleichen Zeitraum ungebremst vorangeschritten ist. Klimaforscher Martin Visbeck vom Helmholtz-Zentrum für Ozeanforschung Kiel (Geomar) zieht gleich Rahmstorfs gesamte Deutung der Ergebnisse in Zweifel: “Die Konzentration der Studie auf den subpolaren Teil des Atlantiks und die spektrale Analyse sind interessant”, sagt er. Die Arbeit aber biete keine starken Hinweise auf die Entwicklung der Amoc während der vergangenen 50 Jahre. Die meisten Studien gingen gar von einem Erstarken der Strömung aus. Auch Michael Hofstätter von der Zentralanstalt für Meteorologie und Geodynamik (ZAMG) in Wien bewertet die Rahmstorf-Studie skeptisch. Die Temperaturschwankungen könnten auch eine “vorübergehende natürliche Variation” sein, sagte Hofstätter dem Onlinedienst des ORF. Die Messungen deckten einen zu kurzen Zeitraum ab, um konkrete Vorhersagen zu treffen.

Auch in der internationalen Fachwelt stieß die neue PIK-Veröffentlichung bei vielen Kollegen auf Ablehnung. Neben den Heidelbergern sehen auch US-Kollegen die Situation gänzlich anders. Bereits im Januar 2014 hatte ein Forscherteam um Thomas Rossby von der University of Rhode Island in den Geophysical Research Letters Projektergebnisse veröffentlicht, die im Gegensatz zur PIK-Behauptung eine große Stabilität des Golfstroms in den letzten 20 Jahren belegen (im Folgenden die Kurfassung der Publikation):

Zur langzeitlichen Stabilität des Golfstrom-Transportes auf der Grundlage 20 Jahre langer direkter Messungen

Im Gegensatz zu jüngsten Behauptungen über eine Verlangsamung des Golfstromes, zeigen zwei Dekaden mit der direkt gemessenen Geschwindigkeit quer zu der Strömung keine Beweise für eine Abnahme derselben. Mittels einer gut durchdachten [well-constrained] Definition der Breite des Golfstromes ergibt die lineare Anpassung [fit] kleinster Quadrate eine mittlere Transportgeschwindigkeit an der Oberfläche von 1,35 X 10↑5 m²/s* mit einem negativen Trend von 0,13% pro Jahr. Unter der Annahme geostrophischer Verhältnisse [?] korrespondiert dies mit einer mittleren Differenz der Höhe des Meeresspiegels quer zur Strömung von 1,17 m, welche während dieser 20 Jahre um 0,03 m abgenommen hat. Das ist innerhalb des 95%-Vertrauensniveaus nicht signifikant und liegt um einen Faktor 2 bis 4 unter den vermeintlichen beschleunigten Anstieg des Meeresspiegels entlang der US-Küste nördlich vom Kap Hatteras. Teilweise kann diese Disparität auf die räumliche Komplexität der altimetrischen Meeresspiegel-Trends während des gleichen Zeitraumes zurückgeführt werden.

[*Mit dieser Einheit kann ich absolut nichts anfangen. Eine Geschwindigkeit kann es nicht sein, aber was dann? Weiß jemand eine Erklärung? Anm. d. Übers.]

In einer Pressemitteilung seiner Universität aus dem März 2014 ließ Rossby keinen Zweifel daran, dass die harten Messdaten eine klare Sprache sprechen und keinerlei Abschwächung des Golfstroms zeigen:

Während der letzten 20 Jahre haben er und seine Kollegen den Golfstrom vermessen mittels eines akustischen Doppler-Strömungs-Profilers (ADCP), der auf dem Frachter Oleander montiert war. Dieser Frachter verkehrt wöchentlich zwischen New Jersey und Bermuda. Das Instrument misst die Geschwindigkeit, mit der das Wasser unter dem Schiff vorbei strömt bis zu einer Tiefe von 600 m und hat einige tausend Messwerte des Golfstromes gesammelt seit seiner Installation Ende 1992. „Das ADCP misst Strömungen mit sehr großer Genauigkeit, und so haben wir durch wiederholte Messungen Jahr für Jahr ein sehr aussagekräftiges Tool, um die Stärke der Strömung zu überwachen“, sagte Rossby. „Es gibt Variationen mit der Zeit, die natürlichen Ursprungs sind – und ja, diese müssen wir noch besser verstehen – aber wir finden absolut keine Beweise, die nahelegen, dass sich der Golfstrom verlangsamt“.

Zur gleichen Schlusssfolgerung war auch die NASA bereits vor einigen Jahren gekommen. In einer Pressemitteilung vom 25. März 2010 gab die Behörde bekannt:

NASA-Studie: Atlantisches ,Fließband‘ [conveyor belt] verlangsamt sich nicht

Neue Messungen der NASA der Atlantic Meridional Overturning Circulation, Teil der globalen Meeresströme, der hilft, das Klima rund um den Nordatlantik zu bestimmen, zeigen während der letzten 15 Jahre keine signifikante Verlangsamung. Die Daten zeigen, dass sich die Zirkulation während der jüngsten Vergangenheit sogar etwas beschleunigt haben könnte. Die Ergebnisse stammen von einem neuen Überwachungsverfahren, das von dem Ozeanographen Josh Willis vom Jet Propulsion Laboratory der NASA in Pasadena entwickelt worden ist. Dabei werden Messungen von die Ozeane überwachenden Satelliten und Messbojen verwendet. Die Ergebnisse werden in der Ausgabe der Geophysical Research Letters vom 25. März veröffentlicht. … Bislang jedoch gibt es keine Anzeichen für eine Verlangsamung der Zirkulation. „Die von uns beobachteten Änderungen sind vermutlich Teil eines natürlichen Zyklus’“, sagte Willis. „Die leichte Zunahme des Overturning seit 1993 fällt zusammen mit einer Jahrzehnte langen natürlichen Abfolge von Erwärmung und Abkühlung des Atlantiks“.

Die renommierte Klimawissenschaftlerin Judith Curry bringt es in ihrem Blog am 25. März 2015 auf den Punkt. Sie misstraut den Klimaproxies der Rahmstorf/Mann-Gruppe und vermutet, dass die Forscher auf die natürliche Klimavariabilität hereingefallen sind. Was PIK & Co. als anthropogenen Klimawandel verkaufen, sind in Wirklichkeit ganz normale Klimaschwankungen im Zusammenhang mit quasi-periodischen Ozeanzyklen, die sie einfach nicht wahrhaben wollen. Curry schreibt:

Nun, wenn es etwas gibt, dem ich noch mehr misstraue als Klimamodellsimulationen von Meeresströmen im Zeitmaßstab von Jahrzehnten bis zu Jahrhunderten und deren interner Variabilität, sind es deren Proxy-Analysen von Michael Mann. Man tut so, als ob Grannenkiefern und Tiljander-Sedimente uns etwas über die Flussraten des Golfstromes sagen können ebenso wie etwas über die globalen Temperaturen. Bemerkenswert. … Wem also soll man glauben? Klimamodellen und Mann’schen Proxys oder direkten Messungen der Ozean-Zirkulation der Satelliten? … Was wir in den hohen Breiten des Nordatlantik sehen, ist natürliche Variabilität, vorherrschend assoziiert mit der Atlantic Multidecadal Oscillation. Auf der Grundlage analysierter Messungen gibt es keine Anzeichen einer Verlangsamung des Golfstromes oder der Atlantic Meridional Overturning Circulation.

Auch der Klimastatistiker Steve McIntyre, der bereits Michael Manns Hockeystick zu Fall brachte, war entsetzt. Für ihn war es ein schwerer Schlag zu sehen, dass die Rahmstorf/Mann-Gruppe im aktuellen Golfstrom-Paper erneut hochumstrittene und bereits von der Fachwelt für unbrauchbar eingestufte Klimaproxies verwendet hat. (Eine deutsche Übersetzung von McIntyres Kritik gibt es auf EIKE). Zudem wurden erneut Datenreihen nach Belieben gekürzt, offenbar damit favorisierte Trends besser zur Geltung kommen. Ein anderer Forscher bemängelte, dass im Rahmstorf/Mann-Paper noch immer eine Hockeystick-Variante von 2008 als Grundlage verwendet wird, obwohl es mittlerweile viel realistischere Klimarekonstruktionen gibt.

Nun ist Rahmstorfs Golfstrom-Thema alles andere als neu. Michael Krüger stellt im Science Skeptical Blog in seinem Artikel “Und täglich grüßt das Murmeltier: Stefan Rahmstorf und der ‘versiegende’ Golfstrom” die facettereiche Geschichte des Themas dar. Darin geht es um Behauptungen, Dementis, und Dementis von Dementis. Lesenswert. Außerdem bietet Krüger auch eine interessante Erklärung für die von Rahmstorf zum anthropogenen Klimawandel-Beweis hochstilisierten Kälteanomalie im Nordatlantik.

Angesichts der massiven Welle von Kritik mutet es bizarr an, dass das PIK am selben Tag, ebenfalls am 24. März 2015, eine zweite Pressemitteilung herausgab:

Bestnoten für das PIK: Senat der Leibniz-Gemeinschaft bestätigt Exzellenz 
Der Senat der Leibniz-Gemeinschaft, die mehr als 80 wissenschaftliche Einrichtungen vereint, hat am gestrigen Montag mit seiner Stellungnahme die Evaluation des PIK abgeschlossen. Die Arbeitsergebnisse des Institut seien „hervorragend“, heißt es hierin. Die Bewertung basiert auf einer nur alle sieben Jahre stattfindenden Begutachtung durch ein Team internationaler Spitzenforscher. Nach dem Urteil der Gutachter hat sich das PIK zu einem der weltweit führenden Institute für Klimawissenschaft entwickelt. Hervorgehoben wurde dabei neben der Forschungsleistung auch die wichtige Rolle des Instituts in der wissenschaftlichen Politikberatung.

Ein guter Witz.

Link: http://www.kaltesonne.de/neue-golfstrom-publkation-des-pik-fallt-in-der-fachwelt-glatt-durch/

Dieser Beitrag war zu erst im Blog „Die Kalte Sonne“ erschienen. Übersetzung der englischen Passagen darin von Chris Frey EIKE




Jochem Marotzke und Martin Stratmann (Hrsg)“Die Zukunft des Klimas“ – Eine Buchbesprechung

Das Buch ist von 18 „Spitzenwissenschaftlern“ geschrieben und aufgeteilt in 12 Kapitel. Das Vorwort der Herausgeber beginnt mit der Feststellung: „Der menschengemachte Klimawandel findet statt, und er berührt alle Facetten des Lebens.“ Das ist der große Pferdefuß des Buches. Es ist dogmatisch und eigentlich nur an Gläubige gerichtet, die ehrfürchtig alles glauben, was ohne jeden Beweis als Wissen präsentiert wird. Das „viel Vergnügen beim Lesen“ wirkt fast wie eine Verhöhnung. Nichts wird über die „Zukunft des Klimas“ gesagt. Es bleibt bei den üblichen Konjunktiv-Spekulationen wie, es könnte heißer, kälter, trockener, nasser werden. Überhaupt, das Wetter werde immer extremer.

Schlimmer noch, auf 230 Seiten wird mit keinem Wort gesagt, was Klima bedeutet. Die Klimaexperten arbeiten mit abstrakten Werkzeugen an einem abstrakten Objekt mit abstrakten Klimamodellen, die nur mit Szenarien spielen, aber keine Prognosen machen. Es wird verschwiegen, dass Klima nur anhand von vergangenen Wetterdaten beschrieben werden kann, die Kenntnis des Klimas folglich die Kenntnis des Wetters voraussetzt. An der maximalen Reichweite der Wetterprognosen endet auch das Wissen um die „Zukunft des Klimas“. Der Rest ist Spekulation!

Die Fantasie der Experten ist schon frappierend. Da werden die „Zugvögel zu Verkündern des Klimawandels“, ebenso die Pflanzen, obgleich sich die Zugvögel an den Lichtverhältnissen orientieren und die Pflanzen ganz vom Wetter abhängig sind. Unerklärlich ist, die Vegetation als „Fliegengewicht“ im globalen Klimageschehen darstellt, obwohl sie zentraler Bestandteil aller Klimadefinitionen ist. Der Kohlenstoffgehalt der Luft wird mit 830 und 720 Milliarden Tonnen, also mit einer Unsicherheit von 110 Milliarden Tonnen, angegeben, was aber bedeutet, dass alle fünf bis sieben Jahre ein CO2-Molekül durch Fotosynthese in ein Zuckermolekül eingebaut wird, sich also alle fünf bis sieben Jahren der CO2-Gehalt der Luft total erneuert. Dagegen wird in den Klimamodellen von einer Verweilzeit des CO2 in der Atmosphäre von 200 und mehr Jahren angenommen, um es ohne Beweis als Klimakiller brandmarken zu können.  CO2 ist Lebensvoraussetzung für die Existenz von Pflanzen und damit Grundvoraussetzung für alles Leben auf Erden.

Nicht nur der Begriff „Klima“, der aus dem Griechischen entlehnt ist und schlicht „Neigung“ bedeutet, es wird auch nicht erklärt, wie sich der statistisch aus Wetterdaten berechnete Wert Klima „erwärmen“ kann. Oder doch? Hier die Erklärung von Marotzke:  Der Boden strahlt Wärme ab und davon gehen 50 Prozent ins Weltall und 50 Prozent werden zur Erde reflektiert. Dieser erwärmt sich dadurch! Machen Sie ein einfaches Exempel: Bei Sturm werfen Sie 100 Euro in die Luft. Die 50 Prozent Scheine werden vom Winde verweht, doch die 50 Prozent Hartgeld fallen in ihren Schoß zurück. Werden Sie dadurch reicher? Nein, denn 50 Prozent sind verschwunden.  So geschieht es auch mit der Erdwärme und daraus folgt die nächtliche Abkühlung! Aus den Pflanzen beziehen Mensch und Tier ihre Lebensenergie. Das CO2 soll ein „Umweltgift“ sein? Da stockt einem der Atem!

Das Buch ist ein „Gebetbuch“ für Klimagläubige und nicht empfehlenswert. Die Max-Planck-Gesellschaft hat sich mit ihrem politischen Wohlverhalten einen Bärendienst erwiesen. Hätte sie doch geschwiegen! Aber kann sie das bei der Abhängigkeit von Staatssubventionen?

 Die Zukunft des Klimas

Neue Erkenntnisse, neue Herausforderungen

Ein Report der Max-Planck-Gesellschaft

Herausgegeben von Jochen Marotzke und Martin Stratmann

Beck-Verlag, München 2015, 230 Seiten, 16,95 Euro,

ISBN 978-3-404-66976-5




Eisbohrkern-Gedankenexperiment eines Ingenieurs – Fortsetzung

Es ist ziemlich eindeutig, dass die natürliche CO2-Emission (und atmosphärische Spitzenwerte) stimuliert werden durch jedweden globalen Temperaturanstieg, egal welche Gründe dieser Anstieg hat. Der globale Temperaturanstieg um rund 1,5°C seit der Kleinen Eiszeit kann vernünftigerweise als Grund für eine Zunahme [der Emissionen] bis hin zur doppelten Menge aus vielen der natürlichen Quellen angenommen werden, insbesondere der biologischen natürlichen Quellen). Siehe Tabelle 1:


Tabelle 1

Hier sind die primären Quellen der natürlichen CO2-Ausgasung gelistet, und zwar in absteigender Ordnung hinsichtlich der Menge des emittierten Kohlenstoffes: ozeanische Freisetzung, mikrobieller Zerfall, Insektenaktivitäten, Freisetzung aus auftauendem Frostboden, vulkanische Ausgasungen, Waldbrände und schließlich Atmung und Emissionen von Säugetieren – was zusammen eine Summe von etwa 325 bis 485 Petagramm ergibt. Dann ist da noch unsere anthropogene Freisetzung von rund 2,0% des natürlichen Flusses mit etwa 8 bis 9 Petagramm. (Auf der Grundlage von terrestrischen Quellen allein ohne Ozeane macht der anthropogene Fluss etwa 3 bis 4% des natürlichen Flusses aus. Einige machen geltend, dass die Ozeane Absorber sind und ignorieren dabei die in der Tabelle geschätzte Freisetzung aus den Ozeanen. Allerdings sind die Ozeane auf der Grundlage der hier präsentierten Argumente insgesamt Emittenten, wie in der Tabelle gezeigt, wenn sie sich um etwa 0,5°C pro Jahrhundert erwärmen).

Anmerkungen: Zwischeneiszeitliche Schätzungen stammen aus meinen Anmerkungen von den Websites von IPCC, NASA und NOAA der Jahre 2005 und 2006, als diese Sites noch eine detaillierte Analyse der natürlichen CO2-Emissionsquellen gezeigt haben. Terrestrische Schätzungen der CO2-Emission stellen den anthropogenen Beitrag mit etwa 3 bis 4% dar. Die jährliche Schätzung der Freisetzung durch Ozeane ist modelliert (aus Laborexperimenten der NOAA) und würde nur steigen, falls und wenn die Ozeane einem Erwärmungsprofil von 0,5°C pro Jahrhundert folgen würden (was höchstwahrscheinlich der Fall war). Thermische Modulationen aller nichtmenschlichen Emissionen können erwartungsgemäß ziemlich groß sein (bis zu 2 mal und mehr bei den Extremwerten der globalen Temperatur). Der einzige Wert, der mit hoher Genauigkeit geschätzt werden kann, ist der anthropogene Beitrag, der weitaus kleiner ist als sowohl die Unsicherheit und – am wichtigsten – die Variabilität vieler natürlicher Emissionsquellen.

Diese natürlichen Quellen korrelieren allesamt mit der globalen Temperatur einschließlich – am geringsten – mit dem terrestrischen Vulkanismus (wie jüngst verifiziert). Wird es auf der Erde wärmer, aus welchen Gründen auch immer, spielen alle diese natürlichen Quellen zusammen und tragen riesige Mengen CO2 in die Atmosphäre ein. Dies führt zu dem beobachteten gewöhnlichen atmosphärischen CO2-Anstieg. Wird es auf der Erde hingegen kälter, aus welchen Gründen auch immer, lassen alle zusammen in ihren Emissionen nach, was natürlicher- und konsequenterweise sowie kohärent eine Reduktion des atmosphärischen CO2-Gehaltes zur Folge hat. Jede Spitze oder jeder Abfall des CO2-Gehaltes folgt der Temperatur mit einer Verzögerung von etwa 800 Jahren, aber proportional zum Niveau und der Größenordnung, mit der sich die Temperatur ändert.

Daraus folgt die Erkenntnis, dass kurzfristig (weniger als 100 Jahre) der natürliche CO2-Fluss (steigend und fallend) von diesen biologischen Prozessen dominiert wird. Und dass eine natürliche biologische CO2-Abnahme eine Schubfunktion atmosphärischer CO2-Zunahme hat (d. h. der CO2-Eintrag muss steigen bevor die Abnahme des CO2 stimuliert wird). Und wenn man dann annimmt, dass die gesamte irdische Photosynthese-Aktivität von 1850 bis heute mit einer Rate von bloßen 0,35% zugenommen hat infolge der Temperatur/CO2-Stimulation, bekommt man ein Bild, dass etwa so aussieht:

Zu den oben gezeigten gespiegelten Beugungspunkten:

A) Die geringe negative Beugung des größeren Beitrags durch Mikroben/Insekten ist viel zu gering, um in der Summenmessung am Mauna Loa aufgeschlüsselt zu werden.

B) Die große positive Beugung des geringen anthropogenen Beitrags ist ebenfalls viel zu gering, um in der Summenmessung am Mauna Loa aufgeschlüsselt zu werden.

C) Die gesamte menschliche Aktivität (jeweils bei etwa 2%) ist durchweg irrelevant innerhalb unserer Grenzen der gegenwärtigen globalen CO2-Erkundung und -Evaluierung.

D) Eine geologisch unmittelbare Ersetzung etwa gleicher CO2-Emission erfolgte zwischen irdischen Lebensformen (d. h. anthropogene landwirtschaftliche Begrenzung für mikrobielle und Insekten-Emission ist in etwa gleich, aber möglicherweise auch größer als die anthropogenen CO2-Emissionen selbst).

Wir Menschen haben uns dazu entschlossen, die Ausbreitung von Mikroorganismen und Insekten auf den Flächen, die wir kultivieren und besetzen, zu begrenzen – was etwa ein Drittel allen Landes ausmacht. Und in den anderen zwei Dritteln allen Landes wird geschätzt, dass Mikroben und Insekten etwa die zehnfache Menge unserer anthropogenen Mengen emittieren (Insekten allein übertreffen zahlenmäßig die Menschen >>10.000.000.000:1 – das ist mehr als genug, um mehr als 10 Müllcontainer pro Person auf der Erde zu fällen).

Der relative Beitrag von Mikroben- und Insekten-Emissionen würde signifikant steigen, falls es uns nie gegeben hätte (sehr grob um einen Faktor 1,5*). Sie hätten unsere Lücke geometrisch gefüllt, anders als unser anthropogener Beitrag. Werden die Menschen reich, begrenzen wir einheitlich unsere starke Vermehrung mit dem Entschluss, weniger Kinder zu bekommen. Und unsere menschlichen Emissionen verblassen im Vergleich mit den Emissionen dieser astronomisch hohen Anzahl anderer Organismen. Falls es uns also nie gegeben hätte, würden erheblich größere Populationen von Mikroben und Insekten mehr als wir Menschen emittieren von genau den Ländereien, von denen wir sie derzeit systematisch fernhalten wollen.

*Mit Sicherheit lag unsere Begrenzung der Mikroben- und Insekten-Verbreitung innerhalb des von uns kultivierten Landes nicht bei 100%. Allerdings benötigt diese Begrenzung nur den leicht akzeptablen Wert von rund 10% oder mehr, um die Vermutung zu bestätigen: Wir haben Grund zu glauben, dass die gegenwärtige Spitze genauso groß oder sogar größer wäre als derzeit beobachtet, falls es uns Menschen nicht geben würde. Das heißt, der „Kohlenstoff-Fußabdruck“ der Menschen kann einen neutralen bis negativen Beitrag leisten und tut das wahrscheinlich auch. Und die gegenwärtig beobachtete atmosphärische CO2-Spitze ist im Wesentlichen durchweg natürlichen Ursprungs.

Mit dem oben Gesagten vermute ich mit großem Vertrauen, dass atmosphärische CO2-Spitzen die Folge eines jeden globalen Temperaturanstiegs sind. Und auch, dass die Spitze am akutesten wird während oder unmittelbar nach der Beugung von steigender zu fallender globaler Temperatur (mit kleineren Spitzen bei der Beugung von kalt nach warm).

Die Frage muss also lauten: Wie kommt es, dass wir diese Temperaturumkehr-Spitzen in den Eisbohrkernen nicht finden, wenn es während des gesamten Holozäns zu derartigen Temperatur-Umkehrungen gekommen ist?

Und die Antwort lautet: Diese hoch frequenten Spitzen von kurzer Dauer sind allgemein in Eisbohrkernen nicht zu finden wegen der unzureichenden Auflösung darin. Warum? … Für eine Antwort wollen wir jetzt den Eisbohrkern-Eintragsprozess betrachten und ideale mit realistischen Portraits vergleichen.

Nehmen wir einmal an, dass die folgende atmosphärische Durchdringung im Eis aufgezeichnet wird (siehe Abbildung 1). Zu irgendeinem Zeitpunkt t0 steigt der atmosphärische CO2-Gehalt von einer Hintergrund-Konzentration von 300 ppm 100 Jahre lang mit einer Rate von 3 ppm pro Jahr. Der Spitzenwert beträgt dann 600 ppm und repräsentiert eine 100%-Spitze der Original-Hintergrund-Konzentration und fällt dann in gleicher Weise während der folgenden 100 Jahre. Amplitude und Dauer der Durchdringung sind willkürlich, aber – wie ich glaube – potentiell repräsentativ auf vorausgehende Ereignisse der realen Welt (und möglicherweise befinden wir uns derzeit im 60. Jahr der Aufzeichnung eines irgendwie ähnlichen Ereignisses am Mauna Loa). Wie also könnte sich diese atmosphärische Durchdringung im Eis der Antarktis niederschlagen, sowohl ideal als auch realistisch?

Zuerst wollen wir die Ausgangsbedingungen des aufzeichnenden Mediums beschreiben, und zwar zum Zeitpunkt t0 und davor, wie man es typischerweise an einer Bohrstelle in der Antarktis finden könnte (Abbildung 2). An der Oberfläche werden ein paar Meter Schnee locker herumgeweht. Darunter befindet sich eine rund 100 Meter dicke Firnschicht – teils zusammengepresster Schnee, der von früheren Schnee-Jahreszeiten stammt. Das jahreszeitliche Alter des Schnees an der Untergrenze der Firnschicht beträgt rund 40 Jahre. Darunter wiederum liegt Gletschereis bis in große Tiefen, das sich durch den Druck des darüber liegenden Firns gebildet hat. Dieses Gletschereis repräsentiert vergangene Saisons, abgebildet in Schichten, von vor 40 Jahren bis zu vor 800.000 Jahren. Der atmosphärische CO2-Gehalt betrage ursprünglich 300 ppm.

In Abbildung 3 sehen wir einen Schnappschuss der „idealen“ Aufzeichnung des atmosphärischen CO2 zum Zeitpunkt t0 plus 50 Jahre. Während dieser 50 Jahre stieg die atmosphärische CO2-Konzentration von 300 ppm auf 450 ppm mit 3 ppm pro Jahr. Die letzten 40 dieser 50 Jahre sind im Firn aufgezeichnet, während die ersten 10 Jahre inzwischen im Gletschereis angekommen sind.

Allerdings sehen wir in Abbildung 3A, dass infolge Diffusion eine realistischere Darstellung eine steilere Neigung hat, aber nominell ein ähnliches Profil.

In Abbildung 4 sind weitere 50 Jahre idealer Aufzeichnung vergangen. Am Zeitpunkt t0 plus 100 Jahre hat der atmosphärische CO2-Gehalt jetzt seinen Spitzenwert bei 600 ppm erreicht. Wieder sind die letzten 40 Jahre im Firn aufgezeichnet, während die ersten 60 Jahre im Gletschereis angekommen sind.

Allerdings sehen wir in Abbildung 4A, dass infolge Diffusion eine realistischere Darstellung eine steilere Neigung hat, aber nominell ein ähnliches Profil.

Während dieser Initial-Perioden stetig zunehmender CO2-Konzentration zeigt sich, dass das realistische Profil ziemlich gut zu dem idealen Profil passt. Aber das wird sich ändern.

In der „idealen“ Abbildung 5 befinden wir uns jetzt auf dem absteigenden Ast der aufzuzeichnenden atmosphärischen Durchdringung. Der atmosphärische CO2-Gehalt hat sich von seinem Spitzenwert von 600 ppm auf 450 ppm verringert. Wie zuvor finden sich die letzten 40 Jahre im Firn, und 110 Jahre der Aufzeichnung sind im Gletschereis gelandet; einschließlich des Spitzenwertes von 600 ppm.

Aber jetzt sehen wir in Abbildung 5A, dass die Diffusion zurück in die Atmosphäre ein sehr unterschiedliches realistisches Porträt des wirklichen Aufzeichnungsprozesses angenommen hat. Und dieser Unterschied wird weiterhin immer ausgeprägter werden.

In Abbildung 6 „ideal“ ist die atmosphärische Konzentration beim Zeitpunkt 200 Jahre wieder auf die Ausgangsposition gesunken, während der Firn immer noch die Überreste der Durchdringung in das Gletschereis durchlässt.

In Abbildung 7 ist die „ideale“ Eisaufzeichnung im Gletschereis vollständig. Aber in Abbildung 7A sind nur rund 7% der Original-Durchdringung realistisch beibehalten.

In Abbildung 8 sehen wir, wie sich diese Aufzeichnung im Idealfall weitere 250 Jahre in das Gletschereis hineinbewegt, während Abbildung 8A zeigt, dass nur etwa 5% der Original-Durchdringung tatsächlich aufgezeichnet worden waren.

Und diese einzige Quelle dämpfender Verzerrung ereignet sich am ursprünglichen Beginn des Aufzeichnungsprozesses im Eisbohrkern (die ersten paar hundert Jahre), trotz nachfolgender Aufzeichnungs-Verzerrungen – von der jede einzelne Verzerrung spezifisch und selektiv die „Spitzen-CO2“-Aufzeichnung verringert … selektiv.

Man braucht nicht allzu viel Denkkraft um zu erkennen: falls die Dauer der Durchdringung bei 200 Jahren festgelegt wird, wären die Ergebnisse ähnlich denen, die für jede Amplitude der Durchdringung gezeigt werden würde – nur etwa 5% würde man am Beginn der Aufzeichnung erhalten.

Somit wird klar, warum diese durch Temperatur-Beugung ausgelösten Spitzenwerte nicht in den Eisbohrkernen auftauchen. Viele (die meisten) der Holozän-Durchdringungen würde Zeitlängen kürzer als 200 Jahre involvieren dergestalt, dass die Aufzeichnung im Eisbohrkern im Grunde in ihrer Gesamtheit verloren geht, unabhängig von der Amplitude der Durchdringung.

Man kann vernünftigerweise auch annehmen, dass Temperatur-/CO2-induzierte Rückgänge der Photosynthese [photosynthetic sinking] allgemein nicht zulassen werden, dass die Amplitude des Spitzenwertes größer als 100% wird; zumindest nicht bei Abwesenheit eines Sättigungs-Ereignisses des photosynthetischen Rückgangs.

Folglich lautet eine gute Frage: Angesichts dessen, dass die Eisbohrkerne 50-prozentige CO2-Spitzen während des großen Gletscherschwunds zeigen, welche minimale Zeitdauer der Durchdringung wäre erforderlich, damit die 50-Prozent-Punkte einer Durchdringungs-Amplitude von 100% die initiale Schwächung des Aufzeichnungsprozesses überleben? Meine Schätzung lautet, dass irgendein Zeitraum länger als 500 Jahre erforderlich ist.

Ein Letztes betrachtet die Historie tausender atmosphärischer CO2-Messungen, die durch kompetente Meteorologen via chemischer Analysen durchgeführt worden sind. Diese Wissenschaftler waren keine Idioten. Sie mögen keine akkuraten Verfahren gehabt haben, aber sie hatten mit Sicherheit präzise Verfahren, sonst hätten sie diese Messungen niemals viele Jahre lang durchgeführt. Und es ist unvorstellbar, dass sie alle unabhängige, aber systematische Messfehler gemacht haben (jahrelang), irrig hohe Werte erhalten haben, aber nur während der Jahre, die einem Übergang von Erwärmung zu Abkühlung folgten. Chemische Analysen zeigen klar atmosphärische CO2-Spitzen, genauso groß oder größer als heute, während der zwanziger und fünfziger Jahre des 19. Jahrhunderts sowie Anfang der vierziger Jahre des 20. Jahrhunderts – in jedem Falle einer Beugung der Temperatur von Erwärmung nach Abkühlung folgend. Und die Tatsache, dass diese gleichen Ereignisse in den Eisbohrkern-Aufzeichnungen fehlen, sind oben gut erklärt.

Und schließlich – CAGW ist nicht einfach falsch … es ist vollständig und umfassend falsch. Erhöhte atmosphärische CO2-Werte sind kein Klimagift, sondern das Lebenselixier für alle Lebensformen auf der Erde. Und die Falschinterpretation oder Missverständnisse aus den Eisbohrkernen hat erheblich zu unserer Konfusion beigetragen. Mehr Info gibt es hier.

Ronald D Voisin is a retired engineer. He spent 27 years in the Semiconductor Lithography Equipment industry mostly in California’s Silicon Valley. Since retiring in 2007, he has made a hobby of studying climate change. Ron received a BSEE degree from the Univ. of Michigan – Ann Arbor in 1978 and has held various management positions at both established semiconductor equipment companies and start-ups he helped initiate. Ron has authored/co-authored 31 patent applications, 27 of which have issued.

Link: http://wattsupwiththat.com/2015/04/04/an-engineers-ice-core-thought-experiment-2-the-follow-up-2/

Übersetzt von Chris Frey EIKE