Grundüberlegungen zur Bestätigung oder Widerlegung von Annahmen im Klima-Modell

Hans von Storch und Nico Stehr sehen es als falsch an, den Eindruck zu erwecken, als seien die naturwissenschaftlichen Grundlagen des Klimaproblems im Wesentlichen gelöst.[2]
Die beiden letztgenannten sind nicht die einzigen „Wissenschaftler“, die „tendenziösen“ „öffentlichen“ Verlautbarungen misstrauen. Aber nicht die Quantität von Wissenschaftlern entscheidet über die Gültigkeit einer Hypothese/Theorie, sondern die Falsifizierbarkeit. Nur im Falle der Erfüllung dieser Voraussetzung  kann eine einheitliche Vorhersage erzeugt und eine eindeutige Bedeutung der Daten aus einem Klimamodell hergeleitet werden.[3] Daten sollten also jederzeit und von jedermann überprüft werden können, ja zumindest einsichtig und nachvollziehbar sein. Szenarien auf der Grundlage einer These eines Treibhauseffektes und Unsicherheiten z.B. über die Wolkenbildung repräsentieren keine geschlossene wissenschaftliche Klimatheorie, sondern sind so etwas wie Studier- und Abschätzungsobjekte. Das gilt auch für die Heranziehung von sogenannten Paläo-Proxythermometrie-Daten, um die Vergangenheit der Oberflächentemperatur der Erde aufzuhellen; ihre Brauchbarkeit muss mindestens eingeschränkt werden.[4
Wie komplex das Gedankenobjekt „Klima“ oder gar das „globale Klima“ [5] ist, worunter die Gesamtheit meteorologischer Vorgänge in der Erdatmosphäre mitsamt seinen prozessualen Einflüssen verstanden wird, zeigen die unterschiedlichen Modelle, die man sich davon macht.
Sicher ist eines: die solaren Energie-Einträge zur Erde schwanken periodisch und sind von daher berechenbar. Gleichzeitig steigt die Erkenntnis, dass die in der Erdkruste verborgenen Energie-Vorräte nicht nur endlich, sondern mit unterschiedlichem wirtschaftlichem Aufwand nutzbar sind. Schon aus einem drohenden „Aus“ der Gewinnung solcher (fossilen brennbaren) Rohstoffe ist bei den Menschen eine Vorsorge für die Zeit danach verständlich. Aus der irdischen und der geschichtlichen Vergangenheit wissen wir zudem, dass das Leben bestimmende Klima den tierischen Warmblütern nicht immer günstig, ja sogar zeitweise für die Menschen existenzbedrohend war. Auch ist bekannt, dass es Warm- und Hitzezeiten für gewisse Regionen der Erde gab, die Flüsse versiegen und Wasser verdunsten, die Oberfläche austrocknen ließ und die Menschen zum Wandern ais ihrer „Heimat“ zwang. Es galt nunmehr,   solche Ereignisse zu vermeiden, falls dazu der Mensch in der Lage ist.
Nicht ungewöhnlich war und ist es, wenn der Mensch sich der ihm umgebenden Natur bemächtigt und sie radikal ausnutzt; so holzte er zügellos die Baumbestände ab für Bauten und zum Holzverfeuern. Mit zunehmendem Bedarf wurden solche Verhältnisse dramatischer, besonders, wenn der Verbrauch rasant steigt. Da scheint die Überlegung naheliegend, dass solches Handeln gestoppt werden muss, wobei zwei Dinge aufeinander stoßen: das energetisch bedingte[6] Erschöpfen der Vorräte und die damit in Verbindung gebrachte klimatische Erwärmung. Anders ausgedrückt: das Produkt der Verbrennung kohlenstoffhaltiger Vorräte zu Kohlendioxid, erkenntlich an deren Verbrauch und deren Emission in die Atmosphäre[7]. Nun fehlen nur noch der Gedanke und auch der Nachweis, dass durch die Annahme, dass Kohlendioxid zur Intensivierung des Energieeintrages in die für den Menschen wichtige Atmosphärenschicht ursächlich für die Bedrohung der menschlichen Existenz ist. Dazu könnten die Wärmestrahlungsgesetze dienen, da eigentlich ohne eine Sonnenstrahlung kein Leben auf der Erde möglich ist. Der Prozess des energetischen Austausches der beteiligten System-Elemente Sonne, Erde und die der Atmosphäre ist aber global weder gesamtheitlich bekannt noch (messtechnisch) quantifizierbar, weshalb man zu vereinfachten Vorstellungen übergeht, d.h. die Schwankungen einerseits durch Mittelwert-Bildung[8] und andererseits durch idealisierte Gang-Charakteristiken zu ersetzen.[9] Obwohl die meßtechnischen Daten für eine statistische Auswertung ungenügend sind, nutzt man weltweit eine Temperatur-Verteilung der an 2m-Höhe gebundenen bodennahen Temperaturen.[10]
Dass in verschiedenen Regionen der Erde die Wolkenerscheinungen wichtiger Bestandteil des Klimas sind, ist bekannt; die sichtbare Ansammlung von Wasser in der Atmosphäre in den Strahlungsaustausch-Prozess ein. Aber auch hier wissen wir wenig; die Forschung versucht, in der Niederschlagsphysik die sich abspielenden Prozesse zu verstehen[11] und die Wiederholbarkeit von irregulären Niederschlags-Prozessen zu erfassen. Ähnliches ist von der Dynamik der Luftmassen-Bewegungen, die verantwortlich für den Gastransport sind, zu sagen. Um z.B. Zirkulationsmodelle global praktisch anwenden zu können, muss man daher verschiedene Annahmen treffen, um die numerische Modellierung weiter voran zu treiben.

Insgesamt kann man sagen, dass für eine genauere Prognose die dazu existierenden Schätz-Daten noch nicht ausreichen, um sicheres Vertrauen in die Verkündungen auf Basis des jetzigen Wissensstandes zu wecken, zumal die verschiedenen Prozessverknüpfungen[12] z.T. nur erahnt werden. Maßgebend ist nicht das erforschte Detailwissen, sondern infolge der Datenlücken der Vermutungsgrad, wie diese mit Annahmen ausgefüllt werden. [13]

Ein deutliches Zeichen für die anzuwendende Vorsicht gibt da die Beschränkung einer Übernahme von Ausbreitungsmodellen in die technische Normung und Gesetzgebung.[14] Die  Ausbreitung von Luftschadstoffen muss schließlich meßteschnisch real ermittelt werden.
Wenn man die atmosphärischen Prozesse mathematisch darstellen und damit die Gesundheit der Hypothesen prüfen will, muss man den Umfang auf verfügbare und zugleich zuverlässige Daten reduzieren, muss man bei der Berechnung Einschränkungen vornehmen und bei Datenlücken womöglich einen Verlauf  rekonstruieren[15]. Diesen Vorgang muss man komplett angeben, sonst handelt man sich den Vorwurf inkorrekter Veröffentlichung ein. So gehören insbesondere die globale (bodennahe gemittelte) Temperatur aus Daten inhomogen verteilter Messstationen[16] und der Kohlendioxid-Gehalt in der Atmosphäre zu diesem Daten-Ensemble[17].  Beide Daten sind inkonstant, sie werden laufend in neuen Zuständen angetroffen, weshalb man sich trotz der durch Messung und Auswertung vorhandenen Aussage-Risiken deren relevante Daten über Mittelungen[18] zu beschaffen versucht. Hierzu benutzt man Prozess-Vorstellungen und Erscheinungen der Häufigkeit (Histogramme) in der Annahme, es gäbe reguläre Verteilungen von einzelnen Prozess-Parametern[19] und seltene Ereignisse wie Vulkan-Ausbrüche usw. könne man vernachlässigen. Beim Wetter scheint es offenbar (nur angenähert) genaue Wiederholvorgänge über der Zeit[20] zu geben, weshalb man eine Langzeit-Statistik bei der Voraussage zukünftiger Verhältnisse zu Hilfe nehmen muss.[21] Dabei muss berücksichtigt werden, dass das Messen und die zu messende (physikalische) Größe als eine Veränderliche im Klima-Prozess mit Streuungen behaftet sind. Es gibt höchstens Wahrscheinlichkeitsaussagen auf Basis von unsicheren historischen Daten.[22]
Da die Zeitreihen nicht lückenlos und wissenschaftlich nicht gleichvertrauenswürdig sind, aber für eine vernünftige Vergleichsbasis eine längere Beobachtungsperiode angesetzt werden muss, einigte man sich international auf eine Zeitbasis von 30 (nichtüberlappenden) Jahren. Es bedarf aber keiner weiteren Erläuterung, dass weder der dynamische Prozess in seinen Antrieben noch in der sich ständig wechselnden Verteilung der Luftmassen und ihrer Bestandteile (z.B. Wolken) hinreichend bekannt sind und (voll) verstanden werden noch diese Vorgänge meßtechnisch ausreichend sicher verfolgt werden können. Der Klimatologe Roger A. Pielke senior hält den Top-down-Fokus des IPCC, eine von globalen Modellen ausgehende Betrachtung generell wie auch eine auf Treibhausgase verengte Perspektive für falsch.[23] Die IPCC Szenarien sind als Momentaufnahmen des Erkenntnisprozesses zu betrachten. Zwischen den Veröffentlichungen ändert sich sowohl der Forschungsstand durch neu gefundene Zusammenhänge als auch die Realität durch unvorhergesehene Entwicklungen.
Für die Änderungen des Wetters gibt es zahlreiche Indizien und in Übertragung und Erweiterung davon des globalen Klimas, jedoch wird gerade hier und grundsätzlich ein Anspruch höherer Aussagekraft als früher erhoben, als die Menschen das Geschehen mit ihren Sinnen ohne Instrumente beobachteten und seit jeher ungewohnte Naturereignisse[24] nach der Dramatik für sie bewerteten. Heute nennt man den Ausdruck Extremereignisse, deren spezielle Ursachen man zwar nicht kennt, aber in Zusammenhang mit menschlichen Aktivitäten bringt und auch so deuten kann.[25] Die Klimaforschung stochert nicht im Dunklen. Wir sind so weit, dass wir anhand von Szenarien brauchbare Aussagen über künftige Veränderungen machen können. Das Kernproblem bleibt:

wie realistisch sind die Szenarien[26] und wie weit vermag der Mensch in den Klima-Prozess tatsächlich zu seinen Gunsten einzugreifen, eine zumindest teilweise philosophische Frage.

Es gibt verschiedene Strategien, mit denen politische Gewalten (Regierungen), einerseits unsere Kenntnisse über das Klima-System zu verbessern und andererseits möglichen Negativ-Einflüssen (für den Menschen schlechthin) zu begegnen. Die mit Klimamodellen mögliche Vorhersage des Klimas ist nur relativ, da solche Prognosen von der Wahl der Randbedingungen abhängen, im aktuellen Fall von der weiteren Entwicklung der Emission der „Treibhausgase“ über einen Zeitraum von vielen Jahrzehnten. Quantitativ sind Klimamodelle Beschreibungen und Ausdruck des Standes der Klimatheorie.[27] Nun stellen die globalen Klima-Modelle erhöhte und andersartige Ansprüche an die zu leistenden Voraussetzungen für eine Aussage-Wertigkeit[28] als z.B. für eine Meso-Klima. Und es geht

nicht nur um Möglichkeiten aus dem Resultat eines Szenarium, sondern um eine Gewissheit richtigen Handelns, die mit ökonomisch weittragenden (ökonomischen) Lasten auf die Menschen verbunden ist und die Menschheit in eine andere Zukunft transformiert.

Um eine solche Gewissheit zu erlangen, ist die Prüfung kritischer Klima-Daten unerlässlich, z. B. der globalen Referenz-Temperatur im Vergleich. Aus der Meteorologie sind bodennahe Luft-Temperaturen in 2 m Höhe bekannt, in der Vorstellung einer Erwärmung geht man von einer Abstrahlung der Oberflächen-Bestandteile Richtung Weltraum aus und vernachlässigt den Erdwärmestrom aus dem Erdinnern sowie den dieses geringen Temperaturgradienten. Über dem hohen Wasserflächenanteil besteht eine verringerte Meßdaten-Dichte. Derzeit werden die Daten der Messstationen gleichbehandelt, obwohl unzweifelhaft die strenge Vergleichbarkeit keineswegs durchgängig gewährleistet[29] scheint, die Mess-Stellen nicht immer in ein gleichförmiges Raster-Netz passen und die Zusammenfassung zu einem Ensemble sowie der zeitlichen Mess-Abstände zu einem „Mittelwert“ problembehaftet sind.[30] Die Repräsentativität ist eine sehr wichtige Forderung von Probenehmern und Statistikern.[31]
Über die Betrachtung der Daten-Zeitreihen, z.B. der globalen monatlichen Mitteltemperaturen kann man durch Regressionsanalyse z.B. einen linearen Trend einer Erwärmung bestimmen, ohne ein Mindestmaß an Bestimmtheit oder auch Angabe von Streuungsmaßen (Konfidenzintervallen) zu fordern, dann sollte man aber auch die mögliche Fehlerhaftigkeit bekunden. Gerade bei Mehrfach-Mittelungen hintereinander können wichtige Informationen herausfallen, so dass man mit Daten operiert, die nur scheinbar geeignet sind, großartige Schlüsse daraus abzuleiten.[32] Es muss daher eine Steigerung der Vertrauenswürdigkeit der globalen Temperatur-Daten im gesamten Mess- und Auswerteprogramm vorgenommen werden, um einem vorbehaltlosen Gebrauch zustimmen zu können. Die Rückschlüsse aus Proxydaten wie Eisbohrkernen sind auf Grund ihrer Probenahme nicht immer einwandfrei.[33]

Die Hypothese einer Erwärmung auf Grund eines anthropogenen Anteils von CO2 an der leichten globalen Erwärmung ist bisher nicht hinreichend bewiesen.[34] Es gibt bestenfalls Indizien, deren Bedeutungen jedoch stark umstritten sind. Man könnte auch folgern, dass wirtschaftspolitische Maßnahmen, die sich auf die CO2-Hypothese stützen, nicht ausreichend begründet sind.

Es scheint niemand genau angeben zu können, wie hoch tatsächlich der anthropogene Anteil an der jeweiligen CO2-Anreicherung und deren Verteilung in der globalen Atmosphäre ist, er könnte nur einige Prozent betragen, da einerseits die CO2-Bilanzen auf unzureichendem Datengemenge beruhen und andererseits von zu wenig vertrauenswürdigen Daten stammen.[35]

Das aber wiegt schwer, denn mit der z.Zt. geringen Zahl an Messdaten in der Atmosphäre selbst[36] kann man nicht von einer Bestätigung einer CO2-Hypothese sprechen.

Die Hochrechnung von Emissionsdaten bei unsicherer statistischer Ermittlungsbasis bestätigt lediglich eine gefühlsmäßige Einschätzung, dass der Wohlstands-Hunger laufend auch ein Verlangen nach mehr Energie-Verbrauch hervorruft. Würden alle Menschen auf der Erde auf hohem Wohlstands-Niveau leben, müssten die Schätzungen über den Zeitpunkt des Endes fossiler kohlenstoffhaltiger Vorräte korrigiert werden. Aber das ist eine philosophisch-politische Frage.  Bis jetzt ist jedenfalls die von der Politik und Wissenschaftlern geforderte CO2-Emissions-Minderung durch staatliche Vorgaben nach den vorliegenden Einzeldaten ausgeblieben. Offenbar stoßen verschiedene Interessen aufeinander und – es werden nicht überall der Klimazustand und dessen anthropogene Änderung gleich bewertet.

Somit gilt festzustellen:

Es wird ein hoher Aufwand für die Enträtselung des globalen Klimas durch die Wissenschaft getrieben – und dieser wird staatlich stark gefördert. Wir wissen jedoch nicht, wie lange wir noch auf den weitgehend aufgeklärten Zustand warten müssen. Und es gilt, diejenigen Wissenschaftler, die sich nicht der in den Medien hoch begünstigten Angst-Macherei anschließen und kritisch sind einzubinden. Die zuweilen polemischen Anwürfe an diese Gruppe „zielloser Skeptiker“ sind unter Wissenschaftlern eigentlich unüblich und sie sind des Kulturniveaus und einer höheren Diskussionskultur unwürdig.
Ich bin dankbar für die schärfste Kritik, solange sie nur sachlich bleibt.
Otto von Bismarck (1815-1898).
Dr.Ing. A. Rabich, Dülmen für EIKE

Der Autor war Umweltpreisträger auf der Hannover Messe wegen Forschungsarbeiten an einen Drall-Brenn-Reaktor mit der TU Clausthal-Zellerfeld und Initiator für Normen und gesetzliche Regelungen für PCB. Sowie u.a. Obmann eines Arbeitskreises Konstruktion im Verein Deutscher Ingenieure, Düsseldorf, später von weiteren Arbeitskreisen usw.. REFA-Industrial-Engineer, Darmstadt (Arbeitsstudien/analysen) und promovierte 1977 zum Dr.-Ing. TH/FU Berlin  Verfahrenstechnik

 


[1] http://de.wikipedia.org/wiki/Kontroverse_um_die_globale_Erwärmung  08.05.2012:17.57
[2] siehe Zitat 17 in Fußnote 1.
[3] Frank, Patrick. http.//wattsupwiththat.com/2012/03/27/nese-when-is-purported-science-not-science/’nire.60214 dort auch weitere Literaturstellen. www.eike-klim-energie-eu/news-cache/nese-wann-ist-angebliche-Wissenschaft-keine-Wissenschaft-mehr? (Übersetzung von Chris Frey)
[4] Pat Frank, Quelle und Literatur-Bezüge in (deutscher Übersetzung): www.eike-klima-energie.eu/news-cache/stellvertreter-prox-methodik-fuehrt-zu-Pseudowissenschaft 11.05.2012
[5] http://de.wikipeida.org/wiki/Klima,  Klimabegriff.
[6] und stoffliche.
[7] darauf basiert die heutige Erkenntnis über den sich verändernden atmosphärischen Gehalt an CO2.
[8] Typisches Beispiel hierfür ist die Unterschiedlichkeit von Temperatur-Meßzeiten (und deren Abstände) und der Daten, bei drei Meßzeiten ist der Wert des Mittels ein anderer als über Stunden oder sogar kontinuierlich. Dazu kommen die (historischen) Änderungen der Meßzeiten und des Meldens.
[9] Singularitäten können für Prognosen nicht benutzt werden. Hupfer, 2006, S. 68. Über Gegenstrahlung siehe: http://de.wikipedia.org/wiki/Atmosphärische-Gegenstrahlung. Hier noch „Treibhausgase“, obwohl es keine die Ähnlichkeit mit einem Treibhaus erforderliche Schicht nicht gibt.
[10] die Temperaturen sind unter Nutzung des mittleren vertikalen Temperaturgradienten auf Meeresniveau reduziert worden. Hupfer, 2006, S. 69, Abb.3.22 und 3.23
[11] es gibt beachtliche Fortschritte in der detaillierten und parametrisierten Modellierung der Wolken- bzw. Niederschlagsmikrophysik in allgemeinen Wolkenmodellen. Hupfer, 2006, S. 102, Abschnitt 5.6 und S. 113, mittlere jährliche Niederschlagshöhe 1931-1961, Abb.5.14
[12] verschiedentlich Rückkoppelungsprozesse genannt. Was nun die „beste Schätzung“ anbelangt, ist Vorsicht angebracht, siehe hier: Hupfer, 2006, S. 300
[13] Ein deutliches Zeichen gibt da die beschränkte Übernahme von Ausbreitungsmodellen in die technische Normung und Gesetzgebung. Die reale Ausbreitung muss schließlich meßteschnisch ermittelt werden.
[14] in der Bundesrepublik TA Luft, BImschG u.a.  Der Normungsausschuß wählte aus. siehe http://de.wikipedia.org/wiki/Ausbreitungsrechnung.
[15] es gibt eine nicht näher quantifizierbare Unsicherheit aus der gedanklichen Vorstellung wie es sein könnte.
[16] www.dwd.de/bvbw/appmanager/bvbw/dwdww.Desktop; globale Durchschnittstemperatur
[17] Kohlendioxid entsteht bei vollständiger Verbrennung kohlenstoffhaltiger Brennstoffe. Siehe hierzu:
http://cdiac.ornl.gov/ftp/ndp030/global.1751_2008.ems  Hier ausgewählte Produktionszweige.
[18] hierzu zählen Unsicherheiten der Messung (http://de.wikipedia.org/wiki/Messunsicherheit ) inkl. der zeitlichen und örtlichen Unsicherheiten  (Gebiets- bzw. Raum-Mittelungen) sowie der Elimination von Ausreißern, der Unterstellung von Verteilungstypen der Daten und der Zulässigkeit von Messwerten innerhalb der inhomogen verteilten – und womöglich nicht gleichwertigen – Meßstationen über den Landmassen und der nicht geschlossenen Ermittlung über/unter Wasser-Oberflächen. Die Aussage-Ergebnisse der einzelnen Institutionen sind wegen der unterschiedlichen Verwertung der Messdaten nicht identisch, z.B. NCDC, GISS u.a. (USA) bzw. anderer Forschungs-Institutionen. – Die Überprüfung der Schätz-Methode wird gesondert durchgeführt.
[19] Zweynert, Ulrike. Möglichkeiten und Grenzen bei der Modellierung von Nährstoffeinträgen auf Flußgebietsebene. Dissertation. Techn. Universität Dresden. 2008.  Hier Abweichungen der Idee beim Messen. www.qucosa.de/recherche/frontdoor/?tx_slubopus4frontend[id]=60
[20] beim Messen der Temperatur werden keine Mehrfach-Messungen vorgenommen, es wird unterstellt, dass die Temperatur stabil ist, die Änderungsgeschwindigkeit in Stunden wird nicht berücksichtigt.
[21] besonders beim globalen Klima kommt noch die Bedingung hinzu, dass die Daten auch gleichwertig über der Zeit sein müssen; eine lediglich plausible Ausfüllung von Datenlücken mindert den Aussage-Wert. Daran leiden auch Rückwärtsrechnungen mit Klima-Modellen, siehe: www.aaplet-magic.com/backcastingag.htm  (Thayer Watkins). als Überprüfmethode ohne Korrekturen/Anpassungen.. Vgl. hierzu: Leistenschneider – Kowatsch.  www.eike-klima-energie.eu/climagate-anzeige/klimaerwaermung-in-Deutschland-nicht-nachweisbar  Hier wird jedoch Hohenpeißenberg mit seinem Temperaturverhalten dargestellt, ein Verhalten, dass für das umliegende Land jedoch schon sehr früh von den Fachleuten als nicht repräsentativ bezeichnet und deshalb korrigiert wurde.
[22] bei der Vielzahl von Daten ist eine einheitliche Unbestimmtheit [Unschärfe] nicht quantifizierbar. Das hindert nicht, den anthropogenen Anteil der Schad-Verursacher in einem Treibhausgas (nicht Wasserdampf, eher CO2) zu vermuten, obwohl die Repräsentanz gerade der atmosphärischen Bestandteile schwach in Daten ist. Schönwiese, C.-D. Der aktuelle Stand der Klimaproblematik. Globaler und regionaler Klimawandel. www.geo.uni-frankfurt.de/lau/PDF_Dateien/SW-KLIA17-_Klimastudie-Chem_-2_pdf.pdf   Juli 2010.
Hierzu die historische Darstellung äußerer Einflüsse/Wetter-Landwirtschaft. In: Rabich, Adalbert. Herda, Geschichte vom Dorf Herda. GRIN-Verlag. 2006 u. Regionalgeschichte des Gerstunger Beckens. GRIN.2010
[23] siehe Fußnote 1, Aussagekraft und Korrektheit der Szenarien des IPCC. Dort auch Zitat 107.
[24] als Beispiele: Eis- und Warmzeiten, Sturmfluten, Überschwemmungen, Dürreperioden, Hunger
[25] Becker, DWD, Vortrag am 25.11.2010 (Deutsches Klima-Konsortium, Berlin, 22.11.2010). und: Schreiber, Klaus-Jürgen. Nachweis geführt: Klimawandel verändert auch Wetterlagen. Klima-Pressekonferenz des DWD am 03.05.2012 in Berlin, darin: Hauptwindsysteme verlagern sich zu den Polen. mehr regenreiche Tiefdruckgebiete über Mitteleuropa usw.  – Extremereignisse sind aus den Häufigkeitsverteilungen in Abhängigkeit der Standardabweichung vom Mittelwert definiert. Sie werden für das Abschätzen der Größe des Risikos als Produkt aus Eintrittswahrscheinlichkeit und Schaden [sicherheitswissenschaftlich] benutzt. Die Aussagen über die Eintrittswahrscheinlichkeiten gelten für ein großes Datenkollektiv. Schönwiese, C.-D. Extremereignisse aus meteorologisch-statistischer Sicht. promet 34(2008)1/2 S. 61-65
[26] Szenarien dienen je nach Simulations-Annahmen zum Studium, Prognosen geben Zukunfts-Zustände ab. Szenarien liefern eine Bandbreite von Möglichkeiten. www.hydrologie.unibe.ch/projekte/Klimaszenarien_fuer-hydrologische-impaktstudien_in_der_schweiz.pdf   2011
[27] Hupfer, Peter – Wilhelm Kuttler (Hrsg.). Witterung und Klima. Wiesbaden: B.G. Teubner. 2006 S. 294
[28] zu unterscheiden: Richtigkeit.
[29] Lage der Meßstationen, Einflüsse lokaler Einstrahlungen usw.
[30] www.scirp.org/journal/PaperInformation.aspx?paperID=9233 2011. G. Kramm – Dlugli.
[31] siehe: Rasemann, W. – A. Rabich – K. Volk. Bibliografie Probenahme und Qualitätssicherung bei Stoffsystemen. Bd. I (2001), II (2003) und III.(2006).  IQS Freiberg. – +  in: Handbuch Probenahme. 2009.
[32] z.B. zum Treibhauseffekt. Loock, Ehrenfried. www.tsch.de/ehrenfried-look/webfolder/index.html 17.08.2008
http://climaterealistics.com/index.php?id=8073  http://principia-scientific.org/publications/Experiment_on_Greenhouse_Effect.pdf
[33] Rabich, Adalbert. Das Klimaproblem. e-book. ISBN 978-3-640-24354-9. München: GRIN-Verlag. 2008.
[34] http://lv-twk.oekosys.tu-berlin.de/project/lv-twk/02-intro-3-twk-c.htm Kehl, H. Die Klimadebatte.
[35] vgl. hierzu die Ausführungen über die Raster-Interpolationen beim Niederschlag. Maier, Ute – Gerhard Müller-Westeroser. Verifikation klimatologischer Rasterfelder. Berichte DWD Nr. 235. ISBN 978-3-88148-450-3/2010.  Man kann nicht ohne weiteres interpolieren oder „homogenisieren“. Aus diesem Grunde müssen alle Mittelwert-Ermittlungen besonders sorgfältig analysiert und geprüft werden. Für Temperatur: Eckhard Schulze. 2012. www.eike-klima-energie-eu/news-cachew/wie-kann-man-eine-mittlere-‚globaltemperatur-ermitteln-was-die-statistiik-verlangt-und-verschweigt  Schulze Temperatur Statistik.pdf   Literaturquellen.
[36] Die Daten (Keeling-Kurve) sind solche, denen man unterstellt, dass sie repräsentativ sind. Bewiesen ist das jedoch keineswegs. Siehe die Bemerkung schon zur Temperatur, wo noch wesentlich mehr Meßpunkte vorhanden sind, unter: Why do global and hemispheric temperature anomales differ from thos quotes in the IPCC asessment and the media? www.cru.uea.ac.uk/cru/data/temperature




Globale Erwärmung – explosiv*

„…äquivalent mit 400 000 Atombomben vom Hiroshima-Typ pro Tag ist, 365 Tage im Jahr. Das ist die Menge an Zusatzenergie, die die Erde jeden Tag erhält.“
Das heißt, der Energie-Gegenwert von 278 Atombomben pro Minute – mehr als vier pro Sekunde – nonstop. Um das klarzustellen, das ist nur die Extraenergie, die die Erde zusätzlich zu der Energie erhält, die unseren Planeten mit 0,8°C erwärmt. Es ist die Rate, mit der wir die globale Erwärmung zunehmen lassen.
======================================================
Aktualisierung: Ich glaube, wir müssen eine neue Maßeinheit einführen, um Lächerlichkeit quantifizieren zu können. Ich schlage die ‚Hansen-Lächerlichkeits-Skala’ vor, so etwas Ähnliches wie die Richter-Skala, von Natur aus logarithmisch.
Das Aufdrehen der Thermostaten* bei einer Anhörung im Senat im Jahre 1988 würde mit 5,0 bewertet werden. Todeszüge** würden mit 6,0, dies hier mit 8,0 bewertet werden.
[** Zur Senatsanhörung an einem sehr heißen Tag wurden von Hansens Unterstützer im Senat Timothy Wirth, die Klimaanlge abgeeschaltet und die Fenster verriegelt. Gew. Ergebnis: Die Senatoren schwitzten! ** Gemeint sind hier die Kohle-Züge für Kraftwerke , die Hansen mit den Todeszügen von Auschwitz gleichstellte A. d. Übers.]
Ich möchte mal wissen, was ein Rating von 9 oder 10 auf der Hansen-Skala bedeutet.
Ich habe im Moment keine Zeit, das vollständig zu ergründen und zu berechnen, aber falls jemand die die Erde treffende solare Einstrahlung in ‚Hiroshima-Einheiten’ berechnen könnte, würde ich das dem Hauptbeitrag hinzufügen. Die Zahl dürfte Hansens Behauptung marginalisieren.
Anthony Watts
2. Aktualisierung: Willis Eschenbach hilft aus:
1 Tonne TNT = 4.184e+9 Joules (J) Quelle
Hiroshima-Bombe = 15 Kilotonnen TNT = 6.28e+13 Joules (ibid)
Hansen sagt, die Zunahme des Antriebs beträgt „400 000 Hiroshima-Atombomben jeden Tag“, was 2.51e+19 Joules/Tag ergibt.
Ein Watt ist ein Joule pro Sekunde, so dass sich ein konstanter zusätzlicher globaler Antrieb von 2.91e+14 Watt ergibt.
Normalerweise benennen wir Antriebe mit Watt pro Quadratmeter (W/m²). Der Gesamtantrieb (solar plus langwellig) gemittelt rings um den Globus am 24. Juli beträgt etwa 500 Watt pro Quadratmeter.
Um Hansens Zahlen in einen Wert mit der Dimension von pro Quadratmeter zu konvertieren – die globale Oberfläche beträgt 5, 11e+14 Quadratmeter… das bedeutet, dass Hansens bedrohliche 400 000 Hiroshima-Bomben pro Tag einen Wert von 0,6 Watt pro Quadratmeter ergeben… mit anderen Worten, Hansen möchte uns mit der Behauptung eines Ungleichgewichts von sechs zehntel eines Watt pro Quadratmeter sehr viel Angst einjagen, in einem System, in dem die versinkende Strahlung [downwelling radiation?] ein halbes Kilowatt pro Quadratmeter beträgt… wir können diesen Grad der Genauigkeit noch nicht einmal messen.
Willis Eschenbach
================================================================
Hier ist noch eine:
bvdeenen sagt am 15 Mai 2012 hier:
Überschlagsrechnung, ohne Taschenrechner durchführbar: Die Hiroshima-Bombe hatte 63 TJ = 6E13 J. Kreisfläche der Erde beträgt 3 * (6E6m)^2 = 1E14m². TSI der Sonne ist etwa 1kW = 1E3 J/s, d. h. die Erde empfängt ca. 1E17 J/s auf der Sonnenseite. Also explodiert die Sonne mit etwa 1E17/6E13 = 1E3 Hiroshima-Atombomben auf diesem Planeten. PRO SEKUNDE!
Mr. Hansen: Die Sonne explodiert mit etwa 1000 Hirsoshima-Atombomben auf diesem Planeten. IN JEDER SEKUNDE! TUN Sie etwas dagegen!
Link: http://wattsupwiththat.com/2012/05/15/global-warming-splodeified/
*Orignaltitel: „Global warming – splodeified“. Kann mir mal jemand sagen, wie man das übersetzen kann?
Übersetzt von Chris Frey EIKE




Das Scheitern der grünen Energie

Bild rechts: Ein Windpark in UK, wo inzwischen 12 Millionen Menschen in Energiearmut leben.
Amerikas Geheimnis? Anders als die Mächtigen in anderen Ländern, die zum Ruin ihrer Länder politische Maßnahmen übernommen haben, als ob die globale Erwärmung eine Rolle spielen würde, haben die US-Führer mehr ein Lippenbekenntnis dazu abgelegt. Während die Einwohner anderer Staaten inzwischen stetig steigende Energiekosten erleben, können sich die amerikanischen Haushalte auf zurück gehende Kosten freuen.
Die nordamerikanische Ausgabe der Aktionen gegen die vermeintliche globale Erwärmung ist Ontario. Dort hat man eine der besten Ketten von Kohlekraftwerken des Kontinents abgewickelt, um zu einem grünen Anführer zu werden. Dann zahlte die Regierung von Ontario einen bis zu 80 mal höheren Preis als der Marktpreis, um Entwickler dazu zu bringen, unökonomische Erzeugungsstätten für erneuerbare Energien zu errichten. Das Ergebnis sind rapide steigende Energiepreise (etwa 50% seit 2005), und sie werden weiter steigen: Einer Schätzung der Regierung von Ontario aus dem Jahr 2010 zufolge können die Bewohner Ontarios Energiepreise erwarten, die während der nächsten fünf Jahre um 46% Prozent steigen. Unabhängige Schätzungen gehen von einer Steigerung über 100% aus. Der restliche Teil Kanadas ist nicht viel besser dran – das National Energy Board sagt Energiepreissteigerungen um 42% bis 2035 vorher, während einige Schätzungen eine Steigerung um 50% bis 2020 annehmen.
In weiten Teilen Europas sieht es ähnlich aus. Dänemark, wo der Klimawahn schon sehr früh übernommen worden ist, verlangt von seinen Haushalten die höchsten Energiepreise der Welt – etwa 40 Cent pro Kilowattstunde, oder drei- bis viermal soviel dessen, was die Nordamerikaner heute zahlen. Deutschland, wo die Stromwirtschaft den grünen Entwicklern einen Blankoscheck ausgestellt hat, folgt dichtauf an zweiter Stelle, gefolgt von anderen politisch korrekten Nationen wie Belgien, dem Hauptquartier der EU, und wirtschaftlich angeschlagene Nationen wie Spanien.
Das Ergebnis ist chaotisch für das wirtschaftliche Wohlergehen in den EU-Ländern. Selbst im wirtschaftlich so stabilen Deutschland leben 15% der Bürger in „Energiearmut“ – die von den Regierungen so definiert wird: man muss mehr als 10% des Gesamteinkommens pro Haushalt für Strom und Gas ausgeben. Etwa 600 000 Deutschen mit geringem Einkommen werden jährlich die Stromlieferungen gestrichen, eine Zahl, die noch steigen wird, da die Verbraucher mit einem nicht enden wollenden Strom von Projekten bzgl. der globalen Erwärmung in der Pipeline geschlagen sind. In UK, unter der politisch korrektesten Führung der Welt, leben bereits etwa 12 Millionen Menschen in Energiearmut, 900 000 davon allein im windgepeitschten Schottland, und UK befindet sich inzwischen in einer doppelten Rezession.
Im Gegensatz dazu werden die Energiepreise in den USA ab dem nächsten Jahr zu sinken beginnen, und zwar einer Schätzung der US-Energy Information Administration zufolge um 22% bis zum Ende des Jahrzehnts, um dann bis 2035 stabil zu bleiben. Warum dieser Rückgang? Hauptsächlich, weil sich die USA in den kommenden Jahren in überwältigendem Ausmaß auf fossile Energie verlassen werden, nicht nur Kohle, die derzeit das Energiesystem dominiert, sondern zunehmend auch Erdgas, von dem man erwartet, dass es 60% aller in nächster Zukunft auszubauenden Kapazität deckt. Dank des Frackings verfügen die USA über unbegrenzte Mengen billigen Erdgases, zusätzlich zu den unbegrenzten Kohlevorräten.
Während der Rest der entwickelten Welt in der Knechtschaft der globalen Erwärmungs-Rhetorik verharrte, beteiligten sich die USA an den Diskussionen, bäumten sich dann aber dagegen auf. Im Jahre 1997 unterzeichneten der damalige Präsident Clinton und sein Vize Al Gore gerne das Kyoto-Protokoll, welches die Länder der entwickelten Welt zwang, ihre Ökonomien zu begrenzen, um die Welt zu retten. Während das Protokoll in anderen Nationen pflichtschuldigst ratifiziert worden ist, hat der US-Senat – was Clinton und Gore genau wussten – die Ratifizierung von Kyoto mit 95 zu Null Stimmen abgelehnt. Clintons Nachfolger George W. Bush hat einen ähnlich superben Job gemacht, indem er sich an den Gesprächen beteiligte, sich aber weigerte, wirtschaftszerstörende Maßnahmen einzuführen. Der Bush-Nachfolger Barack Obama stellte die globale Erwärmung ebenfalls in die hinterste Ecke, obwohl er ein echter Gläubiger ist. Er stellte Obamacare noch vor der Klimaänderung in den Mittelpunkt seiner Aktionen.
Da die Republikaner nach den Wahlen im November so gut wie sicher dank einer dünnen Mehrheit im Repräsentantenhaus den Geldhahn kontrollieren werden, wird eine Gesetzgebung hinsichtlich der globalen Erwärmung wie in Europa in den USA unmöglich sein, selbst wenn die Republikaner nicht auch den Senat und das Weiße Haus übernehmen werden, was sie jedoch aktuellen Umfragen zufolge tun werden. Im Falle einer Übernahme durch die Republikaner wird die Kluft zwischen den Energiepreisen in den USA und der restlichen entwickelten Welt sogar noch größer werden, wenn die dem Motto „drill, baby, drill“ verhafteten Republikaner die existierenden Beschränkungen der Industrie der fossilen Energien aufheben und die verbleibenden Subventionen für die Industrie der erneuerbaren Energie in den USA kappen werden.
Lawrence Solomon
Link. www.icecap.us vom 24.5.2012, Rubrik  „The Political Climate”
Übersetzt von Chris Frey EIKE




Solarstromrekord über Pfingsten, die teuerste Stromeimspeisung die es je gab

Solarstromrekord…und wie man ihn errechnet*

Solarzellen liefern so viel Strom wie 20 Atommeiler 
Über Deutschland strahlt die Sonne, und die Solaranlagen laufen auf Hochtouren. Erstmals haben sie 22.000 Megawatt Strom produziert. Das entspricht der Leistung von rund 20 Kernkraftwerken – ein neuer Rekord. Probleme gibt es allerdings mit den Netzen. 
Man lese: 
http://www.spiegel.de/wirtschaft/unternehmen/solarzellen-liefern-leistung-von-20-atomkraftwerken-a-835417.html

*Update 30.5.12: Solarstromeinspeisung zu Pfingsten kostete die Verbraucher 56 Millionen € extra. 

Lesen Sie dazu den klugen Beitrag zu den Kosten auf Science Sceptical

Was sind die Folgen?

1) 
Wie hatten schon mal so einen Tag, es war der Tag des teuersten Stroms und alle dachten sich: Hoffentlich passiert das nicht wieder, siehe auch im Sommer 2010: 
Rekordsommer treibt Stromkosten nach oben 
Das Extremwetter in Deutschland ist gut für die Solarindustrie – und teuer für Bürger … Neue Daten zeigen, wie die geballte Sonnenkraft die Stromkosten nach oben treibt. Die Energiepreise drohen unkalkulierbar zu werden, zu lesen hier: 
http://www.spiegel.de/wirtschaft/unternehmen/unkalkulierbares-energieangebot-rekordsommer-treibt-stromkosten-nach-oben-a-707534.html

und heute: 

22 Mio kWh erzeugte Energie: Da machen wir eine grobe Abschätzung. Bei 0,15 Euro/KWh Subventionen (die eex bietet für 4 Cent/kWh an) für garantierte Solareinspeisung macht das rund 3,3 Mio. Euro pro Stunde Zusatzkosten.

2) 

Sonnenrekorde als Zukunftsszenario … 

Ist die Kostenrechnung abgeschlossen? Es verbleibt die Bereitstellung von Braunkohle-, Gas- und Atomkraftwerken. Dabei sind nur Gaskraftwerke schnell runterzuregeln; die anderen brauchen weiter Brennstoff und geben dafür Wärme ab. Darüber hinaus wird jeglicher Betreiber konventioneller Kraftwerke in Zukunft Bereitstellungsgebühren verlangen müssen, sonst wird er’s schlichtweg nicht machen können! Diese Kosten kommen dann noch obendrauf. In welchem Umfang hat das zu erfolgen?
3) 

Dazu schaue man hier 

http://www.spiegel.de/fotostrecke/fotostrecke-57921-3.html oder besser noch hier http://www.energietechnologien2050.de/wDefault_4/dowloads/02_Vortrag_Hartkopf.pdf?WSESSIONID=c44358d8b24a09d7a46ccd167826192f Es sind dabei zwei Dinge zu unterscheiden:
Welche Leistung ist abgesichert bzw. für welche nicht abgesicherte Leistung muss man „backup“-Energie in irgendeiner Weise wie konventionelle Kraftwerke oder Speicher für mehrere Monate bereitstellen. Dabei ist das mit konventionellen Kraftwerken machbar aber die Kosten kommen auf den Strompreis. Bei sowas wie Pumpspeicherkraftwerken ist das wegen der irren benötigten Größen schwierig (Es sind auch wegen der Zerstörung der Natur ähnliche Proteste zu erwarten wie damals beim Rhein-Main-Donau Kanal … oder nicht?).

Also was ist die gesicherte Kraftwerksleistung: 

Wasserkraft 40 % Kernkraft 93 % Gas-, Kohlekraftwerke 90 % Wind onshore 8 % Wind offshore 10 % Fotovoltaik 1 % Biomasse 88 % Geothermie 90 % EU-Importe 98 %
Das heißt 99% des Fotovoltaikstroms muss gepuffert werden und das heißt: Wir brauchen alles doppelt und das heißt: Könnte man mal an eines Tages allen Strom mit Fotovoltaik erzeugen, bräuchte man dieselbe gelieferte Leistung nochmals über Monate gespeichert oder konventionell im Hintergrund. 
Achso ja: Mit dem Wind ist’s natürlich nicht viel besser (90% backup) genauso wie mit einer Mischung aus beidem.
4) 

Mehrkosten durch Überinstallation: 

Solarzellen liefern so viel Strom wie 20 Atommeiler !!! Donnerwetter !

Erst mal: 

Es ist zu unterscheiden zwischen installierter Leistung (MW) und abgegebener Leistung in einem Zeitraum (MWh) und dann gemittelt.

So ist die installierte Leistung bei Wind diejenige, die bei optimalen Verhältnissen bereit gestellt werden kann. Bei Sonne ist’s genauso.

 

Bei Wind haben wir da folgende Zahlen, wiederum siehe hier:

http://www.energietechnologien2050.de/wDefault_4/dowloads/02_Vortrag_Hartkopf.pdf?WSESSIONID=c44358d8b24a09d7a46ccd167826192f

Windenergie installierte Leistung / Mittelwert erzeugte Leistung = 21500/4430 = 5.

Das heißt, könnte man ALLE erzeugte Leistung speichern, müsste man 5-mal mehr Leistung installieren um den benötigten Mittelwert der sicheren Versorgung zu erreichen (sozusagen um die Erzeugungsspitzen in die Erzeugungstäler zu füllen).

Bei Sonne sind die Zahlen viel schlechter !

 

Wollen wir also alles mit Sonne und/oder Wind machen: Gehen wir von einem Werktag aus, nehmen wir das Vierfache obiger 22.000 MW wiederum nach

http://www.energietechnologien2050.de/wDefault_4/dowloads/02_Vortrag_Hartkopf.pdf?WSESSIONID=c44358d8b24a09d7a46ccd167826192f

zur Abschätzung und das 5-fache an installierter Leistung zum benötigten Mittelwert (Das ist wegen der viel schlechteren Zahlen für Sonne eine Abschätzung zum Guten, siehe Nachtrag 1 & 2), dann bräuchten wir das 20-fache von oben als Atomäquivalent in installierter Leistung und natürlich kommen solche Tage wie oben wo das geht vor, aber:

 

das entspricht dann einem Atomäquivalent von 400 Atommeilern!

Ja Gott ne: Wenn’s nicht mehr sind, immer feste druff !????

Nachtrag 1:

Aus

http://de.wikipedia.org/wiki/Solarstrom

 

Jahr 

Installierte
Leistung
MWpeak

Durchschn.
Leistung
MW

Solarstrom-
erzeugung
]
GWh

Gesamtbrutto-
stromverbrauch
GWh

Anteil am
Bruttostrom-
verbrauch

2011

24.820

2.169

2.169 * 8760 =

19.000

608.500

3,1 %

8760 h hat das Jahr.

 

Somit:

Solarstrom installierte Leistung / Mittelwert erzeugte Leistung = 24820 / 2169 = 11
Was obige Abschätzung von 400 Atommeilern verschlechtert.

 

Nachtrag 2:

Kontrollrechnung:

Gehen wir von 80.000MW benötigter konstanter Nachfrage aus und nehmen wir an, ein Kernkraftwerk liefert 1.500MW dann brauchen wir 53 Kernkraftwerke. Diese sind grundlastfähig und haben

Atomstromstrom installierte Leistung / Mittelwert erzeugte Leistung = 1

Wegen

Solarstrom installierte Leistung / Mittelwert erzeugte Leistung = 24820 / 2169 = 11

bräuchten wir für die Sonne dann 53 * 11 = 583 Atomkraftwerke-Äquivalent.

Das ist nahe obiger Mischrechnung für Wind & Sonne von 400 Atomkraftwerke-Äquivalent aber auch noch entsprechend schlechter genauso wie erwartet.

Das relativiert dann letzten Endes folgende Schlagzeile zu einem schlechten Witz:

Solarzellen liefern so viel Strom wie 20 Atommeiler

http://www.spiegel.de/wirtschaft/unternehmen/solarzellen-liefern-leistung-von-20-atomkraftwerken-a-835417.html

  

Rupert Reiger zuerst erschienen auf Achgut




Hat CO2 den Planeten erwärmt…

Es ist schwer zu glauben, dass wir es nicht wissen – aber die letzten 50 Jahre Erwärmungstrend hängen von diesem einen stufenartigen Sprung ab. Man betrachte die Graphik unten. Zeigt sich darin ein starker zugrunde liegender Erwärmungstrend, oder ist der Trend in Wirklichkeit so unbedeutend, dass man ihn ohne diese Stufenänderung gar nicht erkennen würde?

Eine Reihe von zwei flachen Linien kann als kontinuierlicher Erwärmungstrend erscheinen, wenn eine lineare Trendlinie eingepasst wird, weil diese Trendlinie die Stufenänderung nicht zeigt. Dieser Stufeneffekt wurde zuerst von David Stockwell im Jahre 2009 bemerkt.
Die fortgesetzte Erwärmung scheint offensichtlich in den Aufzeichnungen der unteren Atmosphäre, wenn man eine lineare Trendlinie zieht.

McKitrick und Voselgang
Aber man betrachte noch einmal die Daten der Stufenänderung um Jahre 1977.

McKitrick und Voselgang
Das Problem mit Stufenänderungen besteht darin, dass zwei flache Linien mit einem stufenartigen Anstieg dazwischen künstlich einen linearen Trend erzeugen, der bedeutungslos ist. McKitrick und Voselgang [i] nehmen sich dieser Stufenänderung an und zeigen, dass es in der unteren und mittleren Troposphäre von 1958 bis 2005 nur dann zu einem Erwärmungstrend kommt, wenn man die Stufenänderung mit einbezieht. Entfernt man diese, ist der zugrunde liegende Trend nicht signifikant. Mit anderen Worten, in 46 der 47 Jahre mit atmosphärischen Daten wird kein bedeutsamer steigender Trend erzeugt.
Falls das CO2 eine Auswirkung auf unsere Atmosphäre hat, ist es unmöglich, mit Gewissheit zu sagen, welche Auswirkung das gewesen ist.
Jo Nova und Tony Cox
[i] McKitrick, R. and Vogelsang, T. J. (2011), Multivariate trend comparisons  between autocorrelated climate series with general trend regressors, Department of Economics, University of Guelph. [Discussion paper PDF]
Link: http://joannenova.com.au/2012/05/has-co2-warmed-the-planet-at-all-in-the-last-50-years-its-harder-to-tell-than-you-think/
Übersetzt von Chris Frey EIKE