Teil II Globaltemperatur grob fehlerhaft! Neue begutachtete Studien enthüllen: Fehler deutlich größer als gesamte Änderung im letzten Jahrhundert.

Update:

Hier ein hoch interessantes (langes ) Telefonat mit dem ehemaligen DWD Meteorologen Dr. Hoffmann zur Qualität der Klimadaten. ".. Die Weltmitteltemperatur… jetzt haben wir aber gemittelt —ojeh, ojeh!" Mit Dank an R. Hoffmann

Weiter im Originaltext: In der Zusammenfassung steht:

Das statistische Fehler Modell, welches allgemein bei der Bestimmung der monatlichen terrestrischen Stations-Temperaturen angewendet wird, unterstellt eine physikalisch unvollständige Klimatologie, die dazu zwingt, dass deterministische Temperatur-Trends, als Messfehler interpretiert werden. Große verdeckte Unsicherheiten sind dabei den mittleren globalen bodennahe Lufttemperatur Messungen überlagert. Zur Veranschaulichung dieses Problems wurden repräsentative monatliche und jährliche Unsicherheiten anhand der Lufttemperatur Datensätze aus weltweit verteilten terrestrischen Klimastationen berechnet, was zu ± 2,7° C und ± 6,3 °C führt. Zudem wurde die vorhandene Unsicherheit in der von 1961-1990 erhobenen jährlichen Referenz Anomalie bis jetzt völlig vernachlässigt. Sie wird (hier) mit ±0,17 ° C bestimmt. Nach der Zusammenführung beider Unsicherheiten mit den zuvor berichteten ± 0,46 °C als unterer Grenze der Messfehler, bestimmt sich die von 1856 – 2004 errechnete globale bodennahe Lufttemperatur Anomalie bei einem 95%-Konfidenzintervall mit 0,8 ± 0,98 °C . Somit ist also der Trend der globalen durchschnittliche Oberflächentemperatur Lufttemperatur Anomalie statistisch ununterscheidbar von 0 °C. Ordnungspolitische Maßnahmen die auf die  Beeinflussung der globalen Lufttemperatur gerichtet werden,  sind daher empirisch nicht vertretbar.

Zitatende

Wieder bezieht sich Frank auf den schon öfter erwähnten Aufsatz von Brohan et al 2006[1] (er nennt in kurz B06) und ergänzt seinen ersten Ansatz um die Berechnung von Fehlern, die aus der örtlichen und zeitlichen Verteilung der Einzel-Messwerte selbst herrühren. Zusätzlich stellt er richtigerweise fest, dass auch die zur Anomalienbildung verwendete „Referenztemperatur“[2] (das „Station Normal“ im Sprachgebrauch) keinesfalls frei von Fehlern ist und diese sich deshalb – entsprechend der Fehlerfortpflanzung- im Ergebnis widerspiegeln müssen. Das ist bisher nirgends thematisiert worden, beeinflusst aber die erzielbare Genauigkeit erheblich.

Wie schon zuvor betrachtet er das bisherige, von Brohan et al 2006 verwendete, Fehlerbestimmungsmodell als unvollständig und starr und zu Scheingenauigkeiten führend. Diesmal,  und zusätzlich zur bisherigen Betrachtung, auch deshalb, weil darin Station Normals[3] als konstant angenommen werden, sowie die angenommenen Fehler rein zufällig sein sollen und sich deshalb durch Mittelung über die Zahl der Messungen minimieren lassen. Außerdem fällt ein zwangsläufig auftretender systematischer Fehler s,  der sich aus der Verschiedenheit der Messungen herleitet, völlig unter den Tisch. Der Ansatz von Brohan et al 2006 lässt sich damit nicht mehr halten. Auch deswegen, weil inhärente Trends, die regelmäßig in monatlichen Temperaturgängen auftreten und für den gleichen Monat aber in verschiedenen Jahren sehr verschieden sein können, zu einem weiteren systematischen Fehler bei den Monatswerten führen müssen.

Er nimmt deshalb das Standard-Fehler-Modell von B06 Stück für Stück auseinander. Es ist nicht immer leicht den dort vorgestellten Gedankengängen auch mathematisch zu folgen, aber da jeder neue Gedankengang sehr sorgfältig erklärt wird, kann der aufmerksame Leser dies trotzdem schaffen. Pat Frank schließt seinen Aufsatz mit der Schlussfolgerung:

Zitat:

Die Analyse des statistischen Protokolls welches üblicherweise verwendet wird, um die Unsicherheit in der globalen Durchschnittstemperatur des bodennahen Lufttemperatur Anomalie-Index abzuschätzen, ergibt, dass dieses verhängnisvoll fehlerhaft ist. Es sollte zu Gunsten eines Modells, dass explizit den Mangel an Wissen über die Fehler Varianzen in terrestrischen Klimastations- Temperaturmessungen zeigt, ausrangiert werden.

 

Abbildung 1 Die rote mittlere Trendlinie zeigt globale Mitteltemperatur wie sie vom amerikanischen Goddard Institute of Space Sciences (http://data.giss.nasa.gov/gistemp/graphs/) GISS von 1880 bis Ende 2008 im Internet zu Verfügung gestell wird. Ihr überlagert ist die minmale Unsicherheit nach Frank in Höhe von ± 0,46 K. Die Referenzzeit ist hier 1951-1980

Die Unsicherheit in der Referenz-Periode der globalen Mitteltemperatur der Luft der Temperaturanomalie wurde bisher selten betrachtet. Diese Temperatur-Unsicherheit stellt die minimale Variabilität dar, die man bei einer mittleren Jahrestemperatur eines bestimmten Klimaregimes erwartet werden kann, vorausgesetzt, dass dieser Referenz- Zeitraum repräsentativ ist. Unter der Annahme,  dass die Jahre 1961-1990 einen normalen Zeitraum repräsentieren, dann decken ± 0.51 °C 99,7% der Variabilität der globalen durchschnittliche Lufttemperatur im 20. Jahrhundert ab. Wenn das globale Klima in einer einzigen Phase über dem Intervall von 1856-2004 gewesen ist, dann decken ± 0,84 °C zu 99,7% die wirkliche klimatologischen Lufttemperatur-Variabilität des 20. Jahrhunderts ab. Aus diesen Überlegungen folgt, dass die meisten, oder alle, der beobachteten Variationen der mittleren globalen Temperatur im 20. Jahrhundert nur sparsam den meist spontanen Schwankungen des Klimas zugeordnet werden können, die auch die Pseudo-Trends reflektierende Persistenz zeigen[22-25]. Es scheint, dass es keine besonderen Anzeichen für eine alarmierende Ursache der Erwärmung des mittleren globale bodennahe Lufttemperatur Trends im 20. Jahrhundert gibt . Deshalb sind politische Maßnahmen diesen Trend zu beeinflussen, empirisch unerträglich.

Ergänzung

Dieser klare Befund muss noch um einige weitere Überlegungen ergänzt werden. Frank zeigt, dass die mittlere Globaltemperatur bzw. deren Trend (s. Abbildung) von einem Unsicherheitsband in der Größe von ± 0,98°C umhüllt wird. Nun könnte jemand auf die Idee kommen, um trotzdem daraus eine Erwärmung abzuleiten, die Hüllkurve des Bandes statt die Trendlinie selbst, für die Ermittlung des Trends der Erwärmung zu verwenden. Dies setzt voraus, dass die mittlere Trendlinie sich genau in der Mitte dieses Bandes befindet. Davon kann jedoch nicht ausgegangen werden. Wie eine weitere – noch nicht veröffentlichte- Forschungsarbeit von EIKE zeigt, kommen zu den genannten Grenzfehlern noch viele weitere hinzu, die sich aus den verwendeten Messmethoden, -Instrumenten und deren Unterbringung, -Algorithmen, etc. zweifelsfrei herleiten lassen. Diese sind systematische Fehler, die nicht über die ganze Zeit gleich sind, auch in sich nicht  gleich sein müssen, weder gleich groß, noch in ihrem Vorzeichen. Sie verschieben damit daher die wahre Trendlinie unsymmetrisch aber unbekannt innerhalb des Bandes. Zudem verbreitern sie das jetzt schon breite Unsicherheitsband nochmals um mindestens ± 0,5 eher um bis zu ± 1 °C. In den frühen Jahren ab 1850 sogar noch breiter, um dann im 20. Jahrhundert enger zu werden, mit einer weiteren Verengung ab Mitte der 70er Jahre .

Zu gegebener Zeit werden wir bei EIKE hierüber berichten. 

Update Kritik von Teil I:

Ein Kritiker bemängelte, (Hier der Link dort  Kommentare 32 und 37) dass bei Berechnung des Tagesmittels, Autor Frank und ich nicht berücksichtigt hätten, dass dieses Mittel

"…kein Erwartungswert  eines Ensembles von Messungen zu einem bestimmten Zeitpunkt des Tages zu interpretieren ist!" 

und fährt fort:…."Das Tagesmittel stellt ein Maß für das Integral über die Temperaturkurve des Tages geteilt durch die Tageslänge dar! "

Soweit der Einwand. 

Obwohl von diesem Kritiker in der ihm eigenen -der eigenen Wichtigkeit bewussten- Überheblichkeit vorgebracht, ist es interessant sich mit diesem Argument und seiner Begründung zu befassen. Der Kritiker meint also, die Behandlung der Messwerte unter Einbeziehung ihrer Fehler nach der Fehlertheorie, hinge von der späteren Interpretation ihrer beabsichtigten Verwendung ab. 

Dies ist aber hier nicht der Fall. Denn In jedem Falle bleiben es (hier 2 x 30) verschiedene Messwerte, die zuerst miteinander -nach bestimmten, zudem willkürlichen- Algorithmen, zu einem Einzelwert (Tagesmittel genannt) kombiniert werden, um dann zu einem Monatsmittel verdichtet zu werden. Dabei werden die nicht zu unterschreitenden Messfehler benannt, aber als zufällig im Sinne der Fehlertheorie angenommen.

Dies darf man aber nur dann machen, wenn anzunehmen ist, dass jede gemessene Tagestemperatur, bis auf einen zufälligen Anteil identisch mit allen anderen Temperaturen ist. Nur dann tendiert der zufällige Anteil, bei genügend großer Zahl von Messwerten gegen Null. Diese Annahme ist aber offensichtlich, wie sowohl Frank und ich wissen, und wie auch im Teil I ausgeführt, aber auch Brohan 06 wissen – kompletter physikalischer Unsinn!

Die einzelnen Messungen der Tagestemperaturen sind sehr verschieden. Vermeidet man also diesen Unsinn, dann muss man -wissenschaftlich korrekt- die Fehleraddition, wie sie Frank richtig beschrieben hat, einsetzen.  D.h. unabhängig davon, wie später das Ergebnis interpretiert werden soll, muss dies- wenn man es in weiteren späteren Rechnungen verwenden will- nach den anzuwendenden Regeln der Fehlertheorie erfolgen. 

In einem aber hat der Kritiker recht: das Ergebnis dieser Mitteilung der Tagestemperaturen wird als Ersatz für das Integral der Tagestemperatur (dem "wahren Mittel") über der Zeit interpretiert. Doch wenn man dies tur, kommt allein durch den (mühsamen) Vergleich  – anders als Hinweis des Kritikers vermuten lässt- ein weiterer systematischer Fehler hinzu. 

Jeder Algorithmus -und es wurden weltweit ca. 100 verschiedene eingesetzt, wie Griffith 1997 (Griffiths, JF (1997) Some problems of regionality in application of climate change.) herausfand- erzeugt ein anderes Tagesmittel, Monats- und Jahresmittel, als das gewünschte "wahre" Mittel über 24 Stunden.

Abbildung 2 zeigt eine Auswertung der Temperaturdaten der österreichischen Station Puchberg über 9 Jahre. (Quelle: Aguilar, EA,I. Brunet, M. Peterson, Thomas C. Wieringa,V. (2003) GUIDANCE ON METADATA AND HOMOGENIZATION. Aguilar, 2003) 

Dargestellt sind darin die Differenzen von Tagesmitteln verschiedener Algorithmen zum  "wahren" (24 h) Tages-und Monatsmittel (als Nulllinie dargestellt), aufgeschrieben über das ganze Jahr. Diese wurden wiederum über 9 Jahre gemittelt. Wohlgemerkt, es handelt sich immer um dieselbe Temperaturänderung über den Tag, den Monat und das Jahr.

Abbildung 3 zeigt die Abweichungen der verschiedenen Jahresmittel aus Abbildung 1, zum "wahren" Jahresmittel – das ist die Nulllinie), die nach diesen verschiedenen Algorithmen berechnet wurden. Die Differenz zwischen Max/Min und Mannheimer-Methode  über satte 9 Jahre liegt immerhin bei beträchtlichen 0,5 °C.

Unser Kritiker behauptet nun, dass dieser systematische Fehler nicht nur bekannt sei, sondern auch korrigiert würde. Das trifft jedoch nur ganz selten für wenige Zeiten und Klimazonen zu.

Jedoch gerade bei der Ermittlung der Globaltemperatur gilt stattdessen das komplette Gegenteil, denn in Brohan 06 stellen die Autoren unmissverständlich fest: Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. 

„..There will be a difference between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“

Die dort gemachte Annahme aber stimmt aber nur dann, wenn 

1…..der eingesetzte Algorithmus über den ganzen Zeitraum der einzelnen Zeitreihe unverändert geblieben ist – wovon aber nur selten, wie wir wissen, wenn überhaupt, ausgegangen werden kann.

2…..wenn man die daraus gebildeten Anomalien nicht miteinander vermischt. 

3…..wenn man sie auch nicht mit dem "wahren Mittelwert" – wie es Brohan oben erklärt, in irgendeine Beziehung setzt.

Dies alles jedoch ist erklärte und gängige Praxis bei der Berechnung der Anomalie der mittleren Globaltemperatur. Tut man dies, dann handelt man sich allein durch die verwendeten Algorithmen systematische Fehler des Endergebnisses von einigen Zehntel Grad ein.

Bekannt sind diese Fehler wohl, korrigiert werden sie aber nicht. In der der Literatur, die sich mit der Berechnung der globalen Mitteltemperatur, bzw. ihrer Anomalien über die Zeit beschäftigt, findet sich keinerlei Hinweis darauf. Weil man vermutet – siehe oben- dass er sich von selbst ausgleicht.

Auch der Kritiker nennt nur das Histalp-Projekt, das zwar vorbildlich ist, aber wegen seines hohen Aufwandes offensichtlich nicht für die ganze Erde oder große Teile von ihr, wiederholt wurde.

Michael Limburg EIKE


[1] Brohan, P., Kennedy, J.J., Harris, I., Tett, S.F.B. and Jones, P.D., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850, J. Geophys. Res., 2006, 111 D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/ cru/info/warming/.

[2] Das ist im physikalischen Sinne keine Temperatur mehr sondern eine Art Index

[3] Das ist der Mittelwert der Jahrestemperaturen diese Station über den WMO Zeitraum von 1961-1990

Related Files




Teil 2: Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels

Etwa 99,98% des gesamten Energiebetrags der Erde stammt von der Sonne. Der verschwindend kleine Rest kommt aus geothermalen Wärmequellen. CO2 spielt in der Energiebilanz überhaupt keine Rolle! Die von der Sonne abgegebene Strahlungsenergie stammt sämtlich aus ihrer Kernzone (ca. 25% des Sonnenradius), in der die Fusion abläuft. Sie entsteht aus dem Energieüberschuss, der bei der Fusion von Wasserstoff zu Helium entsteht, da bei der Fusion aus der Wasserstoffmasse knapp 1% weniger Helium entsteht. Die emittierte Energie besteht hauptsächlich aus Photonen, aber auch aus Neutrinos, wobei die Neutrinos die Kernzone unmittelbar verlassen, die Photonen durch Wechselwirkung mit dem Plasma hierzu im Mittel ca. 10 Mio. Jahre benötigen.

Die Sonne steigert als sog. Hauptreihenstern ihre Strahlung alle 100 Mio. Jahre um ca. 1%. Bei der Kernfusion entsteht aus 4 Wasserstoffatomen ein Heliumatom, welches etwa die Masse der 4 Wasserstoffatome hat (minus dem geringen Rest, der bei der Fusion nach der Einstein-Formel in Energie umgewandelt wird). Die Zahl der Atome nimmt dadurch im Kern langsam ab. Eine geringere Anzahldichte der Atome kann nicht genauso viel Gegendruck im Sonnenzentrum erzeugen wie die Wasserstoffatome zuvor, wodurch sich das Sonnezentrum weiter zusammenzieht und sich Druck und Dichte dadurch so lange erhöhen, bis der Druck gegen die Gravitation der darüber liegenden Schichten wieder im Gleichgewicht ist – die Schichten tragen kann. Die höhere Dichte und Temperatur im Sonnenzentrum bewirken eine schnellere Kernfusion. Die äußeren Schichten der Sonne werden dadurch vergrößert und die Sonnenleuchtkraft steigt an. Die energieabstrahlende Oberfläche vergrößert sich. Die folgenden Abbildungen und Erläuterungen geben einen Einblick in die Klassifizierung und den Lebenszyklus der Sonne.

Abbildung 14 zeigt, wie sich im Lebenszyklus der Sonne ihre Leuchtkraft ändert.

Sowohl Temperatur und Leuchtkraft der Sonne ändern sich ständig als Ergebnis der Kernfusion. Der sich daraus ergebene Verlauf zeigt Abbildung 14. Die Zahlen bedeuten das Alter der Sonne in Milliarden Jahren. Der heutige Wert ist durch ein diamantenes Symbol gekennzeichnet. Quelle: (hier). Die kleine Abbildung zeigt die Proton-Proton-Reaktion über Deuterium zu Helium, wie sie im Innern der Sonne abläuft.

Hauptreihenstern “Sonne“

Abbildung 15a zeigt die Einstufung der stellaren Objekte im Hertzsprung-Russell-Diagramm, nach ihrer Leuchtkraft und Spektralklasse. Die Spektralklasse ist in der Astronomie eine Klassifizierung der stellaren Objekte nach dem Aussehen ihres Spektrums. Mit dem obigenDiagramm lässt sich die Entwicklungsverteilung der stellaren Objekte aufzeigen. Die Sonne ist dabei der Hauptreihe und der Spektralklasse G zugeordnet. Exakt der Klasse G2.

Abbildung 15b zeigt den Größenvergleich der stellaren Objekte in den jeweiligen Spektralklassen nach “Morgan-Keenan“ (MK-System).

Entwicklungsphasen der Sonne

Die Sonne entwickelte sich vor ca. 4,6 Milliarden Jahren in einem Spiralarm am Rande unserer Galaxie aus einer Gas- und Staubwolke. Die Gas- und Staubwolke bestand zu etwa 82% aus Wasserstoff, zu 17% aus Helium und zu 1% aus anderen Elementen. Materieteilchen kamen sich so nahe, dass sie durch ihre gegenseitige Massenanziehung zu verklumpen begannen.

Abbildung 16 zeigt die Entwicklungsphasen (Lebenszyklus) der Sonne. Nachdem sie vor ca. 4,6 Milliarden Jahren mit der Zündung der Kernfusion in ihrem Innern entstanden ist, wirkte der Strahlungsdruck der Kontraktion der Sonne, hervorgerufen durch ihre Schwerkraft, entgegen, so dass sich ein Gleichgewicht einstellen konnte und die Sonne das Stadium eines Hauptreihensterns erreichte, in dessen Phase sie ca. 11 Milliarden Jahre verbleibt.

Die Supernovae eines Roten Überriesen (massereicher Stern mit 10 – 50 Sonnenmassen) am Rand der Galaxie, schleuderte vor ca. 4,6 Milliarden Jahren in diese Wolke große Mengen schwerer Elemente, wie Silizium und Eisen, wodurch die Gas- und Staubwolke kollabierte. Unter der Schwerkraft begann sie sich langsam zu verdichten und durch die Schockwellen (Impuls) der Supernovae zu drehen. In ihrem Zentrum wurde die Wolke immer dichter komprimiert, wodurch Druck und Temperatur immer weiter anstiegen. Dies bewirkte, dass große Energiemengen in Form von Strahlung abgegeben wurden. Ein Protostern war entstanden.

 

Die Abbildungen zeigen exemplarisch zwei galaktische Wolken, in denen derzeit Sterne entstehen. Abbildung 17a links zeigt den 1.500 Lichtjahre (LJ)  entfernten Pferdekopfnebel mit einem Durchmesser von 3 LJ. Abbildung 17b rechts, den 7.000 LJ entfernten Adlernebel mit einem Durchmesser von 20 LJ (NASA).

Durch weitere Verdichtung der Teilchen im Zentrum, wurde die elektro-magn. Abstoßung der Teilchen überwunden und die Protonen verschmelzten miteinander. Die Kernfusion hatte eingesetzt. Aus dem Protostern ist ein Stern entstanden – die Sonne. Bei der Entstehung des Sonnensystems wurden über 99% der Materie in der Sonne gebunden. Aus dem Rest bildete sich durch immer schnellere Drehung eine abgeflachte Scheibe, aus der sich zuerst Ringe, dann Protoplaneten und schließlich die Planeten mit ihren Monden bildeten.

 

Abbildung 18a links zeigt die Überreste der Supernovae LMC N 63A in der Großen Magellanschen Wolke, unserer Nachbargalaxie. Es ist deutlich zu sehen, dass Elemente weit im Universum verteilt werden. Abbildung 18b rechts zeigt in bildhafter Darstellung eine Planetenentstehungsscheibe, beides Quelle: NASA.

Die Strahlungsleistung der Sonne war in den ersten Milliarden Jahren deutlich geringer als heute. Vor zwei Milliarden Jahren betrug sie nur ca. 80% ihres heutigen Wertes, so dass im Erdzeitalter Archaikum und Proterozoikum weite Teile der Erde mit Eis überzogen waren (Abbildung 19, Quelle: Cornell University).

 

Abbildung 19

Im Alter von 5,5 Milliarden Jahren, das heißt in 900 Millionen Jahren ab heute, überschreitet die mittlere Temperatur auf der Erdoberfläche den für höhere Lebewesen kritischen Wert von 30°C (Bounama, 2004). 1 bis 2 Milliarden Jahre später, werden 100°C erreicht.

In ca. drei Milliarden Jahren werden Milchstraße und Andromeda (unsere etwas größere Nachbargalaxie in 2,2 Mil. LJ Entfernung) mit einer Geschwindigkeit von über 430.000 Stundenkilometern zusammen stoßen und schließlich miteinander verschmelzen. Als Ergebnis entsteht eine neue, ellipsenförmige Galaxie. Nach Berechnungen könnte die Sonne mit ihren Trabanten am Rand der neuen Supergalaxie ihr Dasein finden. Sie könnte jedoch auch durch den kosmischen Crash zerfetzt, oder das Planetensystem durch das galaktische Inferno auseinander gerissen werden.

 

Abbildung 20a links zeigt die 2,2 Millionen Lichtjahre entfernte Andromeda-Galaxie. Sie ist wie die Milchstraße, eine ausgedehnte Balkengalaxie, Quelle: NASA. Die Abbildung 20b rechts zeigt in künstlerischer Darstellung, wie sich von der Erde aus das Himmelsspektakel in ca. 3 Milliarden Jahren abzeichnet, Quelle: James Gitlin/STScI (Space Telescope Science Institute).

Galaktische Crashs ganzer Galaxien sind nichts Ungewöhnliches, sondern kommen im Weltall immer wieder vor. In der Frühzeit des Universums waren solche Crashs „an der Tagesordnung“.

 

Abbildung 21 zeigt die beiden kollidierenden Galaxien NGC 2207 und IC 2163 (Entfernung: 144 Mio. LJ), Quelle: NASA. NGC steht für ”New General Catalogue of Nebulae and Clusters of Stars” und IC für ”Index-Catalog”.

Überleben die Sonne und das Planetensystem diesen kosmischen Crash, werden sich in ca. 6,4 Milliarden Jahren die Leuchtkraft der Sonne verdoppelt und ihre Größe auf das 1,6-fache ihres heutigen Wertes gesteigert haben. Die Erde ist in ihrem Innern nicht mehr flüssig und dadurch gibt es kein irdisches Magnetfeld mehr, welches die starke Sonnenstrahlung abdämpfen könnte und als Filter für Röntgen- und UV-Strahlung, den Sonnenwind wirkt. Die Erde verliert dadurch schnell ihre mittlerweile heiße Atmosphäre.

Der Wasserstoff im Sonnenkern wird in etwa 5 Milliarden Jahren verbraucht sein. Das ausge-brannte Helium-Sonnenzentrum (der sog. Heliumkern) kontrahiert zunehmend und heizt sich so lange auf, bis um das Heliumzentrum herum die Kernfusion des dort noch reichlich vorhandenen Wasserstoffs zu Helium einsetzt. Dies wird als Wasserstoff-Schalenbrennen bezeichnet. Dabei erzeugt die Sonne immer mehr Energie, je mehr das Heliumzentrum kontrahiert und je weiter sich die Wasserstoff-Fusionsschale nach außen frisst. In 6,4 Milliarden Jahren ist die Leuchtkraft bereits doppelt so hoch wie heute, und der Sonnenradius ist um ca. 60% größer als heute. In den folgenden 1,3 Milliarden Jahren wachsen Leuchtkraft und Sonnenradius weiter massiv an. In etwa 7,4 Milliarden Jahren wird von der Erde aus folgendes Bild (rechts, nächste Seite) zu sehen sein.

 

Abbildung 22b rechts zeigt die Sonne als roter Riese in künstlerischer Darstellung über der Erdoberfläche und links im Vergleich, die heutige Sicht.

Nach weiteren 200 Millionen Jahren erreicht die Leuchtkraft den tausendfachen heutigen Wert und die äußeren Schichten blähen sich um das Hundertfache auf, so dass trotz der größeren Leuchtkraft die Temperatur der Sonnenoberfläche abnimmt und das Sonnenlicht rötlich wird. Die Sonne hat sich zu einem roten Riesen entwickelt. Alles Wasser auf der Erde wird längst verdampft sein. Die folgende Abbildung gibt einen Größenvergleich von der Ausdehnung der Sonne.

 

Abbildung 23 zeigt die Sonne heute (der kleine gelbe Punkt, links) im Vergleich zur Sonne als rotem Riesenstern rechts mit einem Durchmesser von 1 AE (Astronomische Einheit = Abstand Erde – Sonne). Die Sonne reicht damit fast bis zur heutigen Erdbahn.

Während der Entwicklung der Sonne zum roten Riesen, kontrahiert der ständig wachsende Heliumkern unter dem Einfluss der Schwerkraft immer mehr und wird dabei immer dichter und heißer. Schließlich bilden die Elektronen im Heliumkern bei großer Dichte ein sog. “entartetes Fermi-Gas“, das ähnlich einer Flüssigkeit zunächst nicht weiter zusammengedrückt werden kann.

Die Temperatur wird den sehr hohen Wert von 100 Millionen Kelvin im Heliumzentrum erreichen und noch überschreiten (das heutige Sonnenzentrum hat etwa 15 Millionen Kelvin). Bei dieser Temperatur (und Druck) zündet die Heliumfusion, bei der Helium zu Kohlenstoff fusioniert.

Das Helium im Sonnenzentrum wird im sog. Helium-Flash explosionsartig in Kohlenstoff umgewandelt. Innerhalb einiger Minuten wird dabei eine Energie von der Größenordnung einer kompletten Milchstraße erzeugt. Die Energie gelangt jedoch nicht das außen, sondern wird dazu benötigt, dass entartete Zentrum (Fermi-Gas) aufzuheben. Das Heliumzentrum dehnt sich dabei aus. Das übrige Helium im Sonnenzentrum fusioniert langsam zu weiterem Kohlenstoff und teilweise fusioniert auch Kohlenstoff mit weiterem Helium zu Sauerstoff.

Während dem Helium- und Wasserstoff-Schalenbrennen schrumpft die Sonne aufgrund des nachlassenden Gegendrucks zur Gravitation wieder auf ca. ihren 10-fachen heutigen Wert. Aus der roten Riesensonne wird eine kleinere weiße Riesensonne, ein sog. “Horizontalast-Stern“. Für eine gewisse Zeitspanne als Horizontalast-Stern pulsiert sie dabei sogar. Sie ist dann ein “RR-Lyrae-Stern“ (diese verändern ihre Leuchtkraft streng periodisch und sind nach dem Referenzstern “RR Lyrae“ im Sternbild Lyra benannt). Nach weiteren 100 Millionen Jahren ist auch das Helium im Zentrum verbraucht und in Kohlenstoff und Sauerstoff umgewandelt. Das Kohlenstoff-Sauerstoff-Zentrum kontrahiert bis auf Erd-Größe, wobei mehr als die Hälfte der gesamten Sonnenmasse sich in diesem sehr kompakten heißen Zentrum konzentriert.

In dem viel dünneren Gas darüber bildet sich eine Helium-Fusionsschale, über der weiterhin die Wasserstoff-Fusionsschale brennt. Die äußeren Schichten der Sonne blähen sich insgesamt wieder stark auf und kühlen ab. Es entsteht erneut für kurze Zeit (etwa 20 Millionen Jahre) ein roter Riese, der sogar noch größer ist als zuvor – etwa 200-mal größer als die heutige Sonne und mit der 5.000-fachen Leuchtkraft. Damit reicht die Sonne über die heutige Erdbahn. Aufgrund des Masseverlustes der Sonne durch den starken Sonnenwind und der damit verringerten Schwerkraft, könnte sich nach Modelrechnungen die Erde von der Sonne auf etwa den 1,7-fachen Abstand von heute entfernen.

Die Wanderung der Helium-Fusionsschale nach außen lässt die rote Riesensonne schließlich instabil werden. Über einen Zeitraum von etwa 500.000 Jahre bläst die Sonne in mehreren heftigen Zuckungen (sog. “Helium-Flashs“) große Teile der äußeren, nur noch schwach gravitativ gebundenen Sonnenschichten (sie befinden sich relativ weit vom Massekern entfernt) in den Weltraum hinaus und legt ihren inneren, erdgroßen Kern frei.

Durch diesen Prozess verliert sie praktisch das gesamte noch unverbrauchte Brennmaterial, insgesamt etwa 1/3 ihrer Masse. Die sich ausdehnende Gas- und Staubwolke wird als “planetarischer Nebel“ bezeichnet, der aber nichts mit Planeten zu tun hat. Die Bezeichnung hat ihren Ursprung, dass diese Nebel typischerweise in früheren Teleskopen ein ähnliches Aussehen wie Gasplaneten aufweisen. Im Vergleich zur Lebensspanne der Sonne existieren planetarische Nebel nur sehr kurz, meist nicht länger als einige 10.000-Jahre. In unserer Galaxie sind rund 1.500 planetarische Nebel bekannt. Abbildung 24 zeigt einige planetarische Nebel.

 

Abbildung 24 links zeigt den Katzenaugennebel (NGC 6543) im Sternbild Drache in einer Entfernung von ca. 3.300 Lichtjahren. Die mittlere Abbildung den wohl bekanntesten planetarischen Nebel, den Ringnebel im Sternbild Leier (NGC  6720, Entfernung 4.100 Lichtjahre) und die rechte Abbildung den Eskimo-Nebel (NGC 2392) im Sternbild Zwillinge, in einer Entfernung von 2.900 Lichtjahren.

Das übrig gebliebene sehr heiße nackte Sonnenzentrum aus Kohlenstoff und Sauerstoff nennt man einen “weißen Zwerg“. Obwohl er nur so groß wie die Erde ist, umfasst er etwa die Hälfte der ursprünglichen Sonnenmasse. Die Teilchendichte in einem weißen Zwerg ist so hoch, dass ein Kubikzentimeter seiner Masse im irdischen Gewichtssystem ca. 1 Tonne wiegt.

 

Abbildung 25: Der von der Sonne übrig gebliebene weiße Zwerg (künstlerische Darstellung), der nur noch die Größe der Erde aufweist, hüllt die Erdoberfläche in ein fahles Licht. Eine Fusion findet auf der übrig gebliebenen Sonne nicht mehr statt. Sie leuchtet, weil sie eine Oberflächentemperatur von über 100.000°C aufweist, die im Verlauf der kommenden Jahrmilliarden langsam abnimmt. Ihre übrig gebliebene Masse von ca. 50% der alten Sonnenmasse reicht aus, um die Erde an sich zu binden. Dass auf der Erde wieder Leben entstehen kann, ist ausgeschlossen.

Nach diesem Ausflug in die Zukunft (die Szenarien entstanden nach Erkenntnissen der Astrophysik und fassen den heutigen Wissensstand grob zusammen), zurück in die Gegenwart, wie die dynamische Sonne auf kleineren Zeitskalen, heute und in jüngster Vergangenheit, Wetter und Klima auf der Erde beeinflusst und weiterhin moderiert. Hierzu betrachten wir die Sonne in ihrem Innern.

Abbildung 26 zeigt akustisch gemessene Fluktuationen und Wirbel im Sonneninnern (links und Mitte), bzw. gemessene Temperatur-/Dichteänderungen in der Sonne (rechts), Quelle: SOHO. Die Sonne ist kein statisches Gebilde. Ihre Energieschwankungen und deren Auswirkungen auf die Erde auf kleinen Zeitskalen sind ganz beträchtlich, wie in den folgenden Teilen gezeigt wird.

Bisher wurde ausschließlich die Fusionsleistung der Sonne betrachtet. Darüber hinaus strahlt die Sonne magnetisch erzeugte Energie ins Weltall ab. Während die Fusionsleistung auf kurzen Zeitskalen relativ konstant ist, variiert die magnetische Aktivität der Sonne ganz erheblich und steuert damit unsere Wettersysteme, wie bereits im Teil 1 gesehen und damit unser Klima. Hierzu mehr im 3. Teil.

Raimund Leistenschneider – EIKE

Teil 3 in Kürze

Übersicht über alle Teile:

Teil 1 – Die Sonne bestimmt den Temperaturgang

Teil 2 – Die Sonne, der faszinierende Stern

Teil 3 – Sonnenflecken und ihre Ursachen

Teil 4a – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 4b – Die Sonnenatmosphäre, Korona, Heliosphärische Stromschicht,
interplanetares Magnetfeld

Teil 5 – Die variable Sonne

Teil 6 – Der Einfluss der Sonne auf unser Wetter/Klima

Teil 7 – Der Einfluss der Sonne auf die Wolkenbedeckung über Svensmark hinaus

Teil 8 – Zukünftige Temperaturentwicklung und deren Schwankungen




Merkwürdige DWD Temperaturkurven! Aus Absicht falsch, oder aus Versehen?

Von dort forscht der Blick, wie von Geisterhand gesteuert, nach rechts auf das Thermometer zu, weil es ebenso grellweiß hervorsticht, wie die Überschrift und der Blitz. Dort stößt er auf den dicken roten Balken – der unfassbare 74 Grad verheißt – und verweilt in ungläubigem Staunen: Das muss die Klimakatastrophe sein, schießt es unserem Leser durch den Kopf. Nur erfahrene Klimaforscher und Wetterfrösche erkennen rasch, daß die vordere Skala in Fahrenheit und die nach hinten gekehrte in Celsius ist. Das Auge des ungeübten Betrachters aber sucht spontan die vordere Skala. Unausweichliche Folge ist, daß ihm ein gehöriger Schreck in die Glieder fährt. Er nimmt – wie sollte er denn anders – die Horror-Zahl für bare Münze.

Wer nun glaubt, das Auge unseres verunsicherten Lesers erhielte bei der weiteren Wanderung durch das Bild Entwarnung, der irrt. Das Gegenteil tritt ein – der Schreck verfestigt sich. Denn gleich links neben dem Thermometer wächst aus der Kurvengraphik die schlimme rote Kurve raus und landet just in dem tödlichen Atom- und Sonnenblitz. Steil geht sie bergauf und wird gar immer steiler und schneller, je näher wir an das Jahr 2100 kommen, das Jahr der Prophezeiung. Nur noch ein paar Jahre weiter, und die Kurve wird uns ganz senkrecht in den Himmel schießen. Dem Hitzetod entgegen. Da kann uns auch die gelbe Kurve darunter nicht trösten, denn leider dauert es hier nur ein wenig länger, und nicht wir, die Kinder und die Enkel sind verbrannt, sondern erst unsere Urenkel. Das kommt so, weil auch die gelbe Kurve den perfiden progressiven Trend zeigt, der uns zu Todgeweihten macht. Oh sole mio – moribundi te salutant. Oh meine Sonne – wir Todgeweihten grüßen Dich.

ARD Wetterfrosch Sven Plöger – nicht beim DWD beschäftigt stellt die Meteorologenehre wieder her. Mit Dank an Spürnase R. Hoffmann

Ob diese Schreck-Effekte vom DWD beabsichtigt sind oder nur ein Versehen – was viele vermuten, verdient eine eingehende Analyse. Das Ergebnis fällt eindeutig aus, wie so manchem schon dämmert: Alles spricht dafür, daß der DWD mit dieser Graphik eine suggestive Absicht verfolgt! Sie fragen nach Belegen? Dann lesen Sie weiter!

Der DWD-Zeichner, der zur Illustration der Graphik eine Thermometerdarstellung sucht – z.B. im Internet – stößt zwangsläufig auf hunderte Celsius-Thermometer, neben einigen Celsius-Fahrenheit-Thermometern. Dass er nun nicht das nahe liegende Celsiusthermometer wählt, sondern schließlich das bei uns weniger verbreitete mit Doppelskala verwendet, mag Absicht oder Schusseligkeit sein. Nach 10 Sekunden des Nachdenkens klärt sich die Motivlage aber auf: Der DWD ist eine Deutsche Einrichtung, folglich muß der Zeichner ein Celsius-Thermometer gesucht haben. Wenn er dennoch dieses ungebräuchliche F-C-Thermometer wählte und dann noch die Fahrenheit-Skala nach vorn drehte, liegt unzweifelhaft ein Willensakt vor, kein Zufall. Ebenfalls für Absicht des DWD spricht, dass der Graphiker die Bezeichnung "F" und "C" oben abgeschnitten hat. Auch dies ist ein Willensakt und kein Versehen. Dem Betrachter wird dadurch das Verständnis der Zusammenhänge erschwert, und der Zeichner säet Angst in einem umso weiteren Feld der Öffentlichkeit. Hinzu kommt noch, daß der rote Temperaturbalken selbst auf der Celsiusskala auf sage und schreibe 24°C steigt, während selbst die pessimistische Prognose für 2100 nur bei schlappen 13 °C steht. Schließlich gibt es ja auch noch weitere DWD Mitarbeiter. Sie alle, bis hin zum Präsidenten müssen die Darstellung gesehen haben, bevor sie veröffentlicht wurde. Jeder von ihnen MUSSTE doch beim ersten Augenschein dieses ungebräuchliche und seiner Skalenbezeichnung beraubte und allemal zu hoch justierte Thermometer erkennen, monieren und dafür sorgen, daß es umgehend gegen ein vernünftiges ausgetauscht wird. da alle Beteiligten es passieren ließen, scheidet Schusseligkeit des Zeichners als Motiv für die Bildgestaltung eindeutig aus

Auch die Prognosekurven sind fraglich und suggestiv. Über die fraglichen Zahlenwerte der Prognose wurde bei EIKE schon kritisch geschrieben. Mir geht es hier um einen weiteren gelungenen Darstellungs-Trick der DWD-Leute. Er funktioniert über die Zeitskala der Kurve: der rechte Teil der Kurve, also ab 2010 bis 2100 ist im Maßstab um rund 40% gestaucht gegenüber dem linken Teil 1881 – 2010. Das erhöht optisch den Kurvenanstieg der roten und der gelben Kurve um fast das Doppelte. Welche Reaktion stellt sich beim unbedarften Zuschauer ein? Natürlich: die DWD Prognose gewinnt an Dramatik! Da die Kurven überdies mit dem Begriff "Prognose" beschriftet sind, gewinnen die Aussagen des DWD eine Aura des Unumstößlichen und Unangreifbaren. Die in der Graphik verwendeten Suggestionstricks sollen schlichtweg den Eindruck erwecken, als stimmten die Zahlen. Sie sollen den Leser von skeptischen Impulsen abhalten und dazu bewegen, das "Gelernte" zu akzeptieren und tunlichst weiter zu tragen.

Bei einer Aussage mit einer derartigen Häufung von suggestiven Graphik-Elementen drängt sich der Verdacht der Täuschung auf, und die gesamte Darstellung (Zahlen und Graphik ) ist – bevor man überhaupt sachlich an das Zahlenwerk herangeht – insgesamt unter Vorbehalt zu stellen.

Bei dieser Beweisführung bleibt nur festzustellen: bewußtes Handeln des DWD, man nennt es auch Manipulation, zeigt jetzt unverhüllt sein Gesicht. Wir dürfen gespannt sein, ob und wie sich der DWD, vielleicht in Gestalt des Präsidenten, zu diesen Analysen äußert.  

CommSens

Nachtrag der Redaktion:

Die oben abgebildete Grafik zeigt die offizielle mittlere Deutschlandtemperatur wie sie der DWD noch bis vor kurzem veröffentlichte. Sie zeigt eine deutliche Abkühlung seit 2000.  

Der Präsident des DWD Prof. Adrian hat die Mail-Adresse: gerhard.adrian@dwd.de

Die Klimaabteilung unter Leitung des DWD Vizepräsidenten Dr. Paul Becker finden Sie hier die Email ist: info@dwd.de




Wärmedämmung: Die so genannte Gebäudesanierung. Schilda lässt grüßen

Das Einpacken von Gebäuden mit Dezimeter dicken Dämmplatten soll an das Anziehen warmer Daunenjacken und Wollmützen im Winter erinnern. So suggeriert es ein von der Bundesregierung verbreitetes Plakat, das Häuser mit Wollmützen zeigt. Es soll Hausbesitzer auf die Möglichkeit hinweisen, durch den Einbau dreifach verglaster Fenster, durch das Auswechseln des Heizkessels und durch eine aufwändige Isolierung des Daches und der Mauern mit Dämmplatten Heizkosten zu sparen. Aber lohnt der Aufwand wirklich? Wer in Deutschland die Heizkosten benachbarter gedämmter und ungedämmter Gebäude gleicher Bauart vergleichen möchte, kommt nicht weit. Es gibt dazu keine Normalbürgern zugängliche Daten. Eine Studie des Instituts für Wirtschaftsforschung Halle (IWH) kam jedenfalls zum Schluss, dass eine energetische „Sanierung“ von Gründerzeithäusern den Heizenergiebedarf bestenfalls um 10,6 Prozent senkt. Der Gerichtssachverständige Prof. Dipl. Ing. Jens Fehrenberg (Hildesheim) kam an die Heizkostenabrechnung benachbarter gedämmter und ungedämmter Wohnblocks in Hannover und stellte sogar fest, dass die zuletzt genannten weniger Energie verbrauchten als die angeblich energetisch sanierten.

Wie ist das möglich? Ganz einfach: Die gedämmten Wände verhalten sich in der Praxis nicht so, wie es die rein theoretischen Rechenmodelle der Dämmstoff-Lobbyisten vorhersagen. Diese Modelle stützen sich allein auf den so genannten U-Wert (früher k-Wert) der Wärmedurchlässigkeit verschiedener Materialien. Dieser Zahlenwert vernachlässigt, dass der größte Teil der Wärme nicht durch Wärmeleitung in Festkörpern, sondern durch Abstrahlung verloren geht. Er vernachlässigt auch, dass der unter trockenen Laborbedingungen gemessene U-Wert nicht mehr gilt, wenn das Isoliermaterial feucht geworden ist. „Wärmedämmung auf der Außenwandfläche mindert zwar den Austrag von Wärme, verhindert aber ebenso den Eintrag“, erklärt Prof. Fehrenberg. Gerade im Winter, wenn die Sonne tief steht, nehmen vor allem Ziegelmauern tagsüber eine große Wärmemenge auf und geben sie nachts langsam sowohl an die Wohnräume als auch an die Umgebungsluft ab. Dadurch wird verhindert, dass die Mauer nachts so weit auskühlt, dass der Taupunkt unterschritten wird und sich Kondenswasser niederschlägt. Wird die Mauer jedoch isoliert und abgedichtet, verliert sie ihre Fähigkeit, die Feuchtigkeit zu regulieren. Gedämmte Fassaden erkalten abends viel schneller als ungedämmte. Das sich dann ansammelnde Kondenswasser ist ein idealer Lebensraum für Grünalgen, Schimmelpilze und Flechten. Schon nach wenigen Monaten werden deshalb nicht wenige der angeblich sanierten Häuserfassaden schmutzig grün. Um das zu verhindern, werden die Dämmplatten neuerdings mit hochgiftigen Algiziden und Fungiziden behandelt. Ein besonders schlauer Dämmstoff-Verkäufer bietet elektrische Fassadenheizungen an, um dem Problem beizukommen. Schilda lässt grüßen.

Deshalb rät Fehrenbergs Berufskollege Konrad Fischer aus Hochstadt am Obermain, ein auf die Sanierung denkmalgeschützter Gebäude spezialisierter Architekt, seinen Kunden: „Wer wirklich Energie und Geld sparen möchte, sollte sinnlose Energiespar-Aufwendungen unterlassen!“ Fischer weist übrigens die von den Dämmfanatikern als Verkaufsargument benutzten Bilder von Wärmebildkameras als groben Unfug zurück. Selbstverständlich zeigen diese, dass ungedämmte Häuser nachts auffällig viel Wärme abstrahlen. Aber es handelt sich dabei überwiegend um die Sonnenenergie, die die Mauern bei Tage aufgenommen haben. Die nächtliche Abstrahlung verhindert, dass sich Feuchtigkeit auf und in den Mauern niederschlägt. Gedämmte Mauern hingegen, werden nachts kalt und feucht, weil sie tagsüber von wärmenden Sonnenstrahlen nicht mehr erreicht werden. Nicht von ungefähr haben alle US-amerikanischen Bundesstaaten das Dämmen der dort üblichen Holzrahmenhäuser verboten, nachdem sich dort der Hausschwamm ausgebreitet hatte. Europäische Öko-Kommissare hingegen wollen ihren Untertanen befehlen, in verschimmelten und schlecht belüfteten Gebäuden zu vegetieren, um die angeblich drohende Klimakatastrophe aufzuhalten.

Bislang konnten sich deutsche Hausbesitzer den gesetzlichen Dämm-Verpflichtungen relativ leicht entziehen, wenn sie mithilfe von Gutachtern die Unwirtschaftlichkeit der von ihnen verlangten Energiespar-Investitionen darlegen konnten. Im Paragrafen 11 der Heizkostenverordnung zum deutschen Energieeinsparungsgesetz steht, dass Kosten dann als unverhältnismäßig hoch gelten, wenn diese nicht durch Einsparungen binnen zehn Jahren erwirtschaftet werden können. Bei der energetischen „Sanierung“ eines bescheidenen Einfamilienhauses gemäß den heute schon gültigen Vorschriften werden jedoch erfahrungsgemäß um die 600 Euro je Quadratmeter Wohnfläche, das heißt mindestens 60.000 Euro fällig. Diese erlauben eine Heizkosteneinsparung von maximal 1.000 Euro im Jahr. Das heißt, es braucht 60 Jahre, um die Investition abzubezahlen. Bis dahin liegt der in die Zukunft investierende Eigentümer wahrscheinlich längst im Grab und das Haus ist vielleicht schon abgerissen.

Die herrschende grün angestrichene Finanzoligarchie arbeitet jedoch bereits eifrig an der Ermächtigung für die Einführung eines gesetzlichen Dämmungszwangs ohne Beachtung der wirtschaftlichen Zumutbarkeit und des Eigentumsschutzes. Die Hausbesitzer sollen zum Einbau von Vorrichtungen gezwungen werden, die ihrer physischen und finanziellen Gesundheit abträglich sind. Sie sollen Hypotheken aufnehmen müssen und dadurch abhängig werden vom staatlichen Papiergeldsystem. Darum geht es wohl im Kern bei dem im Europa-Parlament zur Abstimmung anstehenden Energieeffizienzplan der EU-Kommission, der im Wesentlichen in Berlin ausgedacht wurde. Als Hebel für dessen Umsetzung kommt eine Verschärfung der Anforderungen für den beim Immobilien-Verkauf obligatorischen Energieausweis in Frage. Die Deutschen werden bald gewahr werden, dass „Klimaschutz“ dem Versuch einer Enteignung durch die Hintertür gleichkommt.

Edgar Gärtner; EIKE; zuerst erschienen bei eigentümlich frei

Links:

Prof. Dipl.Ing. Jens Fehrenberg (Hildesheim)

Konrad Fischer aus Hochstadt am Obermain

Die Welt: Mieter drohen durch EU-Plan hohe Mehrkosten

Der Spiegel: Gebäudesanierung: Gut fürs Klima, schlecht fürs Portemonnaie

FAZ: Gebäudesanierung: Klimaschutz mit Schlagseite

FAZ: Altbausanierung: Abstumpfung mit Styroporplatten

FAZ: Frankfurt dämmt sogar ein Krematorium

Die Welt: Sanierte Häuser massenhaft von Algen befallen

FOCUS: Energetische Sanierung: Der grüne Schrecken




Ruß, Staub und die Gletscher-Schmelze: Freispruch für CO2?

Neuerdings wird außerdem klar [3]: "Rußpartikel … verstärken auch deutlich die Klimaerwärmung. In der Arktis sind die Rußpartikel für fast die Hälfte der bedrohlichen Eisschmelze verantwortlich".

Das ist keine neue Erkenntnis, denn sowohl die Arktis- als auch die Gletscher-Schmelze ist ohne Ruß nicht zu erklären, wie Glaziologen [4] schon lange wissen: "Unsere Erklärung lautet: Die Luftverschmutzung war früher geringer … der Ruß ist für die Hälfte der Gletscher-Schmelze verantwortlich."

Physikalisch ist das so zu erklären: Schnee und Eis, folglich auch Gletscher haben ein hohes Reflektions-Vermögen für Sonnen-Strahlung. Werden die Oberflächen verschmutzt, z.B. durch Staub und Ruß, so verringert sich der Anteil der reflektierten Strahlung. Es wird dann mehr Strahlung absorbiert und in Wärme umgewandelt.

Gegenbeispiel: dort, wo die Luftverschmutzung geringer ist, dort wachsen auch heutzutage die Gletscher sogar weiter an [5], trotz Erderwärmung: "… auf Neuseeland wachsen die Gletscher sogar kräftig an… Die Entwicklung der Gletscher auf  Neuseeland zeigt eindrucksvoll, daß es kein "globales" Verhalten der Gletscher gibt…"!

Schon aus meteorologischen Gründen ist es völlig unsinnig, eine Klima-Erwärmung von 0,7°C als einzigen Grund für die Arktis-  und Gletscher-Schmelze verantwortlich zu machen: Durch eine solche Erwärmung steigt die mittlere Frostgrenze ("Null-Grad-Grenze") in der Atmosphäre um lediglich 100 Meter an. Für ein Schmelzen höher liegende Gletscher- und Pol-Regionen muß es also andere Gründe geben  – z.B. die Luftverschmutzung sowie natürliche Veränderungen der Sonnen-Einstrahlung.

Zum Abschmelzen der Alpen-Gletscher sagen die Glaziologen aus Österreich [6]: "Zu Beginn des Millenniums (9.-12. Jh.) waren die Alpengletscher ähnlich klein, evtl. noch kleiner als heute."

Die gleiche Meinung vertritt z.B. auch Prof. Jörg Negendank vom GFZ Potsdam  [7]: "In der Römerzeit muss zumindest im Alpenraum ein wärmeres Klima als heute geherrscht haben, da der große Aletsch-Gletscher weiter zurückgezogen war" . 

Folglich: Nachhaltiger menschlicher Einträge in die Atmosphäre wie z.B. von CO2 und Ruß bedarf es gar nicht, um solche Veränderungen herbei zu führen. Die Natur führt es auch alleine vor, früher wie heute. 

CO2 ist für die Klima-Erwärmung eine Marginalie, was neuere Berechnungen  [8]  mehr und mehr zeigen: "Die sog. Klima-Sensivität des CO2, also die Erhöhung der mittleren Globaltemperatur infolge Verdoppelung der CO2-Konzentration, beträgt grob 1°C. Da diese Verdoppelung ungefähr dem Verbrennen aller der Menschheit noch zugänglichen fossilen Brennstoffe gleichgesetzt werden kann, ist der Wert von 1°C unbedenklich und bietet keinen Anlaß zu Katastrophen-Warnungen." Die spektakulären Werte des Klimarates (IPCC) von 3…5 °C und mehr werden in den Computer-Szenarien durch so genannte "positive Rückkoppelungs-Effekte" erzielt. Diese sind hoch umstritten und durch nichts bewiesen. 

Unter Berücksichtigung all dieser Fakten sollten wir uns in unseren Maßnahmen folglich mehr auf den Umweltschutz konzentrieren, als Milliarden teuere Methoden für die Vermeidung oder gar die gefährliche Verpressung  von CO2 (CCS) zu entwickeln. Dazu sagt der frühere Direktor des Meteorologischen Instituts FU Berlin  [9]: "Es wird höchste Zeit, den Umweltschutz anstelle eines fragwürdigen, wissenschaftlich nicht konsensfähigen Klimaschutzes weltweit in den Mittelpunkt des Handelns zu stellen. Saubere Luft, sauberes Wasser, ein intaktes Ökosystem kommen den Menschen heute und zukünftig zugute. Wie ideologisch vermessen muss man sein, um der Natur ein "2-Grad-Ziel“ vorzugeben."

In dem Zusammenhang ist es interessant, daß die Arktis-Schmelze seit 2007 nicht mehr zugenommen hat, sondern daß es stattdessen in den  Jahren 2008-2010 zur Zeit des spätsommerlichen Minimums wieder mehr Eis gegeben hat (vgl. Abbildung). Da wirkt es schon sehr alarmistisch, wenn in den Jahren davor einige "Experten" stets von einem unumkehrbaren "Kipp-Punkt" der Arktis-Schmelze fabulierten. Neuerdings gibt es Hinweise, daß derartige Spekulationen über allerlei "mensch-gemachte Klima-Kipp-Punkte" dahin kommen, wo sie hingehören: In den Papierkorb der Wissenschaft. Denn –  das Max-Planck-Institut in Hamburg  [10] hat eine Studie zur Arktis publiziert: "Der starke Rückgang des Meereises in der Arktis ließ in den letzten Jahren die Sorge aufkommen, dass die Eisbedeckung sich einem sogenannten Kipp-Punkt nähern könnte…… Aktuelle Forschungsergebnisse …. deuten jetzt jedoch darauf hin, dass es keinen solchen Kipp-Punkt für den Verlust des Sommereises in der Arktis gibt. Stattdessen reagiert die Eisbedeckung relativ direkt auf die jeweiligen klimatischen Bedingungen…."

Dieses alles wird die Katastrophen-Auguren nicht hindern, beim nächsten sommerlichen Eis-Minimum erneut die Apokalypse zu verkünden.

Veröffentlichung hier:

Mit freundlicher Genehmigung der SUT Verlags GmbH, 53757 St. Augustin

Klaus-Eckart Puls; Dipl.-Meteorologe, (EIKE) 

Quellen:

[1] SCHIFFAHRT+HAFEN…, Nr. 8 (2008), S.13

[2] H. Malberg, Langfristiger Klimawandel, Beitr. Berliner Wetterkarte, SO 29/09, 15.09.2009

[3]   DVZ Brief-Express, 14. Juni 2011, Hamburg

[4]   DER SPIEGEL, 52/2009, S.125

[5]   S.Winkler, Univ. Würzburg, 02.05.2007,  http://idw-online.de/pages/de/news206835

[6]   Österreichisches Klima im letzten Millennium, http://www.pisch.at/ernst/wissen/Dorfbuch/node164.html

[7]  Die Geschichte des Klimas aus geobiowissenschaftlichen Archiven", in: Klima im Wandel,

        UWV/BTU Cottbus, Eigenverlag, 2001, S.32-38

[8] H.-J. Lüdecke, CO2 und Klimaschutz, BOUVIER (2010), S.101 ff

[9]  H. Malberg, Über scheinbare und tatsächliche Klima-Erwärmung seit 1850, Beitr. Berliner Wetterkarte,

       SO 26/10, 28.09.2010

[10]  MPI f. Meteorologie HH, Presse-Mitteilung, 4. Februar 2011, "Hoffnung für das Arktische Meereis";

         


Related Files