Die falschen Klimathesen des Professors Mojib Latif

Wenn man schon nach einem Leugner des Klimawandels suchen sollte, dann findet man diesen bei den AGW-Vertretern. Für einige hundert Jahre hat Michael Mann mit seiner berühmt-berüchtigten gleich mehrfach manipulierten Hockeyschlägerkurve[1] ein nahezu konstantes Klima erfunden.

Von 1000 bis 1900 ändert sich die Temperaturanomalie um knappe 0.2°C. Hierzu mussten aber durch statistische Tricks die kleine Eiszeit und das mittelalterliche Temperaturoptimum abhanden kommen.

These 1: Der Mensch ist unschuldig. Klimaschwankungen gab es immer schon.

Falsch. Es gab zwar immer schon natürliche Klimaschwankungen. Aber wenn wir so weitermachen wie bisher, bekommen wir eine Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.
Da es nicht eindeutig ist, was Prof. Latif (PL) meint, schauen wir uns sowohl die absolute Temperatur und die Temperaturanomalie an.

1. Absolute Temperatur

Der IPCC nimmt hierfür 288K oder 15°C an. Dieser Wert  ist aus zwei Gründen von geringer Aussage, da man mittels der Thermodynamik zeigen kann, dass es keinen Mittelwert geben kann und weil er (trotzdem) vom IPCC mittels des Stefan-Boltzmann-Gesetzes, , mit ε = 1, als ob die Erde ein schwarzer Körper sei, berechnet wird.
Um einen Vergleich zu ermöglichen, nehmen wir temporär trotzdem an, dass eine mittlere Temperatur gemessen werden kann. Die folgende Graphik zeigt die CO2-Konzentration und die Temperatur im Verlauf der Erdgeschichte.

Man erkennt drei wichtige Fakten. Erstens war es schon des Öfteren viel wärmer als heute und es gab durchaus Zeiten, wo die Temperatur stieg, aber die CO2-Konzentration abnahm. Und drittens, wir leben in einer Zeit der minimalen CO2-Konzentration und Konzentrationen die 3- bis 5mal so hoch waren wie derzeit führten zu keinem Klimakollaps. Die absolute Temperatur kann PL also nicht gemeint haben.

2. Der Temperaturanstieg

Im 20. Jahrhundert stieg die mittlere Temperatur um 0.7-0.8°C an. Dass es selbst daran beträchtliche Zweifel gibt wegen der permanenten Manipulationen der Messreihen, sei einmal übersehen (Details dazu im Bericht „Das Temperaturdilemma“). Die nächste Graphik zeigt die Dansgaard-Oeschger-Oszillationen.  Eine detaillierte Inspektion offenbart Schwankungen von mehr als Grad 10°C innerhalb weniger Jahrzehnte. Also war der Anstieg mindestens zehnmal stärker als der so dramatisierte im letzten Jahrhundert.

Man könnte noch spitzfindig bemerken, dass von der Geschichte der Menschheit gesprochen wurde. Wenn es aber erstens dramatischere Änderungen ohne von den Menschen erzeugtes CO2 gab, warum soll er für einen sehr moderaten Wandel in der Neuzeit „schuldig“ sein. Zweitens lebten und überlebten unsere Vorfahren während der extremen Dansgaard-Oeschger-Oszillationen. Oder zählen sie nicht mehr zur Menschheit?

These 2: Die Erwärmung wird nur von der Sonne bewirkt.

Falsch. Drei Viertel der Erwärmung ist vom Menschen gemacht, nur ein Viertel geht auf natürliche Ursachen zurück, insbesondere die Sonne. Aber der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.
Die These suggeriert die Antwort, aber diesmal ist der Fragesteller in die eigene Falle getappt, denn die Antwort lautet ganz klar Ja. Die Sonne ist nun einmal die einzige uns zur Verfügung stehende Energiequelle, wenn man von dem vernachlässigbaren Beitrag der Erdwärme absieht.
Die Verteilung der eingestrahlten und abgestrahlten Energie auf der Erde und die dadurch bewirkten lokalen Temperaturen hängen auch von anderen Größen ab.
Nehmen wir an, dass dies in der These gemeint sei.
Die Behauptung „drei Viertel der Erwärmung ist vom Menschen gemacht“ erscheint nach der Diskussion der ersten These schon etwas abstrus, denn wie konnten unsere zahlenmäßig geringen Vorfahren solch drastische Temperaturänderungen produzieren, da sie ja nicht einmal Autos hatten.
Die nächste Graphik vergleicht die Temperaturanomalie mit der Länge des Sonnenzyklus und der Änderung der CO2-Konzentration.
 
Wenn es nach PL eine Korrelation zwischen der Sonnenaktivität und der Temperaturanomalie  vor 1950 gab, dann ist es anhand der Graphik schwer verständlich, warum dies danach nicht mehr gelten soll. Richtig würde PL liegen, wenn er die Korrelation zwischen der Temperaturanomalie und der CO2-Konzentration in Frage stellen würde, denn die ist erbärmlich. Der Standardeinwand lautet hier, dass die Schwankung der solaren Einstrahlung zu gering ist. Dies mag für den integralen Wert richtig sein, aber im UV-Bereich liegt die Variation z. B. im Bereich von 10%. Des Weiteren hat das Cloud-Experiment in CERN eindeutig gezeigt, dass eine Verstärkung der kosmischen Strahlung die Wolkenbildung fördert, wie Svensmark[2] zuerst postuliert hat. Die Intensität der in die Atmosphäre eintretenden kosmischen Strahlung ist aber von der magnetischen Aktivität der Sonne abhängig. Ein Maß für diese Aktivität ist der ap-Index und für die kosmische Strahlung sind dies die gemessene Anzahl der Neutronen auf der Oberfläche der Erde. Umso mehr Neutronen gemessen werden umso stärker ist die kosmische Strahlung und umso geringer das solare Magnetfeld.
Dieser Zusammenhang wird durch die nächste Graphik, die die Variation des ap-Indexes mit der invertierten Änderung des Neutronenflusses vergleicht, eindrucksvoll belegt.
  Die folgende Graphik zeigt zweifelsfrei, dass es eine enge Korrelation zwischen der kosmischen Strahlung und der Wolkenbildung gibt. Mehr Wolken bedeuten geringere Einstrahlung und sinkende Temperaturen und vice versa.

Fazit: Die Behauptung, dass der Einfluss der Sonne nur für die erste Hälfte des Jahrhunderts verantwortlich ist, steht auf sehr tönernen Füßen.
Aber lassen wir doch PL selbst zu Worte kommen. Am 16.11.09 stand in der „Bild“:
Jetzt macht der Klimawandel Pause. Ausgerechnet vor dem Klimagipfel der Vereinten Nationen in Kopenhagen, bei dem Forschung und Wirtschaft im Dezember über milliardenschwere Programme zum Schutz unserer Erde beraten wollen. Wie passt das zusammen?

Meteorologe Mojib Latif vom Kieler Leibniz-Institut für Meereswissenschaften: „Derzeit hat die Erdwärmung Pause.“

WAS SIND DIE GRÜNDE?

Unklar! Der Klimawandel stellt die Wissenschaftler mal wieder vor ein Rätsel. Jedoch nennen sie im „Spiegel“ zwei mögliche Gründe.
• Die Sonne schwächelt. (Endete nicht der Einfluss der Sonne 1950?) Weltraum-Forschern der Nasa fiel die geringe Zahl der Sonnenflecken auf, ein Zeichen für geringe Strahlungsaktivität. Das gab es so ausgeprägt seit Hunderten Jahren nicht.
• Im Pazifik steigt am Äquator kaltes Tiefenwasser nach oben („Pazifische Dekaden-Oszillation“). Mojib Latif meint, dass die Erdatmosphäre dadurch abgekühlt werde.
Beides sind Phänomene, die nur einige Jahre andauern. Danach gehe der Klimawandel weiter, sagt Latif: „Tatsächlich sind Phasen der Stagnation oder gar Abkühlung normal.“
Richtig Herr Prof. Latif ist, dass sich das Klima immer änderte und ändern wird. Erklären müssten Sie uns aber, warum eine Stagnation und eine Abkühlung normal sind, aber eine Erwärmung ungewöhnlich und menschengemacht ist.

These 3: CO2 hat keinen Anteil an der Erderwärmung, Wasserdampf  ist schuld.

Falsch. Wer das behauptet, verwechselt den natürlichen mit dem vom Menschen gemachten Treibhauseffekt. Wasserdampf hat einen Anteil von gut 60 Prozent am natürlichen Treibhauseffekt, der unsere Erdoberfläche warm (15 Grad) hält. Hätten wir ihn nicht, wäre unser Planet eine Eiswüste mit minus 18 Grad. Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.
Richtig ist dass der Wasserdampf den überwiegenden Beitrag liefert. Der vom CO2 kann aus der folgenden Graphik abgelesen werden inklusive des Effektes einer Steigerung des CO2-Gehaltes in der Atmosphäre.
 
Prof. R S Lindzen[3] vom MIT hat abgeschätzt, dass die Temperatur um 0.3-0.5°C steigt bei einer Verdopplung des CO2-Gehaltes. Dies ist die relevante Zahl! Die vom IPCC und von PL prognostizierten Anstiege von einigen Grad implizieren eine positive Rückkopplung des Temperaturanstieges mit dem ausgehenden Strahlungsfluss. Dies ist ein charakteristisches Merkmal aller Klimamodelle. Satellitenmessungen zeigen aber exakt das Gegenteil. Es gibt eine negative Rückkopplung. Alarmistische Meldungen beruhen demnach auf falschen Prämissen.
Wenn also der gigantische Effekt des CO2 mickrige 0.3-0.5°C Temperaturanstieg, bei einer nach Prof. T V Segalstadt (Geologe) aus Mangel an fossilen Rohstoffen nicht möglichen Verdopplung des CO2-Gehaltes, bedeutet, dann braucht sich niemand darüber zu sorgen. Im Gegenteil, es wäre sogar gut so, da diese sehr moderate Änderung zusammen mit einem höheren CO2-Gehalt die Produktion der Biomasse deutlich erhöhen würde.

These 4: Zusätzliches CO2 in der Atmosphäre hat keinen Einfluss aufs Klima.

Falsch. Die Skeptiker verstehen nicht, warum CO2 überhaupt klimawirksam ist. Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt – es lässt die Wärme nicht entweichen. Je mehr CO2, desto dichter oder dicker das Glas und umso größer die Erwärmung.
Den Skeptikern Unverständnis zu unterstellen und dabei selbst solch physikalischen Unsinn zu erzählen ist die schiere Unverschämtheit. Die Atmosphäre, ein System mit freier Teilchenkonvektion, mit einem Treibhaus, bei dem gerade diese Konvektion durch das Glas unterbrochen wird, zu vergleichen, zeugt von nicht verstandener Physik. Schon vor mehr als hundert Jahren hat Prof. R W Wood experimentell gezeigt, dass die Temperatur in einem Treibhaus steigt, weil die Luftzirkulation unterbunden und nicht weil die IR-Strahlung von dem Glas absorbiert wird. Das Experiment wurde kürzlich von E Loock (2008) und N S Nahle (2011) verifiziert. Selbst jeder Laie kennt diesen Effekt von dem Auto in der Sonne. Obwohl viel weniger Strahlung in das Auto eintritt als die Umgebung erhält, ist es im Wagen viel wärmer, weil die Konvektion sowohl durch die steigende Temperatur als auch durch das beschränkte Luftvolumen unterdrückt wird. Die Situation wird sofort verbessert, wenn man die Fenster einen Spalt weit öffnet, obwohl dies fast nichts am Strahlungsaustausch ändert.
Noch eine Frage an PL und die AGW-Sympathisanten: Die Marsatmosphäre besteht zu 95% aus CO2. Warum gibt es trotzdem auf dem Mars keinen Treibhauseffekt?
Übrigens ist auf dem Mars in den letzten Dekaden des 20. Jahrhundert die Temperatur gestiegen[4]. Dies geschah gerade in dem Zeitraum in dem die Sonne nach PL keinen Einfluss auf den Temperaturanstieg auf der Erde hatte. Also auf der Erde bewirkte die Sonnenaktivität nichts, während sie gleichzeitig die Temperatur auf dem Mars steigen ließ.

These 5: Das CO2 produzieren nicht wir Menschen, sondern die Weltmeere.

Falsch. Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmale, die sich vom natürlichen CO2 eindeutig unterscheiden. Dieses kann man messen.
Unsinn, die Ozeane produzieren kein CO2. Sie binden es und zwar mehr mit abnehmender Temperatur.  
Richtig ist, dass es Kohlenstoff als 12C und 13C gibt. Das Mischungsverhältnis ist fix in CaCO3 (Referenzsystem), wogegen durch die Photosynthese in organischen Materialien 13C verringert wird. Das Isotopenverhältnis bestimmt man mit der folgenden Formel
 
Es ist bekannt, dass dieser Wert für fossile Brennstoffe und biologisches Material
δ13C = -26‰ beträgt. Der natürliche Gehalt in der Atmosphäre ist δ13C =-7‰. Gemäß dem IPCC wurden 27% des CO2 (350ppm 1990) durch die Menschheit hinzugefügt. Demnach muss das Isotopenverhältnis δ13C =-12‰ betragen (-[27·26 + 73·7]/100).
Keeling et al.[5] haben 1978 für das Verhältnis -7.489‰ gemessen und 1988 -7.801‰, was weit entfernt von dem vom IPCC und dessen Jüngern angegeben Wert von -12‰ ist.

These 6: Die Klimamodelle der Forscher stimmen nicht.

Falsch. Die Erwärmung entwickelt sich genau wie vorhergesagt. Die Modelle wurden auch an vergangenen Klimaänderungen getestet. Es gibt keinen Grund, den Modellen zu misstrauen.
Falsch, es gibt keinen Grund den Modellen zu trauen. Ausführlich wurde dies in dem Bericht „Klimamodelle – wie verlässlich sind sie?“ untersucht.
Wer dies trotzdem anhand der folgenden Graphik behauptet leidet entweder unter Realitätsverlust oder betrachtet die Menschen als beschränkt.
 
Nun noch ein paar Aussagen von namhaften Wissenschaftlern:
Prof. Freeman Dyson–one of the world’s most eminent physicists says the models used to justify global warming alarmism are "full of fudge factors" and "do not begin to describe the real world."
Prof. Antonino Zichichi–one of the world’s foremost physicists, former president of the European Physical Society, who discovered nuclear antimatter–calls global warming models "incoherent and invalid."
Prof. Richard Lindzen–Professor of Meteorology at M.I.T., member of the National Research  Council Board on Atmospheric Sciences and Climate, says
”It isn’t just that the alarmists are trumpeting model results that we know must be wrong. It is that they are trumpeting catastrophes that couldn’t happen even if models were right.”
Dr. Kanya Kusano is Program Director and Group Leader for the Earth Simulator at the Japan Agency for Marine-Earth Science & Technology (JAMSTEC)
Climate science is ‘ancient astrology’.
Zum Schluss noch ein erstaunliches Zitat vom “Godfather” der AGW-Jünger, James Hansen:
„In my opinion, the IPCC calculations, epitomized by the Wild et al. result, omit the most important physics, especially the nonlinear effects of meltwater and secondarily the effects of black carbon”
Was bewegte Hansen alles in Grund und Boden zu stampfen?
Nun Wild et al. hatten mit einem „ausgeklügelten“ Klimamodell berechnet, dass das Eis von Grönland und der Antarktis bei Verdoppelung des CO2 wächst.
Solcher Frevel verdient natürlich die Schelte des Herrn.

Fassen wir zusammen:

These 1: Klimaerwärmung, die es in der Geschichte der Menschheit noch nicht gegeben hat.

Im letzten Jahrhundert betrug die Temperaturanomalie 0.7-0.8°C. Bei den Dansgaard-Oeschger-Oszillationen gab es Sprünge von mehr als 10°C in weniger als 100 Jahre.  

These 2: Der Sonneneinfluss passierte in der ersten Hälfte des 20. Jahrhunderts.

Das Ende der Erwärmung im 21. Jahrhundert wird von NASA-Forschern durch das Schwächeln der Sonne erklärt. Die Überaktivität der Sonne im 20. Jahrhundert hatte dagegen keinen Einfluss. Was für eine Logik!

These 3: Wir pusten gigantische Mengen CO2 in die Luft, das verstärkt den Treibhauseffekt.

Einer theoretischen Verdopplung des CO2 steht ein möglicher Anstieg von 0.3-0.5°C gegenüber. Höhere Werte stammen von unglaubwürdigen Klimamodellen (siehe letzte These).

These 4: Die Atmosphäre ist wie ein riesiges Treibhaus, wobei das CO2 die Rolle des Glases übernimmt.

Purer Unsinn.

These 5: Das von uns Menschen produzierte CO2 hat ganz bestimmte Merkmal, die man messen kann.

Richtig, das Ergebnis der Messung verschweigt aber PL aus gutem Grund.

These 6: Es gibt keinen Grund, den Modellen zu misstrauen.

Im Gegenteil es gibt keinen Grund ihnen und den Aussagen von Prof. Latif zu trauen.
Dr. B. Hüttner für EIKE


[1] Dies ist detailliert dargelegt und bewiesen von A W Montford in “The Hockey Stick Illusion”
[2] H Svensmark – PHYSICAL REVIEW LETTERS 81 (1998) 5027
[3] Lindzen – Proc. Natl. Acad. Sci. USA 94 (1997)
[4] Fenton et al. – NATURE online April (2007)
[5] In: Peterson, D.H. (Ed.): Aspects of climate variability in the Pacific and the Western Americas. American Geophysical Union, Geophysical Monograph 55, 165-236




Zu Gefahren und Nutzen der Kernenergie – einige Fakten!

Was hat Fukushima gezeigt?

Konzipiert wurde das AKW für ein Erdbeben der Stärke 8.2. Ausgehalten hat es eine Stärke von 9.0, was 630% größer ist. Kein Windrad und keine Solaranlage wird wohl eine Belastung überstehen, die 6.3mal der maximal gedachten entspricht. Die Ersteren würden umfallen und ein paar Autobahnen blockieren, die Letzteren würden kurzschließen, hunderttausende  Dächer entzünden und jede Feuerwehr zur Kapitulation zwingen.

Dies hinterfragt Herr Röttgen aber nicht. Im Gegenteil, der Beweis für die Widerstandsfähigkeit eines AKW wird umgedeutet in eine Schwäche.

Die Problematik in Fukushima entstand erst durch das Zusammentreffen von zwei Katastrophen. Jede Einzelne hätte keinen Effekt gehabt. Beim Erdbeben fuhr das AKW planmäßig herunter. Da das Stromnetz zusammenbrach, hätten die Dieselgeneratoren die Kühlung gewährleistet. Der Tsunami hätte die Generatoren lahm gelegt, aber das Netz wäre noch vorhanden. Verhängnisvoll und falsch war es Rekombinatoren zu verwenden, die zum Abbau des Wasserstoffes Strom benötigen. Dies gibt es in deutschen AKWs nicht.

Was rechtfertigt diese Irrationalität?

Die inzwischen unisono Antwort der Parteien in Deutschland ist das Risiko und die Gefahr, die von AKWs ausgehen.

Eine Risikoabschätzung kann man aber objektiv mittels Daten erstellen. Diese Aufgabe hat das Paul Scherrer Institut (PSI) in der Schweiz übernommen.

In der folgenden Graphik werden die Anzahl der Toten in einer logarithmischen Skala pro erzeugte elektrische Leistung in GW und pro Jahr für die verschiedenen Energieträger abgebildet. Die Werte basieren auf der Ermittlung der Unfälle für den Zeitraum von 1969-2000. Ausgenommen davon sind die Opfer in Kohlebergwerken in China für die nur Daten von 1994-1999 zur Verfügung standen.

Auffällig sind die großen Unterschiede zwischen den Zahlen für die entwickelte Welt (EU15 & OECD) und den Nicht-OECD-Staaten.

Die einzelnen Energieträger sind Kohle, Erdöl, Erdgas, Flüssiggas, Wasserkraft und Kernenergie.

Den tausenden von Opfern bei Kohle, Öl und Gas in den OECD und EU-Staaten stehen null Tote bei der Kernenergie gegenüber. Der violette Balken repräsentiert Tschernobyl, wobei hier sogar noch eine zu große Zahl zu Grunde gelegt wurde. Laut dem neuesten UN-Bericht vom Februar 2011 gab es 28 unmittelbare Opfer. Und nicht tausende, wie das ZDF seinen Zuschauern weismacht. Als Spätfolgen gab es 6000 Patienten mit Schilddrüsenkrebs von den 15 daran starben. Dies hätte man durch die Vergabe von Jodtabletten deutlich mindern können.

Die zweite Graphik zeigt die Schadenshäufigkeit für die OECD Länder. Während die die oberen vier Kurven auf realen Daten basieren, ist die Kurve für die Kernenergie eine fiktive Abschätzung. Will man also wissen, wie groß die Häufigkeit eines Unfalls mit 10 oder mehr realen  Toten ist, so erkennt man, dass diese für Flüssiggas eine Größenordnung höher als für Kohle und Öl ist und ungefähr 1.5 Größenordnungen für Erdgas. Die fiktiven Opfer der Kernenergie liegen 4 Größenordnungen unter den realen von Flüssiggas.

Ein modifizierteres Bild ergibt sich für die Non-OECD Staaten.

Hier gibt es einen realen Punkt (Tschernobyl) für die Kernenergie, der aber mehr als 2 Größenordnungen unter der Kurve für Flüssiggas liegt. Die möglichen Spätopfer werden in den nächsten 70 Jahren zwischen 10 000 in den unmittelbar betroffenen Ländern und 33 000 in Nordeuropa abgeschätzt. In derselben Zeitspanne ist aber mit rund 650 Millionen natürlichen Krebsfällen zu rechnen, so dass es sehr schwierig sein dürfte, die Tschernobyl-bedingten Fälle statistisch nachzuweisen.

Bis auf die Grünen, die können dies.

Um dies anschaulicher zu machen, wollen wir die Werte für Deutschland ermitteln. Hierbei nehmen wir an, dass für Deutschland die EU15 Daten gültig sind. Laut BMWi wurde 2009 für die Stromerzeugung 950PJ aus Steinkohle, 1380PJ aus Braunkohle und 1740PJ aus Kernenergie verwendet. Addieren wir Stein- und Braunkohle zu 2330PJ so ergibt sich für diesen Energieträger rund 74GW/a, was multipliziert mit 0.07 (Graphik1) rund 5 reale Tote ergibt. Bei Gas würden die Zahlen über eine Größenordnung höher sein, aber da liegt keine Unterscheidung zwischen Erd- und Flüssiggas beim Ministerium vor. Für die Kernenergie ist der Wert 1470PJ, was rund 0.4% der Kohleopfer als fiktive Tote ergeben würde.

Fakt ist, dass es in den deutschen Kernkraftwerken kein Strahlenopfer gegeben hat und erst recht nicht in der Umgebung. 

Traurige Realität ist dagegen, dass laut PSI bis zu 10 000 Bergleute allein in chinesischen Gruben sterben und zwar jährlich. Dies bewegt die Besorgten nicht.

Diejenigen die meinen das AKWs immer noch nicht sicher genug sind, die seien daran erinnert, dass der erste GAU nicht in Tschernobyl stattfand sondern 1967 in Jülich. Nach dem kompletten Abschalten der Kühlung flog der Reaktor nicht in die Luft, sondern kühlte sich langsam von alleine ab. Der Versuch mit dem Hochtemperaturreaktor wurde noch zweimal mit dem gleichen Ergebnis wiederholt. Damals war Deutschland auf diesem Gebiet weltweit führend. Inzwischen werden diese Reaktoren woanders weiterentwickelt und gebaut.

Eine andere Alternative wäre ein Fluorid-Thorium flüssig Reaktor, dessen radioaktiver Abfall  10 000mal geringer ist und der keinen Sicherheitsbehälter benötigt, da er bei Normaldruck arbeitet. 

Was kommt nach der Kernenergie?

Aus Mangel an Alternativen kommen dafür nur Kohle- und Gaskraftwerke in Frage. Dass dies im eklatanten Widerspruch zu der bisher von Merkel, Röttgen, Roth und Co. gepriesenen alternativlosen Notwendigkeit der CO2-Reduzierung steht, ist plötzlich ohne Belang. Stattdessen wird den Bürgern vorgegaukelt das Steigerung der Energieeffizienz und erneuerbare Energien die Lücke schließen. Während das Erste vernünftig ist uns seit Jahren betrieben wird, aber physikalischen Grenzen unterliegt, ist das Zweite nicht fähig die Grundlast zu übernehmen und dazu extrem teuer. Die Prophezeiung, dass die Kosten der erneuerbaren Energien mit deren Anteil am Gesamtaufkommen sinken werden, teilt das PSI nicht. Die folgende Graphik zeigt die Kosten für die einzelnen Energieträger für das Jahr 2030 für die Schweiz.

Man sieht, dass die Kosten für die Photovoltaik immer noch exorbitant hoch sein werden, aber die für die Windenergie sinken. Letztere benötigen aber Wasserkraftspeicher, die wiederum sehr teuer sind. Die geplante vollständige Umstellung auf erneuerbare Energie in Deutschland wird zur Folge haben, dass erstens es keine Stromsicherheit mehr gibt und zweitens, dass die energieintensiven Industrien (Stahl, Beton, Chemie, Glas, Papier…) abwandern müssen, da sie nicht mehr am Markt konkurrieren können.

Fazit

Die Regierung nebst SPD und Grünen sind auf dem richtigen Holzweg. Herr Röttgen hat in seiner Katastrophenliste einen wichtigen Punkt vergessen nämlich einen Meteoriteneinschlag. Die Saurier wurden durch einen vernichtet, wenn dies mit der Menschheit geschehen sollte, muss natürlich das Containment eines AKWs überleben.

Dr. Bernd Hüttner für EIKE

Related Files




Die geheimnisvolle Rolle des „anthropogenen Radiative forcings – was steckt dahinter?

Dies impliziert, dass es ein Gleichgewicht gibt, was mit der Grundannahme eines optimalen Klimas des IPCC korrespondiert. Die totale solare Strahlungsintensität wird vom IPCC mit RFTSI = 1367W/m2 angegeben. Die folgende Graphik zeigt die Messungen von drei Satelliten:

Die Ursache für die 0.35% Differenz (?RFmeas = 4.8W/m2!) ist derzeit nicht verstanden. 

Der IPCC sagt in seinem letzten Bericht:

“The differences in radiative forcing estimates between the present day and the start of the industrial era for solar irradiance changes and volcanoes are both very small compared to the differences in radiative forcing estimated to have resulted from human activities. As a result, in today’s atmosphere, the radiative forcing from human activities is much more important for current and future climate change than the estimated radiative forcing from changes in natural processes.” (Ch.2, p.137) Diese Behauptung werden wir näher betrachten. 

Die Änderung der totalen solaren Strahlung seit 1750 wird vom IPCC abgeschätzt zu 0.12 (-0.06/ +0.18)W/m2 (Ch.2, Tab. 2.12). Dieser Wert liegt in der Größenordnung der relativen Änderung pro Dekade von Satellitenmessungen. ACRIM hat z.B. für die Zyklen 21-23 0.037% oder 0.5W/m2 gemessen. Der absolute Fehler liegt bei den Satelliten aber bei ± 3W/m2. Wie man allerdings ohne Satelliten in der Vergangenheit solch geringe Änderungen bestimmen konnte wird nicht erklärt. Zu einem völlig anderen Ergebnis kommen dagegen  Solanki und Fligge (GRL 26 (1999) 2465). Ihre Rekonstruktion zeigt die nächste Graphik.

Sowohl die absoluten als auch die relativen Werte sind mehr als eine Größenordnung größer als die vom IPCC angegeben Werte. 

Der durch das anthropogene CO2 verursachte Beitrag wird als RFCO2 = (1.66 ± 0,17) W/m2 bestimmt (Ch.2, Tab. 2.12). Im folgendem werden wir diesen Wert mit anderen Unsicherheiten vergleichen und damit seine Relevanz hinterfragen. 

Kevin Trenberth, einer der führenden Autoren des IPCC, von dem der Satz „The fact is that we can’t account for the lack of warming at the moment and it is a travesty that we can’t.” stammt, hat einen neuen Artikel zum globalen Energiebudget publiziert (BAMS March 2009 311-323). Hier ist sein Flussdiagramm.

 Die folgende Tabelle enthält die Unterschiede zu seiner früheren Publikation (J. Climate 10 (1997) 1771-1790). 

Das Problem besteht nicht darin, dass es Korrekturen bei den Werten gibt und dass viele Differenzen größer als die ominösen 1.66W/m2 sind, sondern in der Tatsache, dass diese Werte als Input in die Modellrechnungen eingehen. Selbst unter der unrealistischen Annahme, dass sich die Gewinne und Verluste gegenseitig kompensieren, bleibt eine Differenz von 5W/m2 (3-mal RFCO2) übrig (ohne Nettoabsorption, s. u.). Fehler wurden für die einzelnen Größen in obiger Tabelle noch nicht berücksichtigt. Bevor wir dazu kommen, soll erst noch eine andere Tabelle aus der Arbeit diskutiert werden. 

Kt97 steht für Trenberth, NRA, ERA und JRA für die amerikanische, europäische und japanische Klimaforschung und die restlichen zwei für Messungen. Bei der absorbierten Strahlung (ASR) beträgt die maximale Differenz 10.2W/m2 und bei der abgestrahlten Strahlung (OLR) 20.6W/m2. Wenn also der Unterschied bei der absorbierten Strahlung 6-mal größer als der anthropogene Beitrag ist, wie kann man dann mit Sicherheit dem letzteren einen Temperaturbeitrag zu ordnen. Obwohl die Autoren schreiben: „It is not possible to give very useful error bars to the estimates.“, geben sie an anderer Stelle einige Fehler an. Die Fehlerwerte beim Eintritt in die Atmosphäre werden zu ± 3% und die an der Oberfläche zu ? ± 10% abgeschätzt. Die 3 Prozent addieren noch einmal rund 10W/m2 zu den obigen 10.2W/m2 für die absorbierte Strahlung, was den anthropogenen Wert auf ein Zwölftel der Unsicherheit reduziert. 

Verstehen kann man aber nicht, dass es über vier Jahre gemittelt eine Nettoabsorption geben soll. Wenn ein Körper mehr Energie absorbiert als er abgibt, dann muss seine Temperatur steigen und zwar so lange bis sich wieder ein Strahlungsgleichgewicht zwischen absorbierter und emittierter Energie einstellt. Aber vielleicht ist dies zu simpel gedacht. 

Eine andere Diskrepanz findet man, wenn man sich die Emission betrachtet. Der IPCC verwendet für die Emission der Erde den Wert eins. Einen realistischeren Wert kann man aus der nächsten Graphik abschätzen (http://isccp.giss.nasa.gov/cgi-bin/browsesurft2).

Der Mittelwert ist ungefähr ?= 0.931 (0.70·92[Wasser] + 0.15·0.95 + 0.15·0.965 = 0.931). Für ? = 1 beträgt die abgestrahlte Intensität gemäß dem Stephan-Boltzmann Gesetz bei T = 288K  I = 390.1W/m2. Nimmt man aber den realistischeren Mittelwert, ? = 0.931, so erhält man        I = 363.2W/m2. Die Differenz ergibt sich zu 26.9W/m2, was 17-mal dem Wert für RFCO2 entspricht.  

Die Behauptung des IPCC, dass der menschliche Einfluss viel bedeutender ist, als natürliche Änderungen, wird durch die Zahlen nicht unterstützt und muss als falsch eingestuft werden. Dies wird auch durch die letzte Graphik unterstützt, die eine klare Korrelation zwischen der totalen solaren Strahlung und den Sonnenflecken zeigt. 

Folgerichtig kommen die Auswerter (http://www.acrim.com/) der Satellitenmessungen auch zu der folgenden Feststellung: 

„The Earth’s weather and climate regime is determined by the total solar irradiance (TSI) and its interactions with the Earth’s atmosphere, oceans and landmasses.    TSI proxies during the past 400 years and the records of surface temperature show that TSI variation has been the dominant forcing for climate change during the industrial era.”. (emphasis mine)

Dr. rer.nat. B. Hüttner (Diplom Physiker) für EIKE