Petroleum: Ein wunderbares und viel geschmähtes Material

Im vorigen Jahr hat das IPCC die Welt aufgefordert, eine „nahe-Null-Emissionen“-Wirtschaft bis zum Jahr 2100 anzustreben. Präsident Obama hat damit gedroht, sein Veto gegen die Keystone XL-Pipeline einzulegen [was er inzwischen getan hat. Anm. d. Übers.] Der Aktivist Bill McKibben hat nationale Bemühungen auf den Weg gebracht, Universitäten und Colleges zu überreden, finanzielle Anteile an Ölunternehmen aufzugeben. Diese Bemühungen zielen auf die Ölindustrie, um den Verbrauch von Petroleum in der Gesellschaft zu eliminieren.

Aber haben Sie jemals damit aufgehört zu überlegen, was Produkte aus Petroleum für die Menschen tun, für jeden einzelnen Menschen jeden Tag?

Damals im Jahre 1620 brauchten die 120 Passagiere und Besatzungsmitglieder der Mayflower 25 Tage, um von England auf den Kontinent zu reisen, der später Amerika werden sollte. Zwei Passagiere starben auf der Reise. Heute bewältigt ein Jumbo Jet mit mehr als 300 Passagieren die gleiche Strecke sicher in weniger als sieben Stunden. Jeden Tag transportieren 25.000 kommerzielle Flüge 9 Millionen Passagiere über eine Strecke von zusammen 10 Milliarden Meilen, alle angetrieben durch Flugbenzin aus Petroleum.

Ende des 19. Jahrhunderts wurden Pferdefuhrwerke zum bevorzugten Transportmittel in großen Städten. Im Jahre 1890 unternahm ein normaler New Yorker Bürger 297 Pferdekutschen-Reisen pro Jahr. Die 200.000 Pferde in New York hinterließen drei bis sechs Millionen Pfund Pferdeäpfel in den Ställen und auf den Straßen – jeden Tag. Als die „pferdelosen Fuhrwerke“ diesem Übelstand und den Gerüchen der Pferdefuhrwerke ein Ende setzten, betrachteten Viele das Auto als eine Verschmutzungen verhindernde Erfindung. Heute treibt Benzin aus Petroleum jeden Tag über eine Milliarde Automobile weltweit an.

In historischen Zeiten wurden Handelsgüter zwischen Gesellschaften mit Kamelen, Planwagen und Segelschiffen transportiert. Während der Handel im gesamten historischen Zeitraum stetig gewachsen ist, erreichte der Wert der gesamten Weltexporte im Jahre 1900 nur etwa 10 Milliarden Dollar pro Jahr, gemessen am heutigen Wert des Dollars. Seit 1900 sind die Weltexporte explodiert und haben im Jahre 2013 um das 1800-fache zugenommen auf eine Gesamtsumme von 18 Billionen Dollar pro Jahr. Jeden Tag werden über 100 Millionen Tonnen Frachtgut mittels Schiffen, Bahnen, Lastwagen und Flugzeugen bewegt, von denen über 90% mit Treibstoffen aus Petroleum unterwegs sind.

Im Jahre 1809 hatte der französische Imperator Napoleon Bonaparte ein Problem. Als seine Armeen durch Europa marschierten, verdarben die Nahrungsmittelvorräte für sein Truppen sehr schnell. Er setzte eine Belohnung von 12.000 Francs aus für denjenigen, der dieses Problem lösen konnte. Dies führte zu der Erfindung sterilisierter Nahrungsmittel in Konservendosen. Davor wurden Nahrungsmittel verpackt in Tierhäuten, Glas, Papier, Metallgefäßen und Holzkisten. Heute bietet Plastik aus Petroleum und anderen Kohlenwasserstoffen sichere, bequeme und billige Verpackungsmöglichkeiten für Nahrungsmittel und andere Produkte. Mehr als zwei Millionen Plastikflaschen und 1,3 Millionen Plastiktüten werden global jeden Tag benutzt [was heutzutage wegen menschlicher Nachlässigkeit und Bequemlichkeit bekanntlich zu anderen Problemen führt, die der Autor leider nicht angesprochen hat. Anm. d. Übers.]

Jeden Tag werden weltweit eine halbe Million chirurgische Eingriffe an Patienten vorgenommen. Plastik aus Öl und Erdgas spielt eine wesentliche Rolle in der modernen Medizin. Tausende Produkte wie Einwegartikel, Chirurgen-Handschuhe, Medikamente, Hüftimplantate und Herzklappen, Verbandsmaterial und viele Teile der Laborausrüstung bestehen aus Plastik, hergestellt aus Petroleum und anderen Kohlenwasserstoffen.

Heute leben wir in einem goldenen Zeitalter billiger Energie. Nur 200 Jahre zuvor wurde durch das Verbrennen von Holz sowie durch menschliche und tierische Muskelkraft über 90% der benötigten Energie erzeugt. Seit dem Jahr 1800 hat sich der globale Energieverbrauch um das 26-fache erhöht. Heute stellt Petroleum über 30% der Weltenergie zur Verfügung, und über 80% stammen aus Kohle, Erdgas und Öl.

Seit dem Jahr 1800 ist das globale BIP um einen Faktor 10 gestiegen, die Lebenserwartung der Menschen hat sich mehr als verdoppelt, und die Kindersterblichkeit ist um einen Faktor sechs gesunken. Seit 1950 hat sich die Ausbildungszeit der Weltbevölkerung mehr als verdoppelt. In unserem goldenen Zeitalter von Energie aus Kohlenwasserstoffen sind die Menschen wohlhabender, gesünder, besser ausgebildet und erfreuen sich einer größeren Vielfalt von Produkten und Freizeit als zu irgendeiner Zeit in der Geschichte.

Trotz der Klimawarnungen seitens der Obama-Administration und der UN gibt es keinerlei Beweise, dass Kohlendioxid-Emissionen von der Petroleum-Industrie auch nur einen einzigen Menschen auf der Erde geschädigt haben. Ältere Bürger ziehen weiterhin in die südlichen [US-]Staaten und missachten damit vollständig die blödsinnigen Behauptungen der US-Regierung, dass warme Klimate „gefährlich“ sind.

Satellitendaten zeigen, dass die globale Temperatur während der letzten 18 Jahre flach verlaufen ist; dass Stürme weder stärker noch häufiger sind als früher und dass sich die globale Ausdehnung des Meereises im Rahmen des 30-jährigen Mittels bewegt. Außerdem zeigen Satelliten, dass die Vegetation der Welt während der letzten 20 Jahre zugenommen hat, genährt durch den steigenden atmosphärischen CO2-Gehalt. Und die heutige Eisbärpopulation ist doppelt so hoch wie im Jahre 1960.

Auch gibt es keinerlei Beweise, dass Petroleum die Verschmutzung der Umwelt auf der Erde zunehmen lässt. Heute nehmen Luft- und Wasserverschmutzung in allen großen Industrieländern immer mehr ab. Nationen mit dem höchsten Energie- und Petroleumverbrauch haben die beste Luft- und Wasserqualität sowie die besten Verfahren hinsichtlich der Verarbeitung von Abfall. Trends zeigen, dass Entwicklungsländer mit steigenden nationalen Einkommen ebenfalls abnehmende Verschmutzungs-Niveaus erreichen werden.

Wir können uns wirklich glücklich schätzen, in einem goldenen Zeitalter der Energie leben, angetrieben durch Petroleum.

Steve Goreham is Executive Director of the Climate Science Coalition of America and author of the book The Mad, Mad, Mad World of Climatism: Mankind and Climate Change Mania.

Link: http://icecap.us/index.php/go/joes-blog vom 18. Februar 2015, übernommen von Communities Digital News

Übersetzt von Chris Frey EIKE




Im Gedenken an Mr. Spock: Der Abkühlungskonsens der 60-70er Jahre: In Search of…The Coming Ice Age

Im Angesicht der kalten Winter der 1960er und 1970er Jahre sind die Medien in eine “Eiszeithysterie” verfallen.

In der TV-Dokumentation „In Search of…” (welche wöchentlich von 1976-1982 ausgestrahlt wurde, durch die Sendung führe u.a. Leonard Nimoy) wurde u.a. über eine drohende Eiszeit berichtet.

Hier die Dokumentation mit Leonard Nimoy: The Coming Ice Age: An inquiry into whether the dramatic weather changes in America’s northern states mean that a new ice age is approaching. Original broadcast: May 1978.

Aber in Wirklichkeit hat es diese “Eiszeithysterie” ja nie gegeben? Zumindest wenn es nach den Klimaschützern geht.

Wir erinnern uns?

In der obigen Dokumentation kamen einige Klimawissenschaftler zu Wort. U.a. Prof. Dr. H. Stephen Schneider. „Klimatologe“ an der Stanford University, USA. Bis zu seinem Tod im Jahre 2010 war Schneider einer der bekanntesten Vertreter, der vehement vor einer drohenden Klimaerwärmung, ausgelöst durch den Menschen warnte. In den 1970er Jahren warnte er hingegen noch vor einer drohenden Eiszeit.

Es wurde spekuliert durch den Einsatz von Atombomben, oder durch eine dunkle Bestäubung das Polareis zum Schmelzen zu bringen und somit eine drohende Eiszeit abzuwenden.

Rasool und Schneider prognostizierten 1971 in der renommierten Fachzeitschrift SCIENCE für den Fall, dass sich die globalen Aerosolemissionen vervierfachen würden, ein Absinken der globalen Durchschnittstemperatur um bis zu 3,5 °C und warnten davor, dass dies eine Eiszeit auslösen könnte.

S. I. Rasool und S. H. Schneider: Atmospheric Carbon Dioxide and Aerosols: Effects of Large Increases on Global Climate. In: Science. Band 173 (3992), 1971, S. 138-141. doi:10.1126/science.173.3992.138

Eine weitere Arbeit zum Thema Aerosole und den Auswirkungen auf die Globaltemperatur, an welcher Scheider beteiligt war, findet sich hier:

R. J. Charlson, Halstead Harrison, Georg Witt, S. I. Rasool, and S. H. Schneider. Aerosol Concentrations: Effect on Planetary Temperatures: Science 7 January 1972: Vol. 175. no. 4017, pp. 95 – 96. DOI: 10.1126/science.175.4017.95-a

Stephen Schneider wechselte schließlich die Seite und war Leitautor in der Working Group II (TAR) des IPCC Weltklimaberichtes der UN von 2001.

Eine weitere TV-Dokumentation dieser Zeit, welche sich mit einer drohenden Eiszeit auseinandersetzt, wurde unter dem Titel “THE WEATHER MACHINE” ausgestrahlt.

“The Weather Machine” BBC 1974

Zu Wort kommt George Kukla, ein in der Tschechei geborener „Klimatologe“. Er ist emeritierter Professor für Klimatologie an der Columbia University und Forscher am Lamont-Doherty Earth Observatory.

Schon in der 1970er Jahren, in welchen die Scheebedeckung der Nordhalbkugel und damit die Reflektion der einfallenden Sonneneinstrahlung deutlich zunahm, vertrat Kukla eine Abkühlungsthese und wurde vielfach in der Presse zitiert.

Sieh z.B.

New York Times, 21 Mai 1975

Newsweek, 28 April 1975

George Kukla sagt heute:

The only thing to worry about global warming is the damage that can be done by worrying. Why are some scientists worried? Perhaps because they feel that to stop worrying may mean to stop being paid.”

Das Einzige, worüber man sich bei der globalen Erwärmung Sorgen machen sollte ist der Schaden, welcher durch die Sorge angerichtet werden kann. Warum sind einige Wissenschaftler besorgt? Vielleicht weil sie spüren, dass das Ende der Besorgnis ein Ende der Bezahlung bedeuten kann.“

Veröffentlichungen u.a.

G. Kukla, R.K. Matthews and J.M. Mitchell, Jr., The end of the present interglacial. Quaternary Research 2 (1972), pp. 261–269

Kukla, G. J., and R. K. Matthews, 1972, “When will the present interglacial end?,” Science, 178:190-191

Kukla, G.J. and H.J. Kukla, 1974: Increased surface albedo in the Northern Hemisphere. Science, 183, 709-714.

G. J. Kukla et al.: New data on climatic trends. In: Nature 270, 1977, 573–580. doi:10.1038/270573a0

Im Januar 1972 kamen Kukla und Matthews zu einer Konferenz in der Brown University in Providence/ Rode Island zusammen. Teilgenommen haben die damaligen “Topforscher” aus Europa und Amerika. Diskussionsthema war “The Present Interglacial, How and When will it End?” (“Die aktuelle Warmzeit, wie und wann wird sie enden?”). Die Schlussfolgerungen wurden in den zwei oben genannten Veröffentlichungen von 1972 zusammengefasst.

Die Hauptergebnisse der Konferenz teilen Kukla und Matthews dem Büro des US-Präsidenten Nixon im folgenden Schreiben vom 3. Dezember 1972 mit:

In dem Schreiben warnen Sie vor einer drohenden Eiszeit und deren Auswirkungen.

Sehr geehrter Mr. Präsident:

In Bewusstsein, Ihrer tiefen Besorgnis über die Zukunft der Welt, fühlen wir uns verpflichtet, Sie über die Ergebnisse der wissenschaftlichen Konferenz zu informieren, die hier vor kurzem stattgefunden hat. Die Konferenz befasste sich mit den bisherigen und zukünftigen Veränderungen des Klimas, teilgenommen haben 42 Top-Forscher aus Amerika und Europa. Anliegend fügen wir die Schlussfolgerungen, welche bereits in SCIENCE erschienen sind und in Kürze in QUATERNARY RESEARCH erscheinen werden, bei.

Das wichtigste Ergebnis des Treffens war, dass eine globale Verschlechterung des Klimas, von der Größenordnung größer als alle bisher von den zivilisierten Menschheit erlebten, eine sehr reale Möglichkeit ist, die wohlmöglich sehr schnell eintreten kann.

Die Kühlung ist natürlichen Ursprungs und fällt in den Rang von Prozessen, welche die letzte Eiszeit verursacht haben. Dies ist ein überraschendes Ergebnis, welches vor allem auf die jüngsten Studien von Tiefsee-Sedimenten hervorgeht.

Die vorliegenden Daten erlauben bisher keine exakte Vorhersage bzgl. des Eintretens der vorhergesagten Entwicklung, noch eine Beurteilung der Beeinträchtigungen auf die Menschheit, durch den natürlichen Trend. Es kann jedoch nicht ausgeschlossen werden, dass die Abkühlung, welche gerade auf der Nordhalbkugel im Gange ist, der Beginn der erwarteten Klimaumstellung ist. Die aktuelle Rate der Abkühlung scheint schnell genug von statten zu gehen, um eiszeitliche Temperaturen innerhalb eines Jahrhunderts mit sich zu bringen, bei Fortsetzung der gegenwärtigen Geschwindigkeit.

Die praktischen Konsequenzen, die sich daraus für die existierenden sozialen Systeme ergeben, sind unter anderem:

(1) Eine deutlich gesenkte Nahrungsmittelproduktion aufgrund der kürzeren Vegetationsperioden und einer veränderten Niederschlagsverteilung in den wichtigsten Getreideerzeugungsgebieten der Welt, mit Osteuropa und Zentralasien die als erste betroffen sein werden.

(2) Eine erhöhte Häufigkeit und ein stärkeres Auftreten von extremen Wetterereignissen und -anomalien, wie Überschwemmungen, Schneestürme, Tote durch Frostperioden, etc. …”

Die Folgen

Das Schreiben erregte reichlich Aufsehen.

Angesichts der „Getreidekrise” im Jahre 1972 und zahlreicher Wetterkapriolen, welche später auf den El Niño von 1972-1973 zurückgeführt wurden, herrschte eine kollektive Angstsituation, auch im Weißen Haus.

Das Weiße Haus nahm die Angelegenheit sehr ernst und leitete das Kukla-Matthews-Schreiben an das Amt für internationale wissenschaftliche und technische Angelegenheiten des State Departments weiter. (Bureau of International Scientific and Technological Affairs of the State Department). Das wiederum leitete das Schreiben an die höchst beauftragte, ressortübergreifende Stelle, das Interdepartmental Committee for Atmospheric Sciences (ICAS) weiter, um die Angelegenheit „zu überprüfen und geeignete Maßnahmen” einleiten zu können. Das ICAS stellte daraufhin ein Ad-hoc-Gremium zusammen, um auf das Schreiben zu antworten. Darin vertreten waren Dr. David M. Hirschfield ((Chair) Department of Agriculture), Mr. Joseph O. Fletcher (National Science Foundation), Dr. J. Murray Mitchell, Jr. (National Oceanic and Atmospheric Administration), Col. John S. Perry (Department of Defense).

Das folgende Jahr war ein besonders arbeitsreiches, da das Gremium Rat von Experten auf dem Gebiet einholte. Letztendlich kam man zu dem Schluss, dass das Thema von so einer übergeordneten Bedeutung ist, dass man ein nationales Klimaprogramm ins Leben rufen sollte, was dann letztendlich auch geschah.

Damit sollte klar geworden sein, dass das Thema einer drohenden Eiszeit in den frühen 1970er Jahren nicht nur von medialen, sondern auch politischem Interesse war.

Das Thema einer drohenden Abkühlung war auch für die CIA von Bedeutung. Einer der Hauptprotagonisten war dabei Reid Bryson.

Bryson ging davon aus, dass Schmutzpartikel und die steigende Luftverschmutzung für die beobachtet Abkühlung seit dem zweiten Weltkrieg verantwortlich sind und das diese Effekte für eine weitere Abkühlung sogen könnten.

Veröffentlichungen u.a.

Bryson, Reid, A; Kutzbach, John E. (1968). Air pollution. Washington: Association of American Geographers. ASIN B0006BWL46.

James T. Peterson and Reid A. Bryson, Science, 4 October 1968. “Atmospheric Aerosols: Increased Concentrations during the Last Decade”

Bryson, Reid A. (1974). “A Perspective on Climatic Change.” Science 184: 753-60.

Bryson, Reid A., and W.M. Wendland (1975). “Climatic Effects of Atmospheric Pollution.” In The Changing Global Environment, edited by S.Fred Singer, pp. 139-47. Boston: Reidel.

Bryson, Reid A., and W.M. Wendland (1975). “Climatic Effects of Atmospheric Pollution.” In Global Effects of Environmental Pollution, edited by S. F. Singer, pp 130-38

Bryson, Reid A., and Thomas J. Murray (1977). Climates of Hunger: Mankind and the World’s Changing Weather. Madison: University of Wisconsin Press.

Schon 1974 hatte die CIA die Regierung darauf aufmerksam gemacht, dass ein Klima-Umschlag stattfinde, der „bereits zu großen Wirtschaftsproblemen auf der ganzen Welt geführt hat“.

So glaubt der amerikanische Klimatologe Reid Bryson von der University of Wisconsin, auf dessen Studien sich die CIA stützte, dass sich auf der gesamten nördlichen Halbkugel das Klima immer mehr abkühle. In ihrem Report warnten die Geheimdienstler vor durch Wetterumschwünge hervorgerufene Energie- und Nahrungsmittelkrisen, die ihrerseits zu politischen Krisen führen könnten.

Angesichts der „Getreidekrise“ im Jahre 1972 herrschte nach etlichen Wetter bedingten Missernten in den sechziger Jahren eine kollektive Angstsituation. Die Nachrichten und Schlagzeilen in den Medien häuften sich und es kam zu einer Nachrichtendichte, die den amerikanischen Geheimdienst CIA veranlasste, den vielen wilden Spekulationen nach den Ursachen dieser Wetterkapriolen nachzugehen und die führenden Klimatologen um Auskunft und Rat zu ersuchen.

Anfang der siebziger Jahre kam die CIA zu dem Ergebnis, dass die Veränderungen des Klimas „vielleicht die größte Herausforderung (seien), der sich Amerika in den kommenden Jahres ausgesetzt sehen wird“. Aus der Angst heraus, dass die USA ihre Vormachtstellung als Getreideexporteur durch Missernten verlieren könnten, gab der CIA mehrere Studien über das Klima der Welt, die wahrscheinlich zu erwartenden Veränderungen und deren vermutliche Auswirkungen auf Amerika und die übrige Welt in Auftrag.

Politischer Sieger unter den diversen Studien war die Wiskonsin-Studie, die unter der Leitung von Professor Reid Bryson entstand. Sie sagte vorher, „dass die Erde zu dem Klimasystem zurückkehrt, das von Beginn des 17. Jahrhunderts bis zur Mitte des 19. Jahrhunderts geherrscht hat und üblicherweise die neoborale oder „Kleine Eiszeit“ genannt wird.“ In dieser Zeit lebte Nordeuropa überwiegend in der Dämmerung ständigen Winters. Schlechte Ernährung hatte große Epidemien in Europa, Russland, Indien und Afrika zur Folge, während die Iberische Halbinsel, Italien und Griechenland blühten. Professor Brysons Gedankengang lautet so: „Bis etwa 1940 wurde die Welt wärmer; Mitte der vierziger Jahre setzte dann eine entgegen gesetzte Entwicklung ein, da sich die Polarluft nach Süden ausdehnte und sich die nördliche Halbkugel abkühlte. Prof. Bryson glaubte, dass die 3 Hauptfaktoren dabei sind: vulkanische Asche, vom Menschen erzeugter Staub und Kohlendioxid.“ Er glaubte, dass die Chancen für einen beschleunigten Abkühlungstrend hoch sind, wie übrigens viele Klimaforscher seiner Zeit (z.B. Prof. George Kukla).

Die nachrichtendienstlich relevanten Ergebnisse des CIA wurden 1977 in den USA unter dem Titel “The Weather Conspiracy”, “Die Wetter Verschwörung” publiziert. 1978 erschien dieses Buch in Deutschland von einem Impact-Team unter dem Titel “Der Klima-Schock” veröffentlicht. Auf der Titelseite liest man: “Die nächste Eiszeit steht kurz bevor. Der Bedarf an Heizenergie wird unerfüllbar. Große Teile der Erde werden unzugänglich. Der Hunger wird größer.”

In einer TV-Diskussion von 2007 bezog Bryson, der 2008 verstorben ist, noch einmal eindrücklich Stellung.



Kommen wir auf weitere Arbeiten und Protagonisten dieser Zeit zu sprechen, die eine drohende Eiszeit, bzw. einen Abkühlungstrend diskutieren.

Murray J. Mitchell veröffentlichte im Jahr 1963 die erste up-to-date Temperatur-Rekonstruktion und zeigte, dass ein globaler Abkühlungs-Trend in den 1940er Jahren begonnen hatte. Mitchell verwendete Daten von fast 200 Wetterstationen, zusammengestellt unter dem World Weather Records Projekt unter der Schirmherrschaft der Weltorganisation für Meteorologie (World Meteorological Organization). Damit berechnete er die durchschnittlichen Temperaturen für verschiedene geographische Breitenbereiche. Seine Analyse zeigte, dass die globalen Temperaturen seit den 1880er Jahren, dem Beginn seiner Aufzeichnung, relativ stetig zugenommen hatten bis etwa um das Jahr 1940. Ab etwa 1940 setzte dann eine stetige multidekaden Abkühlung ein (Mitchell 1963). In den frühen 1970er Jahren, als Mitchell den Stand seiner Arbeit aktualisierte (Mitchell 1972), war die Ansicht über den globalen Abkühlungstrend allgemein akzeptiert, wenn auch wenig verstanden.

Mitchell, J.M., Jr., 1963: On the world-wide pattern of secular temperature change. In: Changes of Climate. Proceedings of the Rome Symposium Organized by UNESCO and the World Meteorological Organization, 1961.

Oder

Robert A. McCormick und John H. Ludwig: Climate Modification by Atmospheric Aerosols. In: Science 156 (3780), 1967, S. 1358-1359. doi:10.1126/science.156.3780.1358

McCormick und Ludwig kamen in dieser Studie von 1967 zu dem Schluss, dass die anthropogenen Aerosolemissionen die Albedo erhöhten und dadurch die Abkühlung verursacht hätten.

G. Yamamoto, and M. Tanaka, “Increase of global albedo due to air pollution,” J. Atmos. Sci. 29, 1405–1412 (1972).

Zu einen ähnlichen Schluss kamen Yamamoto und Tanaka in ihrer Studie von 1972.

Zu dem Thema Aerosole und Klima existieren etliche Studien aus dieser Zeit.

Die entscheidende Frage war, ob sich der Cooling-Trend fortsetzen würde, oder sich langfristig gesehen die angenommene “Treibhauswirkung” des CO2 durchsetzen würde.

Bzgl. der Wirkung der Aerosole prognostizierten Rasool und Schneider 1971 für den Fall, dass sich die globalen Aerosolemissionen vervierfachen würden, ein Absinken der globalen Durchschnittstemperatur um bis zu 3,5 °C und warnten davor, dass dies eine Eiszeit auslösen könnte. Zu einem ähnlichen Ergebnis kamen Yamamoto und Tanaka in ihrer Studie von 1972.

Bzgl. der Treibhauswirkung des CO2 wurde i.d.R. auf die Studie von Syukuro Manabe und Richard T. Wetherald aus dem Jahre 1967 zurückgegriffen.

Syukuro Manabe and Richard T. Wetherald, Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity, Journal of the Atmospheric Sciences 1967

Hiernach ergab sich für eine CO2-Verdoppelung (bei gleichbleibender Luftfeutigkeit) eine Temperatuerhöhung von 2°C. Einige Autoren gingen davon aus, dass die Aeorosole weiterhin der dominierende Faktor bleiben würden (oder werden würden), andere gingen davon aus, dass irgendwann (in Laufe von Jahrzehnten) die Treibhauswirkung des CO2 überwiegen könnte. So schreibt Carl Sagan (der “Schöpfungsvater” der Treibhaustheorie auf der Venus, (Sagan, C., The Radiative Balance of Venus, Tech Rep. JPL No. 32-34, 1960.)) beispielsweise zum Einfluss des CO2 in “Earth and Mars: Evolution of Atmospheres and Surface Temperatures” von 1972:

Major variations in the CO2 abundance will have only minor greenhouse effects because the strongest bands are nearly saturated. A change in the present CO2 abundance by a factor of 2 will produce directly a 2 ° variation in surface temperature”

Große Schwankungen in der CO2-Menge haben nur eine geringfügig Auswirkung auf den Treibhauseffekt, da die stärksten Absorptions-Banden (des CO2) nahezu gesättigt sind. Eine Änderung der derzeitigen CO2-Menge um den Faktor 2 bewirkt unmittelbar eine 2 ° Veränderung der Oberflächentemperatur.”

Aber auch Sagan war zwiegespaltener Meinung. In der Wissenschaft Serie Cosmos von 1980: A Personal Voyage, warnte der Physiker Carl Sagan vor einer katastrophalen Abkühlung durch das Verbrennen und den Kahlschlag der Wälder. Er postulierte, dass die erhöhte Albedo der Erdoberfläche zu einer neuen Eiszeit führen könnte.

Sagan, C., O. B. Toon, and J. B. Pollack, 1979: Anthropogenic albedo changes and the Earth’s climate. Science, 206, 1363-1368.

Aus der ganzen Debatte sollte letztendlich eines ersichtlich geworden sein, nämlich welche Bedeutung damals den Aerosolen beigemessen wurde (bis zu -3,5°C Abkühlung) und welche dem CO2 (bis zu +2°C Erwärmung).

Mein Fazit: Wie die Klimadebatte der vergangenen und heutigen Tage zeigt, gab es zu keiner Zeit einen wissenschaftlichen Konsens. Die Protagonisten haben im Laufe der Zeit ihre Meinungen geändert, oder auch nicht, einige sind von uns gegangen und neue sind hinzugekommen. Das vorherrschende Medien- und Meinungbild wurde vorwiegend durch aktuelle Wetterereignisse wie Kälteeinbrüche und Hitzewellen geprägt. Mr. Spock würde sagen: “Lebe lang und in Frieden”. 

Artikel zuerst erschienen bei Science Skeptical hier




Der Marsch in den grünen Energie-Kannibalismus

Für eine Industrienation mit einer hoch entwickelten Hightech-Industrie ist das Vorhaben „Energiewende“ geradezu atemberaubend. Der Blick auf Bild 1 (siehe Abb. rechts oben) zeigt, in welchem Umfang sich Deutschland früher bei der Sicherstellung einer zuverlässigen Stromerzeugung auf fossile und nukleare Verfahren gestützt hatte. Alle ans deutsche Stromnetz angebundenen Kraftwerke waren ausnahmslos bedarfsgerecht regelbar und hoch zuverlässig. „Erneuerbare“ Energieerzeugung in Form von Wasserkraft wurde bereits seit dem späten 19. Jahrhundert ausgebaut, doch sind in Deutschland aufgrund des Mangels an geeigneten Standorten die diesbezüglichen Möglichkeiten bereits seit den 60er Jahren des letzten Jahrhunderts weitgehend ausgereizt.

Bild 1 (rechts oben): Im Jahre 1990 befanden sich am deutschen Netz nahezu ausschließlich bedarfsgerecht regelbare und hoch zuverlässige Kraftwerke. Der Anteil der Wasserkraft lag bei rund 3,6 %

Ganz anders präsentierte sich der Status der Stromversorgung im Jahre 2014 nach etwa zwei Jahrzehnten massiver „grüner“ Einflussnahme auf die Energiepolitik, Bild 2. Vor allem im Gefolge der Ereignisse in Fukushima wurde die Gelegenheit genutzt, das Schicksal der Kernkraft endgültig zu besiegeln. Innerhalb weniger Monate wurden rund die Hälfte der noch verbliebenen Einheiten stillgelegt und für den Rest die gestaffelte vorzeitige Stilllegung bis zum Jahr 2022 festgelegt. Auf der anderen Seite hatte man seit den frühen 90ern und insbesondere ab 2000 den Ausbau der Energieerzeugung aus Wind, Sonne, Biomasse und Müllverbrennung so massiv gefördert, dass ihr Anteil – zusammen mit Wasserkraft – im Jahr 2014 einen Anteil von 25,8 % der gesamten Stromproduktion erreichte. Wichtigste Treiber dieser radikalen Transformation waren hohe, über 20 Jahre garantierte finanzielle Fördermaßnahmen sowie eine begleitende Gesetzgebung, welche die Netzbetreiber zwang, den gesamten von diesen privilegierten Einheiten erzeugten Strom – ungeachtet der aktuellen Situation am Markt – abzunehmen bzw. zu vergüten. Aufgrund der Überflutung der Strommärkte mit diesem subventionierten „grünen“ Strom brachen die Preise an den Strombörsen massiv ein. In der Folge wurden fossil befeuerte Kraftwerke mehr und mehr aus dem Markt gedrängt, während überschüssige Strommengen per Dumping zu negativen Preisen bei europäischen Nachbarländern entsorgt wurden, was massive Nachteile für die dortigen Stromproduzenten zur Folge hatte.

Bild 2. Nach etwas mehr als zwei Jahrzehnten „grüner“ Energiepolitik liegt der Anteil der „Stotterstrom“-Erzeuger Wind und Fotovoltaik bei inzwischen 14,4 %

Sinnloser Kapazitätsaufbau

Entscheidende Nachteile der dominierenden „erneuerbaren“ Energiequellen Wind und Fotovoltaik sind ihre systembedingte Unzuverlässigkeit im Verein mit ihren miserablen Nutzungsgraden von lediglich 17,4 % bei Wind- und 8,3 % bei Solarstrom. Das hat zur Folge, dass man, um die Produktion einer vorgegebenen Strommenge sicherzustellen, enorme Überkapazitäten aufbauen muss. Dies wiederum führt je nach Wetterlage zu riesigen Schwankungen der jeweils produzierten Strommengen. Deutschland wird daher gezwungen, ein doppeltes Stromversorgungssystem vorzuhalten: Einerseits grotesk überdimensionierte Kapazitäten an Wind- und Solarenergieanlagen und andererseits zusätzlich einen kompletten Satz fossil befeuerter Kraftwerke, die einspringen, wenn die „erneuerbaren“ wegen ungünstiger Wetterlage mal wieder schwächeln. Zu letzteren gesellen sich, zumindest noch für einige Jahre, die wenigen noch in Betrieb befindlichen Kernkraftwerke. Die Schwankungsbreite des „Stotterstroms“ aus den „erneuerbaren“ Quellen ist bekanntlich enorm: Bei einer installierten Nominalkapazität von rund 75.000 MW lieferten beide Quellen zusammen im Jahre 2014 im Minimum gerade mal 29 MW (!), während sie im Maximum 38.000 MW ins Netz pumpten. Da die „Energiewende“ für die Zukunft vor allem auf Wind- und Solaranlagen nebst ein wenig Wasserkraft setzt, hat der inzwischen erfolgte massive Aufbau entsprechender Kapazitäten bereits jetzt dazu geführt, dass beim Zusammentreffen niedrigen Verbrauchs und hoher Einspeisung von „erneuerbar“ erzeugtem Strom erheblichen Überkapazitäten im Netz auftreten können, Bild 3.

Bild 3. Kombinierte Kapazität „erneuerbarer“ Energieerzeuger im Jahre 2014. Die Balken für minimalen und maximalen Strombedarf (Mitte und rechts) kennzeichnen die typischen Grenzwerte der Gesamtabnahme im Netz je nach Wochentag und Tageszeit 

Ein genauerer Blick auf den Balken links im Bild 3 zeigt, dass die aufsummierte Kapazität aller „EE-Stromerzeuger“ inzwischen bereits rund 87.000 MW erreicht, was in etwa dem maximalen zu erwartenden Strombedarf im Netz entspricht. Zusätzlich ist noch zu berücksichtigen, dass zur Sicherstellung der Netzstabilität weiterhin zu jedem Zeitpunkt fossil befeuerte Kraftwerke mit einer Kapazität von rund 28.000 MW ins Netz einspeisen müssen. Rechnet man beides zusammen, so ist leicht zu erkennen, dass an Tagen mit schwacher Nachfrage und günstigen Bedingungen für Solar- und Windstromerzeugung das Risiko einer Überproduktion mit entsprechenden Konsequenzen für die Netzstabilität eintreten kann. Diese Gefahr wächst mit jeder neu hinzukommenden „erneuerbaren“ Anlage. Dabei beträgt die Zubaurate bereits jetzt 5.000 – 6.000 MW pro Jahr. Die Situation wird noch dadurch verschärft, dass die vorhandenen Pumpspeicherkapazitäten nicht annähernd ausreichen, um bei Überproduktion nennenswerte Mengen des zuviel erzeugten Stroms „wegzupuffern“, während zugleich Nachbarländer mit der Installation von Abwehrsystemen begonnen haben, um deutsche Dumpingattacken auf ihre Netze abzuwehren.

Der EE-Stromkannibalismus hat bereits begonnen…

Als Folge dieser Entwicklung bekommen wir jetzt allmählich Situationen im Netz, bei denen die Überproduktion aus „erneuerbaren“ Stromquellen so überhandnimmt, dass letztere sich gegenseitig den Platz im Netz streitig machen. Fossil befeuerte Kraftwerke sind durch den Preisverfall an den Börsen aufgrund des Überangebots subventionierten Stroms aus Wind- und Sonnenkraftwerken bereits so existenziell gefährdet, dass die Bundesregierung Stilllegungen inzwischen per Gesetz verhindert, selbst wenn die Betreiber Verluste einfahren. Inzwischen beginnen aber auch „klassische erneuerbare“ Sektoren wie z.B. Wasserkraftwerke ernsthaft unter diesem Konkurrenzdruck zu leiden, weil sie nicht nur preislich unter Druck geraten, sondern im Gegensatz zu Wind- und Sonnenkraftwerken keinen Einspeisevorrang genießen. Und dabei wird es diese Betreiber wenig trösten, dass mit dem forcierten weiteren Ausbau der per „Erneuerbarem Energiegesetz“ geförderten Stromerzeuger der Überlebenskampf jeder gegen jeden über kurz oder lang selbst bei dieser Gruppe einsetzen wird. Bereits heute werden die Betreiber von Kraft-Wärme-Kopplungsanlagen – auch eine eigentlich von der Politik gewünschte und geförderte Spezies – zeitweilig aufgefordert, wegen eines gerade herrschenden Überangebots von „Grünstrom“ ihre Anlagen zu drosseln.

Unter den „reinrassigen“ EEG-Anlagenkategorien dürften die Biomassekraftwerke die am stärksten gefährdete Gruppe darstellen. Grund hierfür ist die Tatsache, dass sie Lebensmittel wie Mais für die Stromerzeugung einsetzen. Diese „Strom-statt-Teller“-Philosophie schwächt ihre Akzeptanz unter ethischen Gesichtspunkten: Schließlich sehen wir derzeit einen stetig anschwellenden Flüchtlingsstrom von Menschen, die nicht zuletzt aufgrund des in ihren Ländern herrschenden Hungers und der dadurch ausgelösten Kriege ihr Leben riskieren, um das gelobte Land Europa zu erreichen. Daher liegt es nahe zu vermuten, dass die „Brotverheizer“ zu den ersten Opfern im künftigen Bruderkrieg der „neuen erneuerbaren“ Stromerzeuger untereinander gehören dürften. Doch auch nach dem Ausschalten dieser Konkurrenz wird den danach noch übrigen Hätschelkindern grüner Energiepolitik wohl nichts anderes übrigbleiben, als untereinander auszukämpfen, wem von ihnen bei zunehmender Überflutung der Netze mit „grünem“ Strom der Vorrang gebührt.

…und wird sich noch verschärfen

Normalerweise sollte man annehmen, dass eine mit solchen Tatsachen konfrontierte Regierung das Projekt „Energiewende“ an diesem Punkt stoppt, um zunächst abzuwarten, bis technisch wie wirtschaftlich vertretbare Technologien für die Speicherung großer Mengen zeitweiliger Strom-Überproduktion für den Ausgleich von Mangelsituationen die Entwicklung geworden sind. Doch für solche Technologien geeignete Ansätze konnten bisher trotz aller Bemühungen und des Einsatzes großer finanzieller Mittel nirgends ausfindig gemacht werden. Alle bisher vorgeschlagenen Systeme sind ungeeignet, weil sie entweder zu teuer sind oder ihre Wirkungsgrade jenseits von Gut und Böse liegen. Doch leider mangelt es deutschen Spitzenpolitikern – wie die Geschichte leidvoll bewiesen hat – öfters an der Fähigkeit zu erkennen, wann man sich so verrannt hat, dass man besser aufgeben sollte. Genau das erleben wir aktuell mit der Energiewende: Obwohl uns dieses Projekt insgesamt bereits mindestens 500 Mrd. € gekostet hat, bestehen alle maßgeblichen politischen Fraktionen eisern darauf, weiterhin gutes Geld hinter schlechtem herzuwerfen. Vermutlich bleibt ihnen nichts anderes übrig, weil sie ihr politisches Schicksal bereits zu sehr mit der Energiewende verknüpft haben, so dass das Eingeständnis eines Scheiterns einem politischen Selbstmord gleichkäme. Vermutlich deshalb hat die regierende Große Koalition lieber eine Augen-zu-und-durch-Haltung eingenommen und die Gangart auf dem Weg zu den 80 % „erneuerbarer“ Stromproduktion gegenüber den Zielen der vorherigen Regierung sogar nochmals beschleunigt.  

Unter Berücksichtigung der derzeit erkennbaren Hauptentwicklungsrichtungen der künftigen EE-Politik kann man begründete Mutmaßungen über die wahrscheinlichste künftige Aufteilung der Stromerzeugungsverfahren anstellen, siehe Bild 4. Da bisher erst knapp 26 % Gesamtanteil an der Erzeugung erreicht wurden und der Biomasseanteil von etwa 7 % vermutlich von der Politik früher oder später fallengelassen und durch Wind- und Sonnenkraft ersetzt wird dürfte, kann man sich leicht ausrechnen, welche gigantische Aufgabe noch vor uns liegen dürfte. 

Bild 4. Das offizielle Ziel der Bundesregierung ist ein Anteil von 80 % “erneuerbarer” Energien an der Stromerzeugung bis zum Jahre 2050. Die wahrscheinlichste Aufteilung der entsprechenden Technologien mit 67,5 % Wind, 8,1 % Fotovoltaik und 4,4 % „sonstigen“ lässt erahnen, welch ungeheure Aufgaben und Ausgaben noch auf uns zukommen werden

Spannung vor dem großen Finale

Die Umrisse der realen Risiken, die auf die deutsche Stromerzeugungsinfrastruktur zukommen werden, lassen sich klarer erkennen, wenn man sich den Aufbau nomineller Kapazitäten im Bereich Wind und Solar im Verlauf der letzten 5 Jahre im Vergleich zu dem bis 2050 voraussichtlich noch erforderlichen Zubau ansieht, Bild 5. Wenn man dann noch bedenkt, dass uns der derzeit erreichte Stand bereits rund 500 Mrd. € an bisher geleisteten und künftig noch fälligen Zahlungen gekostet hat, dann bekommt man eine Vorstellung davon, was da in den nächsten Jahrzehnten noch alles auf uns zukommen wird.

Bild 5. Allein schon der bis 2014 erfolgte Aufbau an Wind- und Solarkapazität (zuzüglich ca. 8.100 MW Biomassekraftwerke) hat den deutschen Verbraucher bisher bereits mit 500 Mrd. € belastet

Abgesehen von den geradezu ungeheuerlichen Kosten kommt dazu noch der oben bereits angesprochene Kannibalismus-Aspekt, der sich mit dem weiteren Ausbau noch zu ungeahnten Dimensionen auswachsen wird. Um dies zu verdeutlichen, braucht man sich nur vor Augen zu führen, dass im Jahre 2014 die kombinierte Kapazität an Wind- und Solarkraftwerken bei ca. 73.000 MW lag. In der Spitze lieferten diese eine Leistung von zusammen 38.000 MW ins Netz. Da im Jahr 2050 eine Gesamtkapazität von rund 376.000 MW installiert sein dürfte, könnten diese zusammen in der Spitze 196.000 MW in ein Netz einspeisen, das je nach Lastsituation nur zwischen 40.000 und 90.000 MW aufnehmen kann. Die von den „erneuerbaren“ Kraftwerken angebotene und nicht verwertbare Mehrleistung läge somit zwischen 106.000 und 156.000 MW. In solchen Situationen dürfte der Konkurrenzsituation zwischen den beiden Hauptfraktionen der „erneuerbaren“ Stromerzeugungstechnologien richtig interessant werden. Werden erboste Windbarone mit schweren Ackergeräten über Solarplantagen herfallen? Oder werden Solarkönige die Sprengung von Windenergieanlagen in Erwägung ziehen? Oder wird es ein chaotisches „jeder gegen jeden“ geben? Es werden noch Wetten entgegengenommen….

Fred F. Mueller




Stromexport = Strommüll ?

Aber wie ist das möglich, wo doch die Experten nach dem schlagartigen Abschalten von acht Atomkraftwerken im Jahr 2011 unisono prophezeiten, dass wir in Zukunft viele Jahre auf Stromimport aus Frankreich angewiesen sein würden, weil die Windräder und Sonnenkollektoren eben nicht so viel Elektrizität hergeben. Nun, die Experten haben sich, wieder mal, geirrt. Volle 34 Terawattstunden (TWh) an Strom hat Deutschland im Jahr 2014 exportiert, die Importe bereits gegengerechnet. Dieser Exportüberschuss sind stattliche 6,5 Prozent des inländischen Jahresverbrauchs von ca. 520 TWh. Dabei sollte man noch wissen, dass eine Terawattstunde einer Milliarde Kilowattstunden entspricht. Also einer ziemlich großen Nummer!

Und genauso bemerkenswert ist, dass der deutsche Stromexportüberschuß seit dem Schicksalsjahr 2011 (Fukushima) kontinuierlich angestiegen ist und in den kommenden Jahren, mit hoher Wahrscheinlichkeit, noch weiter steigen wird. Und, dass wir (Steuerzahler) jedoch an diesen Exportgeschäften nichts verdienen, sondern möglicherweise noch draufzahlen werden. Und, dass wir deshalb unsere nationalen Klimaziele nicht erreichen werden.

Wie konnte so ein volkswirtschaftliches Chaos entstehen? Und wer ist dafür verantwortlich? Nun, ich versuche die Ursachen aufzudröseln, mit einen Schuss Ironie, gelegentlich.

Am Anfang war das EEG

Um zu den Ursachen für die gegenwärtige unbefriedigende Energiesituation vorzudringen, müssen wir uns schlappe 15 Jahre zurückbegeben. Jürgen Trittin, der Grüne, war zu jener Zeit in der Form seines Lebens. Als Bundesumweltminister in Schröders rot-grüner Koalition befand er sich an der Schaltstelle für eine neue "ökologische" Energiepolitik. Er nahm die Stromkonzerne in den Schraubstock, indem er sie zur mittelfristigen Aufgabe ihrer Atomkraftwerke zwang und er komponierte im Jahr 2000 eigenhändig das sogenannte Erneuerbare-Energien-Gesetz, abgekürzt EEG, welches vor allem den Ausbau der Windräder, der Sonnenkollektoren und die Vermaisung der Landschaft – pardon, ich meinte natürlich die Nutzung der Biomasse zur Stromerzeugung – vorsah. Und alles sollte ganz, ganz schnell gehen, deshalb erhielten die Ökofreaks hohe Subventionen für ihre Stromanlagen. Die Photovoltaik-Leute, beispielsweise, satte 57 Cent pro (intermittierend) erzeugter Kilowattstunde.

Doch das hastig zusammengestrickte EEG hatte einige Webfehler. Neben den viel zu hohen Fördersätzen gestattete es den Mini-Stromerzeugern die allzeitige und bevorzugte Einspeisung in das Stromnetz. Die Energieversorgungsunternehmen (EVU) müssen heute noch jede Kilowattstunde Strom von Wind, Sonne und Biomasse abnehmen – beziehungsweise honorieren, falls ihr Stromnetz die Aufnahme nicht zulässt. Der Ausbau der sogenannten Erneuerbaren Energien vollzog sich im Rekordtempo: die installierte Kapazität für Wind liegt heute bei 35.000 Megawatt (MW), für Solar gar bei 38.000 MW und für Biomasse bei 8.000 MW. Zum Vergleich: Deutschland benötigt im Schnitt eine Stromerzeugungskapazität von etwa 50 bis 80.000 MW.

Die Regeln der Strombörse

Für uns Verbraucher hat Strom im allgemeinen einen festen Preis, nicht aber für die Stromhändler. Diese kaufen ihre Stromquantitäten rechtzeitig u. a. an der Leipziger Strombörse ein, denn dort bieten ihn die vier großen Energieversorgungsunternehmen (RWE, E.ON, EnBW und Vattenfall) oder die vielen kleineren Stadtwerke an, welche den Strom an ihren Kraftwerken erzeugen. Angebot und Nachfrage bestimmen den Preis, den die Börse zuweilen stündlich festlegt. Die wichtigste Kostenart für diese Stromerzeuger sind die Brennstoffkosten, also für Uran, Kohle und Gas. Dabei sind die – ungefähren – Stromerzeugungskosten bei einem Kernkraftwerk 2 bis 3 Cent, bei einem Kohlekraftwerk 3 bis 6 Cent und bei einem Gaskraftwerk 6 bis 10 Cent. Kann ein Kraftwerk seine Brennstoffkosten nicht mehr an der Börse refinanzieren, dann wird es (normalerweise) aus betriebswirtschaftlichen Gründen abgeschaltet und nach einiger Zeit sogar stillgelegt. Sonne und Wind haben in dieser Beziehung einen Vorteil, weil sie "formal" keine Brennstoffkosten haben. "Die Sonne schickt keine Rechnung" besagt ein nur vordergründig schlauer Spruch. Man müsste hinzufügen: "Die Sonne produziert auch keinen Strom", aber diese defätistischen Aussage ging in der bisherigen Ökoeuphorie mancher Deutscher unter.  Wie sieht nun das Stromerzeugungsmanagement bei einem Stromkonzern – wie dem RWE – aus, der Kernkraftwerke, Kohlekraftwerke (Stein- und Braunkohle) sowie Gaskraftwerke betreibt und daneben Sonnen- und Windstrom aufnehmen muss? Nun, normalerweise decken Atom und Braunkohle die erforderliche Grundlast ab, Steinkohle die Mittellast und die Gaskraftwerke, welche man schnell an- und abschalten kann, werden – neben den Pumpspeichern – für die mittägliche Spitzenlast benötigt. Aber das funktioniert neuerdings nicht mehr so, denn die Wind- und Solaranlagen haben die wendigen Gaskraftwerke aus dem Markt gedrängt. Sie dürfen als erste einspeisen. Das sieht man gut am Beispiel des 11. Mai 2014 in der unten platzierten Grafik. Dies war ein Sonntag, an dem wenig Strom gebraucht wurde, an dem aber gleichzeitig der Wind kräftig wehte und die Sonne am wolkenlosen Himmel viel PV-Strom produzierte. Dieser regenerative Strom musste, gemäß EEG, bevorzugt ins Netz aufgenommen werden.

Siehe Bild oben rechts

Das Diagramm veranschaulicht die Situation am genannten Sonntag: Wind und Sonne zusammen erbrachten zeitweise allein schon fast 40.000 Megawatt an Strom. Das Angebot auf dem Strommarkt überstieg die Nachfrage bereits am Vormittag so weit, dass der Strom an der Börse "wertlos" wurde. Sein Preis fiel auf Null. Am frühen Nachmittag war darüber hinaus so viel Strom im Netz, dass die deutschen Produzenten Geld bezahlen mussten, um ihn loszuwerden. Der "negative Strompreis" sank auf 60 Euro pro Megawattstunde, entsprechend 6 Cent pro Kilowattstunde. In der ersten Jahreshälfte 2014 gab es bereits an 71 Stunden negative Strompreise. In wenigen Jahren, nach dem weiteren Ausbau der Wind- und Sonnenenergie, können es tausend Stunden im Jahr und noch mehr werden.

Problematische Kohlekraftwerke

Und was machen die Kohlekraftwerke, insbesondere jene, die Braunkohle verfeuern? (Die Kernkraftwerke lassen wir mal außen vor, da sie in wenigen Jahren sowieso abgeschaltet sein werden.) Sie werden nicht zurückgefahren, sondern produzieren kräftig weiter. Denn lieber verkaufen die Erzeuger ihren eigentlich überflüssigen Kohlestrom zehn Stunden lang (tagsüber) zu negativen Strompreisen, als ihre Braukohlekraftwerke abzuschalten. Warum? Nun, diese fossilen Kraftwerke sind darauf ausgelegt, ohne Unterbrechung zu laufen. Selbst ihre Leistung nur zu drosseln wäre schon zu teuer. Muss nämlich ein Kraftwerk aus irgend einem Grund vom Netz, so bezahlt der Betreiber später allein für den Dieselkraftstoff einen fünf- oder gar sechsstelligen Betrag, um dieses Kraftwerk wieder sicher auf Betriebstemperaturen von über 500 Grad zu bringen. Außerdem vertragen diese Art von Kraftwerken das häufige An- und Abschalten aus Materialgründen nicht gut. Ein weiterer Grund für den fortgesetzten Betrieb der Kohlekraftwerke ist die Sicherstellung der Netzstabilität. Weil der erzeugte Strom sich aber nicht speichern lässt, muss er irgendwo hin. Und dafür gibt es Interessenten. Die Holländer, beispielsweise, nehmen ihn recht gerne um ihre Glashäuser zu heizen – und weil er nicht nur kostenfrei ist, sondern seine Abnahme noch gut bezahlt wird. Dafür legen unsere schlauen Nachbarn sogar gerne einige ihrer Gaskraftwerke still. Mittlerweile verhökern sie den Strom sogar weiter nach England, die Schweiz und Italien. Ein ähnlicher Sekundärmarkt hat sich bei unserem östlichen Nachbarn, den Polen, herausgebildet.

Im Klartext: der exportierte Strom ist heutzutage schon häufig Überschussstrom, für den es in Deutschland keine Abnehmer gibt und den man deshalb – unter erheblicher Zuzahlung – in ausländische Netze einspeisen muss. Er ist vergleichbar mit Müll, den man zur Entsorgung (kostenpflichtig) ins Ausland bringt.

In unserem Fall ist es – man verzeihe das harte Wort – Strommüll.

Fazit

Der im Vorjahr 2014 ins Ausland exportierte Strom von 34 Milliarden Kilowattstunden ist kein Nachweis für unsere wirtschaftliche Potenz. Er ist vielmehr der Beweis dafür, dass mit der nach Fukushima hastig eingeläuteten Energiewende etwas furchtbar schiefgelaufen ist. Das EEG mit seiner radikalen Bevorzugung von Wind- und Sonnenstrom hat die Gaskraftwerke aus Kostengründen aus dem Markt gedrängt. Die Braunkohlekraftwerke hingegen, mit ihrer hohen CO2-Fracht, müssen die Grundlast erbringen, insbesondere, wenn die Kernkraftwerke im Jahr 2022 insgesamt abgeschaltet sein werden. 

Unsere Energiezukunft wird also folgendermaßen aussehen:
Sonne und Wind erbringen die Spitzenlast, die Kohle die Grundlast. Reguliert wird die Strommenge, indem man über die nationalen Grenzen hinweg den Überschussstrom exportiert – und dafür noch bezahlt.

Dr.Ing Willy Marth 

Der Beitrag wurde vom Blog des Autors übernommen 

Über den Autor: 

Willy Marth, geboren 1933 im Fichtelgebirge, promovierte in Physik an der Technischen Hochschule in München und erhielt anschliessend ein Diplom in Betriebswirtschaft der Universität München. Ein Post-Doc-Aufenthalt in den USA vervollständigte seine Ausbildung. Am „Atomei“ FRM in Garching war er für den Aufbau der Bestrahlungseinrichtungen verantwortlich, am FR 2 in Karlsruhe für die Durchführung der Reaktorexperimente. Als Projektleiter wirkte er bei den beiden natriumgekühlten Kernkraftwerken KNK I und II, sowie bei der Entwicklung des Schnellen Brüter SNR 300 in Kalkar. Beim europäischen Brüter EFR war er als Executive Director zuständig für die gesamte Forschung an 12 Forschungszentren in Deutschland, Frankreich und Grossbritannien. Im Jahr 1994 wurde er als Finanzchef für verschiedene Stilllegungsprojekte berufen. Dabei handelte es sich um vier Reaktoren und Kernkraftwerke sowie um die Wiederaufarbeitungsanlage Karlsruhe, wo er für ein Jahresbudget von 300 Millionen Euro verantwortlich war.




Wärmebilanz der Erde und globale Temperaturänderung

….Die beobachteten Abweichungen von einer stetig durch verstärkte Sonneneinstrahlung steigenden Temperatur in den Jahren 1945 bis 1975 sind auf eine stärkere Wolkenbildung durch die in den Jahren 1945 bis 1963 über die Kernwaffenversuche künstlich in die Atmosphäre eingebrachten radioaktiven Kondensationskeime  zurückzuführen. Die Stagnation der Temperatur ab 1998hat ihre Ursache in der seit 1998 nachlassenden Sonnenaktivität..

Von 1900 bis 1998 stieg die solare Einstrahlung um 1,3 W/m², seit 1998 hat sie nachgelassen und Werte erreich, die denen vom Anfang des 20. Jahrhunderts entsprechen. Der Abfall der Globaltemperatur in den nächsten Jahren ist vorhersehbar

 Haupttext

Die Erdoberfläche von 511 Millionen km² ist zu ca.75% von Wasser bedeckt. Der Rest sind 3% Polareiskappen und 22% Landmassen, bestehend aus 8% Wald, 8% Ackerfläche und 5% Industrie- und Besiedelungsfläche.

Dank der enormen Wassermenge in den Ozeanen der Erde und der hohen Wärmekapazität des Meerwassers stellen Änderungen der dort akkumulierten Wärmeenergie die Hauptkomponente der Wärmeenergiebilanz der Erde dar.

Wenn von der Klimaänderung gesprochen wird, wird auf die Darstellung der  sog. Temperaturanomalien Bezug genommen, die u.a. vom ICCP veröffentlicht wird. Dabei handelt es sich um Jahresmittelwerte, die ihrerseits auf einen Mittelwert über ein definiertes Zeitintervall bezogen werden. ( z. B. 1961-1990). In der folgenden Abb.1 ist der Verlauf der Temperaturanomalien dargestellt: 

Abb.1: NASA Angaben über die Anomalie der globalen Jahresmitteltemperaturen. ( nach data.giss.nasa.gov/gistemp/station_data/ ) Siehe Bild rechts 

Gemessen werden diese Temperaturen von ca. 35.000 meteorologischen Stationen, die über die Erde verteilt sind, wobei die größere Häufigkeit der Messstationen auf der nördlichen Halbkugel der Erde liegt.

Die Ozeane spielen auf Grund ihrer großen Oberfläche und ihrer großen Wärmekapazität die Schlüsselrolle in der Klimagestaltung der Erde. Sie enthalten 97% des gesamten Wassers des Planeten und sind die Quelle von 86% des auf der Erdoberfläche verdampfenden Wassers. 78% des globalen Niederschlags erfolgt über den Ozeanen und nur 22% erfolgt über den Landmassen.

Die Reaktion der Erdatmosphäre auf Störungen des Wärmehaushalts wird damit im Wesentlichen vom Temperaturverhalten  des Ozeans mit seiner Oberfläche von ca. 400 Millionen km², seinem Wasserinhalt von ca.1,3 Trillionen m³ und der Wechselwirkung mit der Atmosphäre bestimmt.

Die, die Erdatmosphäre bildende Luft ist ein kompressibles Gas und hat auf Meereshöhe eine Dichte von  1,29 kg/m3. Ca. 50% der Luftmasse der Atmosphäre liegen zwischen 5500m Höhe und  dem Meeresspiegel.

Die Gesamtmasse der Lufthülle beträgt ML = 5,14* 1018kg und der daraus resultierende Luftdruck auf Meereshöhe beträgt 1013 hPa.

Die  Hauptbestandteile der Erdatmosphäre sind Stickstoff N2 zu 78 %, Sauerstoff O2 zu 21%, Argon Ar zu 0,9 %, Kohlendioxid, CO2 zu 0,038 % und Wasserdampf,  H2 O. Während  sich die Zusammensetzung der Luft bezüglich N2, O2, Ar und CO2 erst in großer Höhe ändert, ist die Wasserdampfkonzentration stark von der Temperatur  und der Höhe abhängig, s. Abb. 2.

Abb. 2: Wasserdampfgehalt in Abhängigkeit von der Höhe

( J. Langeheine, Energiepolitik in Deutschland, das Geschäft mit der Angst, Athene Media Verlag, ISBN 978-3-86992-054-2) 

Wird mit Wasser gesättigte Luft von  20°C, die  ca.17g Wasser /m³ als Wasserdampf enthält, z. B. in eine Höhe von 5000m transportiert, verliert sie 16g Wasser/m³. Dieser Wasserdampf  kondensiert und fällt unter bestimmten Bedingungen als Niederschlag zurück auf die Erde.

90 % des Wassergehaltes der Atmosphäre  verteilen sich auf die ersten 5500 Höhenmeter .Damit spielen sich die Wetterprozesse im Wesentlichen in einem Höhenbereich bis ca. 5500 m ab. Die Integration über die Höhe bis 11000m ergibt eine absolute Wassermenge in der Atmosphäre von ca.  MW = 1,3 ∙ 1016kg und entspricht einem kondensierten Volumen von 1,3∙ 1013m³. In den Ozeanen befindet sich dagegen mit ca. 1,3∙ 1018 m³ etwa 100.000  mal mehr Wasser als in der Atmosphäre.

In reiner Luft ( ohne fremde Teilchen ) kann die relative Feuchtigkeit bis zu 800 % erreichen, ohne dass Kondensation eintritt. In der Realität kondensiert der Wasserdampf jedoch bei Werten wenige Prozent unterhalb oder oberhalb von 100 %, abhängig von der Natur und Konzentration der Kondensationskeime in der Luft. Als Kondensationskeime  für die Wolkenbildung dienen Aerosolpartikel aus Bestandteilen der Erdoberfläche und hochenergetische ionenbildende Strahlung.  Besonders aktiv sind radioaktive Stäube bzw. Radon- Zerfallsprodukte, deren Anreicherung in Wolkentropfen im Vergleich zu der umgebenden Luft ( B.I. Styra et all. Tellus XVIII (1966, 2) auf  ihre Mitwirkung bei der Entstehung der Kondensationskeime schließen lässt.

Die Unterscheidung der Wolken erfolgt u.a. nach der Höhe der Wolkenuntergrenze in hohe, mittlere und tiefe Wolken.

Hohe Wolken, die sich im allgemeine oberhalb 6000m bilden und etwa 13-14% der Wolkenbedeckung ausmachen, bestehen aus Eiskristallen.

Mittlere Wolken, die in Höhen zwischen 2000 und 5000 m entstehen und etwa 20% der Wolkenbedeckung ausmachen, bestehen aus Wassertropfen.

Tiefe Wolken bestehen ebenfalls aus Wassertropfen befinden sich in Höhen bis zu 2000m. Sie machen etwa 28-30% der Wolkenbedeckung aus.  

Hohe und mittlere oder tiefe Wolken können gleichzeitig auftreten, jedoch sind für  den Niederschlag im Wesentlichen die mittleren und tiefen Wolken verantwortlich.

Abb.3. Wolkenbedeckung und Wassergehalt der Atmosphäre von 1983 bis 2010

( www.climate-4you.com /images/CloudCover Low Level Observations Since1983 gif)

In der Abb.3 ist der zeitliche Verlauf des Wassergehalts der Atmosphäre sowie der Verlauf der Bewölkung von 1983 bis 2010 dargestellt. Die Abb. 4  zeigt die Abweichung der jährlichen Niederschlagsmenge vom langjährigen Mittelwert. Aus dem Vergleich der beiden Darstellungen 3 und 4 ist ein Anstieg der mittleren Bewölkung und ein Abfall der tiefen Bewölkung in den Jahren ab 1998 zu erkennen, verbunden mit einem Ansteigen der Niederschlagsrate. Die Gesamtbewölkung mit mittleren und tiefen Wolken bleibt jedoch weitgehend konstant bei 48%. Trotz Niederschlag ändert sich der Wassergehalt der Atmosphäre nur wenig, jedoch ab 1998 ist ein sprunghafter Abfall auf 24 mm (s. nachfolgende Ausführungen) zu sehen. Gleichzeitig steigt die mittlere Bewölkung von ca. 20 auf 23 % und die tiefe Bewölkung sinkt von 28 auf 25%.

Seit dieser Zeigt stagniert auch die globale Erwärmung.

Abb. 4: Abweichung des globalen Niederschlags über Landflächen vom Mittelwert für die Jahre 1900 bis 2010

(Image credit: NOAA‘s National Climatic Data Center.)

Ein Vergleich der Abb.4 mit der Abbildung 1 zeigt, dass eine Stagnation der globalen Temperaturanomalie in den Perioden hohen Niederschlags auftritt. Sowohl in den Perioden zwischen 1945 bis 1980 als auch ab 1998 bis 2010 ist eine deutlich positive Abweichung der Niederschlagsmenge zu beobachten.

Wolken und Niederschlag sind das Bindeglied der Atmosphäre zum Ozean.

Die Wassermenge der Ozeane, Verteilt auf ihre Fläche ergibt eine durchschnittliche Tiefe von 3800m. Doch die tieferen Schichten des Ozeans beteiligen sich kaum an den Temperaturänderungen der Oberfläche. Ab einer bestimmten Tiefe, der sog. Thermoklinen gleicht sich die Oberflächentemperatur der Tiefentemperatur an.

Die Abbildung 5 zeigt die Zunahme des Wärmeinhalts des Ozeans von 1970 bis 2005 um ca. 1,6∙ 1023  J .

Im gleichen Zeitraum stieg die Oberflächentemperatur um  0,4°C. Daraus berechnet sich die  Lage der durchschnittlichen Thermoklinen bei einer Tiefe von ca. 300m. In dieser Wassertiefe sind ca. 1/13 der Wassermassen des Ozeans betroffen und erfordern für die Aufheizung um 1K ca. 4∙ 1023  J.

 

Abb.5 Veränderung des Wärmeinhalts der Ozeane

http://www.nodc.noaa.gov/OC5/3M_HEAT_CONTENT/ 

Die in der Atmosphäre enthaltene Wassermenge entspricht einem kondensierten Volumen von 1,3∙ 1013 m³. Verteilt man das Wasservolumen der Atmosphäre auf die Erdoberfläche von  511∙ 106 km 2, so erhält man eine Wassersäule von ca.25 mm, s. Abb. 3. Mit der Verdampfungswärme von 2257 kJ/kg Wasser, die zur Überführung des Wassers vom flüssigen in den dampfförmigen Zustand erforderlich ist, ergibt sich eine gesamte im Wasserdampf der Erde enthaltene latente Wärme von ca. 3∙ 1022 Joule, entsprechend 3∙ 104 EJ.

Die mittlere Verdunstungs-, bzw. Niederschlagsrate beträgt etwa 1000 mm Wassersäule pro Jahr. ( Baumgartner und Reichel 1975 ). Das bedeutet, dass der Zyklus  Verdampfung- Kondensation pro Jahr ca. 40 mal abläuft.

Nach dieser Abschätzung verdunsten so alljährlich 520.000Km³ Wasser von der Erdoberfläche. Die genaueren Zahlen liegen bei 505.000 km³, davon 434.000 km³ über den Ozeanen und 71.000 km³ über dem Land. Die in der Bilanz fehlende Menge von ca. 36.000 km³ wird den Ozeanen durch die Flüsse wieder zugeführt.

Mit der Verdunstungswärme von 2257 kJ/kg ergibt sich daraus eine Wärmemenge von 9,8∙ 1023 J/a, die den Ozeanen jährlich entzogen wird und eine Wärmemenge von 1,6∙ 1023 J/a , die von den Landflächen kommt, insgesamt also eine Wärmemenge von 11,4∙ 1023 J/a oder 1,14 ∙106 EJ pro Jahr. Diese werden im Gleichgewichtszustand wieder durch die Sonneneinstrahlung ausgeglichen.

Eine Abweichung der jährlichen Niederschlagsrate um 1% ( 10mm pro Jahr ) verändert diese Energiemenge für die Ozeane um ca. 1∙ 1022 J/a. daraus lässt sich eine Veränderung der Wärmeabstrahlungsleistung von  0,86W/m²  Ozeane errechnen.

Die unter Berücksichtigung der  Niederschlags- und Temperaturentwicklung berechnetet  Energiebilanz für den Zeitraum zwischen 1900 und 1998 ergibt nun folgendes Ergebnis:

-Zwischen 1900 und 1945 wurde dem Ozean eine Energiemenge von 1,6∙ 1023  J  zugeführt, die sich aus der geringeren Niederschlagsrate (im Mittel -1,2%) von ca. 570 mm  entsprechend ca. 5,7∙ 1023  J,  einer auf Grund der Temperaturerhöhung  des Ozeans  gestiegenen Wärmeabstrahlung von ca. 5,6∙ 1023  J und einer bis 1945 um ca.0,6 W/m² , gestiegenen Wärmeinstrahlung ( ca. 1,6∙ 1023  J) durch erhöhte Sonneneinstrahlung zusammensetzt. Der Anstieg der Wärmeeinstrahlung betrug pro Jahr ca. 0,013W/m².

-In der Zeit zwischen 1945 und 1980 stieg diese zusätzliche Sonneneinstrahlung  auf  0,93W/m². In dieser Zeit fielen 350mm mehr Niederschlag als im statistischen Mittel, d.h. im Durchschnitt jedes Jahr 1% mehr als normal. Das führte bis 1970 als die weiter steigende Wärmeinstrahlung den Wert des Wärmeverlustes durch die gestiegenen Niederschläge erreichte, zu  einem Temperaturrückgang. Ab diesem  Zeitpunkt überwog der Einfluss der gestiegenen Sonneneinstrahlung und die Temperatur stieg wieder.

-Im Zeitraum 1980 bis 1998 ist wieder eine unterdurchschnittliche Niederschlagsmenge von ca.  1%  in jedem Jahr zu verzeichnen, Im gleichen Zeitraum stieg die solare Einstrahlung auf  1,3W/m², was zu einer Temperaturerhöhung im Jahr 1998 um 0,55 K führte.

-Ab 1998 bis 2010 setzt  ein um 1,5% stärkerer Niederschlag ein. Eine Stagnation weiterer Temperaturerhöhung ab 1998 war die Folge.

Die Energiebilanzen der einzelnen Zeitabschnitte führen zu dem Ergebnis, dass die effektive solare Einstrahlung von 1900 bis 1998  um ca. 1,3 W/m² gestiegen sein muss. Dieses Ergebnis wird auch durch die nachfolgenden Überlegungen zu Albedoveränderungen  und Wolkenbildungsprozessen bestätigt.

Streuung und Reflektion der von der Sonne auf die Erdoberfläche treffenden Strahlung führt zu einer durchschnittlichen Albedo von 30%. Albedo ist der Betrag der Rückstreuung und Reflektion der Sonneneinstrahlung durch Atmosphäre, Wolken und Erdoberfläche, er kommt dem Wärmehaushalt der Erde nicht zugute.

Stärkere Bewölkung führt zu höheren Albedo-Werten, geringere zu niedrigeren Werten, letztere verbunden mit der dann höheren Einstrahlung auf die Erdoberfläche.

Die folgenden Abbildungen 6 und 7 zeigen die Messungen des Erdalbedos der Jahre 1985 bis 2010 im Vergleich zu der weltweiten Wolkenbedeckung  von 1983 bis 2010

Abb.6 Veränderung der Erdalbedo nach (Palle, E, et all 2004) http://www.iac.es/galeria/epalle/reprints/Palle_etal_Science_2004.pdf

 Abb.7 Weltweite Wolkenbedeckung ab 1983

( www.climate-4you.com /images/CloudCover Low Level Observations Since1983 gif)

Ca. 5% Änderung der gesamten Wolkenbedeckung haben nach diesen Ergebnissen eine Änderung der Erdalbedo um ca. 6% von 30 auf  28,2% zur Folge. Das bedeutet, dass jedes Prozent einer Änderung der Wolkenbedeckung eine Albedoänderung von 1,2 % bewirkt. Die solare Einstrahlung ändert sich damit um ca. +/-1,4 W/m² von 239,4 auf 240,8 W/m² bzw. 238 W/m² bei einer Änderung der Wolkenbedeckung um +/- 1%.

Nach  der Theorie von Svensmark ist die durch kosmische Strahlung verstärkte Ionenbildung für die Entstehung von zusätzlichen tiefen Wolken verantwortlich.

Abb. 8: Kosmische Strahlung und Bewölkung nach Svensmark

Marsh & Svensmark 2003 (DOI: 10.1029/2001JD001264. )

20 % Variation bzgl. der kosmischen Strahlung bedeuten danach 2% Variation in der Wolkenbedeckung.

Die kosmische Strahlung ist eine hochenergetische Teilchenstrahlung, die von der Sonne, der Milchstraße und von fernen Galaxien kommt.

Die Intensität der kosmischen Strahlung, die die Erdatmosphäre erreicht, ist abhängig von der durch die Sonnenaktivität  hervorgerufenen Störung bzw. Abschirmung des Erdmagnetfeldes.

Der Geomagnetische  Index, der sog. aa-Index, ist ein Maß für diese Störung und damit ein Maß für  die Abschirmwirkung  des Erdfeldes gegenüber kosmischer Einstrahlung.  Der aa- Index wird in nT angegeben. Sein Verlauf seit 1860 ist in der folgenden Abbildung 9 wiedergegeben, aus der erkennbar ist, dass der geomagnetische Index von einem Tiefpunkt, der um das Jahr 1900 lag, bis ca. 2000 ständig gestiegen ist.

 Abb.9: Geomagnetischer Index

[http://www.ngdc.noaa.gov/stp/geomag/aastar.html]

Zwischen kosmischer Einstrahlung CR und aa- Index besteht nach Palle der aus der folgenden Abb.10  ableitbare Zusammenhang: 

CR = 5000- 45 < aa> .

Abb 10.  The influence of cosmic rays on terrestrial low clouds and global warming
in the years 1984-1993

E. Palle Bago and C. J. Butler: Astronomy & Geophysics, August 2000. Vol 41, Issue 4, pp.18-22.

1900 lag der aa-Index bei 14nT  und stieg bis zum Jahr 1990 auf ca.30nT.

Damit ist die kosmische Einstrahlung von einem Wert von 4370 im Jahr 1900 auf  3650 im Jahr 1990 gesunken, und die Wolkenbedeckung mit tiefen Wolken verringerte sich bei Verwendung der Ergebnisse  von Svensmark um 2%.

Da die Wolkenbedeckung tiefer Wolken etwa 50% der  gesamten Wolkenbedeckung ausmacht, kann von einem Abfall der gesamten Wolkenbedeckung bis 1990 um ca. 1% ausgegangen werden, was eine zusätzliche solare Einstrahlung von ca.1,4  W/m² bis 1990 bedeutet.

Die von 1900 bis 1998 gestiegene Sonnenaktivität ist die alleinige Ursache für die Erhöhung der Globaltemperatur, die nur durch Perioden hohen Niederschlages in den Jahren 1945 bis 1970 unterbrochen wurde.

Seit dem Jahr 1998 geht die Sonnenfleckenaktivität deutlich zurück und erreicht mit dem Zyklus 24 Werte, die denen um 1900 entsprechen. Die kosmische Einstrahlung steigt und führt zu verstärkten Niederschlägen.

In den kommenden Jahren ist mit einem aa Index von ca. 15nT  zu rechnen, mit entsprechendem Anstieg der kosmischen Einstrahlung, höherer Wolkenbildung und absinkender Globaltemperatur.

Die verstärkte Niederschlagsmenge im Zeitraum 1945 bis 1970 ist auf eine zusätzliche Quelle ionisierender Strahlung zurückzuführen, deren Ursprung in den Kernwaffenversuchen der Zeitperiode 1945 bis 1963 zu suchen sind. Luftverschmutzungen scheiden als Ursache für diesen Zeitraum aus.

Riesige Mengen radioaktiver Stäube und fein verteilter Materie wurden durch die Explosionen  bis in die Stratosphäre geschleudert, verteilten sich mit den Luftströmungen weltweit und bildeten eine ständige Quelle von ionisierendem Mikrostaub für die Entstehung von Kondensationskeimen in der Troposphäre.

Zwischen 1951  und 1963  stieg z. B. der Strontiumgehalt in der Stratosphäre ständig an mit entsprechenden Auswirkungen auf das Wettergeschehen und nahm  ab 1963 nach dem  Atom-Versuchstop langsam bis 1974 wieder ab.

Erst ab dem Jahr 1974 ist diese Quelle radioaktiver Strahlung versiegt und kommt für Wolkenbildung nicht mehr in Frage.

Zwischen 1945 und 1974, wird die Wolkenbildung also von zusätzlicher radioaktiver Einstrahlung beeinflusst, die aus den Atomversuchen stammt, ein indirekter Beweis für die Theorie von Svensmark. Erst ab dieser Zeit setzt  sich der Einfluss der fallenden kosmischen Strahlung wieder als Klimafaktor durch und der Temperaturanstieg geht entsprechend der gestiegenen Sonneneinstrahlung weiter.

Ab 1998 sinkt der aa- Index und erreicht 2010 Werte um 15, wie sie Anfang des 19. Jahrhunderts herrschten. Die kosmische Einstrahlung und damit die Wolkenbedeckung steigen seit dieser Zeit.  Die solare Zusatzeinstrahlung sinkt auf Werte, die Anfang des 20sten Jahrhundert herrschten. Das führt  zu einem Rückgang der globalen Temperatur.  Wann diese Entwicklung zum Stillstand kommt hängt allein vom Verlauf der solaren Aktivität ab.

(Eine ausführlichere Darstellung kann als pdf – Datei geladen werden) 

Related Files