Schwedische Krimis gruselig? Dann kennen Sie noch nicht Drucksache 17/5672.

Großräumiger, langanhaltender Stromausfall? Das ist in Deutschland doch gar nicht möglich – könnte man meinen. Freilich war es im Winter 2011/2012 schon einmal fast so weit. Wie Fachleute dem Autor unter der Hand berichteten, hing in der betreffenden Gefahrenperiode jedes, auch noch das marodeste und kleinste fossile Kraftwerk am Netz. Hätte eine sprichwörtliche Maus zur dieser Zeit mit scharfem Zahn ein wichtiges Kabel durchgebissen, die  Drucksache 17/5672 wäre zur Realitätsbeschreibung geworden.
Und dabei sind die "Erneuerbaren" aktuell noch nicht einmal so "dick" dabei, wie es sich viele Leser(innen) vielleicht vorstellen. Im Jahre 2011 gegenüber dem Jahre 2000 wurde die deutsche Stromversorgung lediglich mit 7% weniger Kohle, 12% weniger Kernenergie und 1% weniger Wasserkraft betrieben. Der Ausgleich erfolgte mit 5% mehr Erdgas, 6% mehr Windstrom, 5% mehr Biomassenstrom und 3% mehr Sonnenstrom (alle Zahlen gerundet). Das reichte bereits für einen  Beinahezusammenbruch infolge ausbleibenden Wind- und Sonnenstroms.
Bis zum Jahre 2020 sieht der Plan der Bundesregierung (BMWi: Monitoring Bericht "Energie der Zukunft" von 2012, Referenzjahr ist 2008) unter vielen anderen Maßnahmen eine Reduktion von 10% des Stromverbrauchs, eine Anteilszunahme von Strom der "Erneuerbaren" von 35% und eine Steigerung von 6600 auf 1 Mio. Elektroautos vor. Die Fortsetzung dieser Vision bis zum Jahre 2050 ist dann nur noch ein Horrorszenario der Deindustrialisierung Deutschlands und der Nordkoreanisierung der Lebensverhältnisse im Privatsektor. Der Stromverbrauch soll um 25% abgenommen haben, der Stromanteil der "Erneuerbaren" auf 80% angestiegen, die Treibhausgasemissionen um 80% bis 95% reduziert worden sein. Um das Maß dieser Phantastereien voll zu machen, sollen auch noch 6 Mio. Elektrofahrzeuge auf unseren Straßen verkehren.
Es muss an dieser Stelle nicht noch einmal auf die technische Unmöglichkeit der BMWi-Pläne eingegangen werden, die Energierubrik der EIKE-Seite ist oft genug auf die betreffenden technischen Einzelheiten eingegangen. 80% grüner Strom bedeutet zwangsläufig eine vorzuhaltende, praktisch gleiche Stromerzeugungsmenge aus Schattenkraftwerken (in der Regel Gas). Damit hat man fast die doppelte Nennleistung an Stromquellen installiert, aber dennoch nur gelegentlich 80%-ge Versorgung mit den "Alternativen". Pumpspeicherwerke können aus topologischen Gründen hierzulande keine Lösung sein. Ringwallspeicher und alle weiteren "Visionen" sind Strom- und Geldvernichtungsanlagen, hierzu braucht man sich nur die Wirkungsgrade anzusehen. Kein realistisches Kostenszenario für Kohle, Gas oder Uran kann die BMWi-Pläne rechtfertigen. Schon jetzt laufen die Stromkosten aus dem Ruder und werden dem wehrlosen Verbraucher aufgesattelt. Irgend jemand muss schließlich die Schattenkraftwerke bauen, finanzieren und betreiben, irgend jemand muss riesige Überlandleitungen für den Nordseestrom von Nord- nach Süddeutschland bauen, irgend jemand muss schlussendlich den überflüssig gewordenen Beton- und Stahlschrott von Windturbinen in späteren Jahrzehnten wieder abbauen und entsorgen – eine Aufgabe, gegen die das Schleifen des vom "Dritten Reich" zurückgelassenen Atlantikwalls ein Kinderspiel war -, irgend jemand muss….. Es ist müßig, die Liste fortzusetzen.
Stellvertretend für die "Qualität" der BMWi-Pläne ein Wort zu den 6 Mio. Elektroautos in 2050. Die Physik lehrt uns, dass die Speicherung von Energie für den Autoantrieb in Form von Kohlenwasserstoffen (Benzin) die effizienteste und sicherste Methode ist. Sie wird es, weil Naturgesetze nun einemal unabänderlich sind, auch für alle Zukunft bleiben. Es gibt nichts besseres, es sei denn, man würde Autos mit Mini-Kernreaktoren akzeptieren. Man kann unschwer nachrechnen, dass unter Berücksichtigung der unterschiedlichen Wirkungsgrade von Benzinmotoren und Elektroantrieben ein Elektroauto auch mit modernster Lithium-Ionenbatterie nur etwa 6% der Energie eines Benzinautos zur Verfügung hat (s. die Abschätzung im Anhang). Mehr als eine innerstädtische Nischenlösung kann das Elektroauto daher niemals werden. Aber selbst dann: Welch ein neues Umweltproblem würde sich mit 6 Mio. regelmäßig zu entsorgender Lithium-Ionen-Batterien auftun! Und mit unserem 220 Volt – Netz ist eine Elektroautotankstelle von vielleicht 500 bis 1000 Fahrzeugen am Tag nicht zu betreiben. Sie braucht eine separate Hochspannungsleitung, einen Transformator zur Spannungsreduzierung (Batterien können nicht mit Hochspannung geladen werden), ein aufwendiges Kühlsystem für den Transformator usw. usw. Und wie lange dauert denn solch ein Tankvorgang?
Welcher "Fachmann" im BMWi hat sich wohl die Zahl von 6 Mio. Elektroautos ausgedacht? Die technische Deutungshoheit ist in Deutschland von den zuständigen Fachleuten unübersehbar auf ökoideologische Phantasten übergegangen. Die Fachleute sind nur noch dazu da, die sich ergebenden Visionen zu erdulden und auszubaden. Als einziger, sehr schwacher Trost verbleiben nur diejenigen Industrieunternehmen, die von dem Unsinn profitieren. Die Allgemeinheit, die Natur und die Volkswirtschaft insgesamt werden dagegen schwer geschädigt.
Dem Autor ist nur ein Land bekannt, das bereits schon einmal einen ähnlichen Selbstmordversuch, wie es die deutsche Energiewende ist, unternahm. Es war China mit dem "großen Sprung nach vorne" des Mao Zedong. Neben vielen anderen Plänen sollten damals chinesische Bauern in ihren eigenen Katen Stahlkocher betreiben. Millionen Hungertote und eine völlig zerrüttete Wirtschaft waren die Folge. Dem Autor ist freilich kein einziges Industrieland außer Deutschland bekannt, das bewusst und mutwillig eine vormals perfekte, völlig intakte und bestens funktionierende Strominfrastruktur zerstörte. Deutschland wäre, wenn die Energiewende nicht bald der Vernunftwende Platz macht, das erste Land dieser Welt, dem solches gelänge. Es gibt keine andere Nation, die ähnliches plant oder gar ausführt. Böse Menschen veranschaulichen Deutsch lernenden Ausländern inzwischen den grammatikalischen Komparativ als "Stuttgart 21 – Berliner Flughafen – Energiewende". Die Welt lacht. Leider ist es nicht lustig, die Vernunft in Deutschland trauert.
Prof. Dr. Horst-Joachim Lüdecke
EIKE Pressesprecher

Anhang: http://tinyurl.com/a9ymkky gibt an, dass 1 Liter Diesel 10 kWh und eine 30 kg Bleibatterie 1 kWh liefern. 1 Liter Diesel entspricht daher 300 kg Bleiakkugewicht. 50 Liter Tankinhalt 15 t. Lithium-Ionenbatterien weisen grob 20% Gewicht eines Bleiakkus auf, so dass aus den 50 Litern 3 t Gewichtsäquivalenz werden. Ein Automotor hat ca. 35%, Stromantrieb 95% Wirkungsgrad. Allerdings kann man einen Akku nicht bis auf Null entladen, es sollen hier vereinfacht 80% angenommen werden (weitere Einzelheiten siehe z.B. unter http://tinyurl.com/ay3nmdb). Aus den 3 t werden damit (3 / 0,8 ) x 0,35 / 0,95, also gerundete 1,5 t. Mit 200 kg Lith.-Ion.-Batteriegewicht als etwa dem wirtschaftlichen Maximum ergibt sich damit für das Elektroauto (gerundet) 15% der verfügbaren Energie im Vergleich zum Benziner bzw. Diesel. Nebenaspekte wurden bei dieser Grobabschätzung nicht berücksichtigt. So muss man in kalten Ländern auch noch heizen, was der Benzinmotor "umsonst" bietet. Auf der anderen Seite könnte die Batterie des Elektroautos beim Abbremsen oder Bergabfahren immer wieder ein wenig aufgeladen werden. Benzin steht bis zum letzten Tropfen voll zur Verfügung, die verfügbare Stromleistung eines Akkus hängt dagegen in komplizierter Weise von der Entnahme, der Restkapazität der Batterie und vom Alter der Batterie ab (s. die o.g. Links). Den Leistungsabfall durch Altern eines Akkus kennt jeder Laptop-Besitzer bestens.

Related Files




Das Ende der Kernenergie findet nur bei uns statt

Der von der Bundesregierung beschlossene Ausstieg aus der Atomkraft kann teuer werden, denn der Energieversorger Vattenfall hat vor einem internationalen Schiedsgericht auf Entschädigung geklagt. Bei dem „Washingtoner Verfahren“ geht es um die Kosten des Abschaltens der Vattenfall-Kernkraftwerke in Krümmel und Brunsbüttel. (Investitionen 700 Mill Euro.) , (hier).
Teure Machtspiele: Altmaier stoppt Gorleben-Erkundung. Mit dem erneuten Erkundungsstopp für den Salzstock Gorleben als Atomendlager ist ein Milliarden-Risiko für den Steuerzahler verbunden. Denn für die Erkundung des Salzstocks haben die Betreiber der Atomkraftwerke bereits rund 1,6 Milliarden Euro aufgewendet. Käme es zu einem rein politisch begründeten endgültigen Aus für das Endlager-Projekt, wären die AKW-Betreiber gezwungen, Schadenersatz beim Bund geltend zu machen. Dazu ließe das Aktienrecht den Konzernvorständen gar keine andere Wahl (hier).
Der Anteil der Kernenergie in Tschechien soll bis 2040 auf 55 % ansteigen, so die staatliche Konzeption für die Entwicklung in der Energiewirtschaft, die im November 2012 von der Regierung bestätigt wurde. Die Lebensdauer der Blöcke der Kernkraftwerke Dukovany und Temelin soll auf 60 Jahre verlängert und an den Standorten sollen neue Blöcke errichtet werden. In der Konzeption ist außerdem vorgesehen, dass der Anteil der Kohle in der Energiebilanzvon gegenwärtig 60 % auf 20 % zurückgeht und ein verstärkter Einsatz von Gas für die Stromerzeugung erfolgt. Die Subventionen der erneuerbaren Energie sollen schrittweise beseitigt werden. (Nuclear.ru vom 9. November 2012,Tetra Energie Nov.2012).
Für die weitere Entwicklung der Kernenergie in Tschechien haben sich 2/3 der 1062 Befragten über 18 Jahre vom 27.Oktober bis 5. November 2012 ausgesprochen (hier).
Thorium statt Uran: „Norwegen erfindet die Kernenergie neu“ Das Land besitzt große Mengen des radioaktiven Thoriums. Die norwegische Regierung setzt auf eine ganz eigene Definition der Energiewende: nicht die erneuerbaren Energien, sondern atomare Energiequellen sollen weiter entwickelt werden. In Zusammenarbeit mit der Firma Thor Energy will der größte Ölproduzent Europas sich unabhängiger von seinem wertvollsten Bodenschatz machen. Andere Länder wie China und Indien investieren auch in die Forschung von Thorium. (Deutsche Wirtschafts-Nachrichten 14.12.12).
Deutschland schaltet die Kernkraftwerke ab, und was macht die Ukraine?: Laufzeitverlängerung im KKW Südukraine  Im KKW Südukraine wird an der Verlängerung der Laufzeit von zwei Reaktoren WWER-1000 gearbeitet. Die Blöcke 1 und 2 sind 1982 bzw. 1985 in Betrieb gegangen, den Projekten lag eine Laufzeit von 30 Jahren zu Grunde.Im Zusammenhang mit der periodischen Überprüfung der Sicherheit und Nachrüstung der Blöcke wurden die Bedingungen für eine Laufzeitverlängerung auf 60 Jahre geprüft. Dabei wurde die Prüfung durch Spezialisten der schwedischen Aufsichtsbehörde SSM unterstützt und das schon seit 4 Jahren. (Journal Energoatom der Ukraine N° 38 2012, Tetra Energie Nov.2012)
Einem Bericht des “World Resources Institute” zufolge ist derzeit der Bau von weltweit 1.200 neuen Kohle-Kraftwerken geplant. Wie MarketWatch berichtete, sollen die meisten der Kraftwerke in Indien und China entstehen (76 %). Wenn alle diese Projekte abgeschlossen sind, würde sich die globale Kapazität der Kohle-Kraftwerke gegenüber der aktuellen Kapazität fast Vervierfachen. In den USA wird mit dem Bau von 36 neuen Kraftwerken gerechnet (s. auch hier).
Grünes Jobwunder erweist sich als Luftschloss: Den Deutschen wird seit Jahren eingeredet, die neue „grüne Industrie“ werde 100.000 neue Arbeitsplätze schaffen. Die Realität ist jedoch anders: Siemens hat nach anhaltend hohen Verlusten entschieden seine Solarthermie- und Photovoltaik-Abteilungen aufzugeben. Ebenso Schott und. Bosch. Damit geben die 3 größten Unternehmer der Solarbranche auf. Auch ein anderes grünes Lieblingsprojekt bricht zusammen: das dänische Unternehmen Dong Energy will sich aus dem finanziell ehrgeizigen Windparkprojekt Borkum Riffgrund 2 (70 km vor der deutschen Nordseeküste) zurückziehen. Hauptproblem: Anschlußtermin  an das Stromnetz offen. Dong stornierte einen  Auftrag bei Siemens über 97 Windräder mit 300 MW Kapazität. Bei der Windkraft-Zulieferer-Industrie in Cuxhaven und Emden gab es Entlassungen. (Neue Solidarität Nr.46, 14.11.2012).
Die EIKE-Redaktion
Ergänzung – Schlaue Japaner! Benny Peiser auf ACHGUT meldet:  

Japan denkt, Deutschland nicht

Eindreiviertel Jahre nach der Katastrophe von Fukushima rückt die neue japanische Regierung vom geplanten Atomausstieg ab. Der bis 2040 geplante schrittweise Ausstieg aus der Atomkraft müsse überdacht werden. Das sagte Wirtschafts- und Industrieminister Toshimitsu Motegi von der Liberaldemokratischen Partei (LDP) am Donnerstag kurz nach seinem Amtsantritt.




Intensive Windradnutzung: Sinkender Energieertrag und Umweltschaden

Zweifellos ist dieser Traum mit einer aberwitzig hohen Anzahl von Windturbinen rechnerisch realisierbar. Oder vielleicht doch nicht? Um uns nicht zu verzetteln, lassen wir hilfsweise das größte Problem dieses Traums einmal außer vor – die Fluktuation der Stromlieferung, die die ganze Angelegenheit für eine vernünftige Nutzung ohnehin unbrauchbar macht. Die naturwissenschaftliche Antwort auf die Realisierbarkeitsfrage gibt schließlich eine am 8. Juni 2012 in der Zeitschrift „Earth Dynamic Systems“ der Europäischen Geowissenschaftlichen Union (EGU) veröffentlichte Arbeit der Autoren F. Gans, L.M. Miller und A. Kleidon vom Max-Planck-Institut für Biogeochemie in Jena. Ihr Titel lautet

„The problem of the second wind turbine – a note on a common but flawed wind power estimation problem“

Sie ist als pdf unten angefügt. In dieser Arbeit weisen die Autoren nach, dass bei einem zu hohen Windenergieentzug der Atmosphäre die üblichen Annahmen zum nutzbaren Windenergieertrag von Windturbinen um eine Größenordnung (etwa Faktor 10) überschätzt werden. Grund dafür ist die Rückwirkung von übermäßig vielen Windturbinen auf die Strömungs- und Energieverhältnisse in der Atmosphäre. Der Rückwirkungseffekt ist beim gegenwärtigen globalen Energieentzug mit Windrädern zwar nicht spürbar, würde sich aber bei einer starken Ausweitung zunehmend bemerkbar machen. Für Leser, die an den technischen Einzelheiten weniger interessiert sind und es lieber in Deutsch möchten, nachfolgend der „Abstract“ der Arbeit frei übersetzt und zum besseren Verständnis vom Autor mit Ergänzungen versehen.

Abstract

Veröffentlichte Windradenergie-Abschätzungen legen nahe, dass diese „erneuerbare“ Energieform den aktuellen und zukünftigen globalen Energiebedarf ohne Rückwirkung auf die Atmosphäre decken kann. Die entsprechende Schätzmethodik verwendet ausschließlich gemessene Windgeschwindigkeiten in Verbindung mit Spezifikationen über die Größen und zulässigen Anordnungsdichten von Windturbinen.

Erläuterung: Um gegenseitige Beeinflussung von Windturbinen zu vermeiden, müssen Mindestabstände zwischen den Windrädern eingehalten werden (Windparkeffekt). Diese Bedingungen werden sowohl in den angesprochenen Veröffentlichungen als auch in der hier besprochenen Arbeit vorausgesetzt und stehen nicht zur Debatte.

Freilich werden hierbei die Effekte des Impulsentzuges aus der Atmosphäre vernachlässigt, die klimawirksame Auswirkungen außerhalb des unmittelbaren Turbinenbereichs haben. Wir zeigen hier mit einem einfachen Impulserhaltungsmodell der atmosphärischen Grenzschicht (Erläuterung: zur betrachteten Grenzschicht siehe Fig. 1 des Aufsatzes), dass die bisher übliche Schätzmethodik des Windenergiepotentials unrealistisch hohe Zuwächse bei der Erzeugung von kinetischer Energie in der Atmosphäre erfordert. Zuwächse von einer ganzen Größenordnung würden nämlich erforderlich sein, um den Impulserhaltungssatz in der atmosphärischen Grenzschicht zu erfüllen. Im Kontext unseres einfachen Modells vergleichen wir den Effekt von drei unterschiedlichen Annahmen über die Randbedingungen an der Oberkante der atmosphärischen Grenzschicht.

Erläuterung: Annahme 1 ist eine übliche, konstante Windgeschwindigkeit auf Nabenhöhe des Windrads von 80 m. Diese Annahme entspricht der bisher gültigen Vorstellung. Annahme 2 fordert einen festen Impulszufluss von der Grenzschicht-Oberkante auf 2 km Höhe in Richtung Erdboden. Annahme 3 geht von einem konstanten Energiezufluss von der Grenzschicht-Oberkante aus.

Wir führen dann Simulationen mit einem allgemeinen Atmosphären-Zirkulationsmodell durch, welches explizit die Erzeugung kinetischer (Windrad)energie bei Impulserhaltung wiedergibt. Diese Simulationen zeigen, dass die Annahme eines festgelegten Impulstransports in die atmosphärische Grenzschicht das realistische Verhalten im einfachen Modell beschreibt. Dabei kann die Annahme einer vorgeschriebenen Windgeschwindigkeit auf Nabenhöhe des Windrads (Erläuterung: dies war Annahme 1) ausgeschlossen werden.

Erläuterung: Annahme 1, d.h. die bisher übliche Methode, erweist sich bei hohem Windenergieentzug als ungültig. Annahme 2 und 3 sind dagegen gültig und weisen ähnliche Ergebnisse auf.

Wir zeigen zudem, dass alle unsere drei Annahmen ähnliche Abschätzungswerte für die entnommene Windenergie liefern, wenn weniger als 10% des kinetischen Energieflusses der Grenzschicht von den Turbinen extrahiert werden.

Erläuterung: Für weniger als 10% Energieentnahme liefern alle drei Annahmen etwa gleiche Ergebnisse. Oder anders ausgedrückt: Für diesen Fall, der der aktuellen globalen Situation entspricht, ist ein verminderter Energieertrag sowie eine Klimabeeinflussung durch Windräder vernachlässigbar.

Wir folgern draus, dass die übliche Methode das Potential an Windenergie signifikant in einer ganzen Größenordnung überschätzt, wenn man sich am Limit der Windenergieentnahme bewegt. Letztlich setzen daher mehr die natürlichen Einschränkungen der Umwelt der großskaligen Windradnutzung Grenzen als die ingenieurtechnischen Einschränkungen im Windturbinenaufbau und der Standortwahl.

Was am Aufsatz nach Auffassung des Autors am bemerkenswertesten ist:

Der Aufsatz ist natur- und ingenieurwissenschaftlich interessant, aber es wird hier wohl doch ein etwas unrealistisches Szenario angenommen. Die Menschheit wird nicht so verrückt wie Deutschland sein, die Energieversorgung in den "Wind zu schreiben". Es zeichnet sich aber ab, dass sich die Anzahl der installierten Windturbinen global noch weiter erhöht. Der Aufsatz beschäftigt sich neben den Energieerträgen aus Windkraft auch noch mit den Auswirkungen intensiver Windradnutzung auf Klimaparameter. Er zeigt dabei auf, dass bei intensiver Windradnutzung die (schädlichen?) Klimaeinwirkungen zwangsweise zunehmen müssen. Analog zum Biosprit sind also neben den schon bekannten Schäden durch Windturbinen weitere Kollateralschäden zu befürchten. Es sollte sich allmählich herumsprechen: Grüne Energien schädigen massiv die Umwelt!

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressesprecher

Related Files




Streit bei der Acatech über Klimaforschung: Eine Frage der Ehre oder der wissenschaftlichen Etikette?

Zuerst ein Auszug aus der Stuttgarter Zeitung zur Klärung der unterschiedlichen Standpunkte, die zu dem Eklat führten. Sie titelte am 11.9.2012 "Rauhe See in der Klimaforschung" und führt u.a. aus:

"…vier Mitglieder der 43-köpfigen Arbeitsgruppe möchten das Papier nicht mittragen. Acatech hat ihnen angeboten, ein Sondervotum in den Bericht aufzunehmen, doch das haben die vier abgelehnt. Was ist falsch daran, auf die Anpassung an den Klimawandel besonders einzugehen, wenn dieser Punkt, wie es im Bericht heißt, zu einer „effektiven Klimapolitik“ gehört, gleichwohl aber wenig diskutiert wird? Aus dem Gremium ausgetreten sind der Vizepräsident des Deutschen Wetterdienstes, Paul Becker, der Meteorologe Hans von Storch vom Helmholtz-Zentrum für Material- und Küstenforschung sowie zwei weitere Klimaforscher – ein Verlust für die Studie, wie von Storch findet: „Am Ende ist keiner der Autoren ausgewiesener Experte der Klimaforschung.“ In einer eigenen Stellungnahme beschreiben die vier Forscher einen „fundamentalen Dissens“: Ihrer Ansicht nach hat die Klimaforschung die physikalischen Grundlagen von Treibhausgasen und Temperaturanstieg hinreichend geklärt. Acatech hält hingegen fest, dass man nicht abschätzen könne, wie sehr die Sonnenaktivität und Vulkanausbrüche das Klima der vergangenen 150 Jahre beeinflusst haben. Der Weltklimarat hatte es in seinem letzten Bericht als „sehr wahrscheinlich“ bezeichnet, dass der größte Teil des gemessenen Temperaturanstiegs der vergangenen Jahrzehnte auf Treibhausgase zurückgeht.

Nun sind zunächst einmal Klimawandel, Temperaturanstiege und Temperaturabnahmen die natürlichste Sache der Welt. Konstantes Klima und konstante Jahresmitteltemperaturen gab es noch nie und wird es auch in Zukunft nie geben können. Daher ist Anpassung stets ein Gebot der Stunde. Also worum geht es dann? Den Grund, warum die 4 Mitglieder austraten, nennt die Stuttgarter Zeitung wie folgt:

"Ihrer Ansicht (Anm. EIKE: Ansicht der 4 ausgetretenen Klmaforscher) nach hat die Klimaforschung die physikalischen Grundlagen von Treibhausgasen und Temperaturanstieg hinreichend geklärt." 

Im Klartext: Die ausgetretenen Mitglieder sind mit keinen weiteren Erläuterungen zu den Ursachen von Klimawandel als denen des IPCC einverstanden und sehen dafür auch keinen Bedarf. Es sei erlaubt, vehement zu widersprechen. Klärung der physikalischen Grundlagen – absolut einverstanden! Aber Klärung der Ursachen irgendwelcher Temperaturanstiege? – definitiv "NEIN". Außer den Milankovitch-Theorien, die sich nur mit sehr langfristigen Klimaänderungen befassen, ist so gut wie nichts über die Ursachen von Klimaänderungen bekannt. Und selbst hier gibt es unterschiedliche Hypothesen (hier und hier).

Unkenntnis über die Ursachen von Klimawandel ist schließlich der Grund, warum man es mit Klimamodellen versucht. Klimamodelle haben aber noch nicht einmal die Eintrittspunkte von El-Nino-Ereignissen vorhersagen können, und sie fordern den berühmten Hot Spot über den Tropen, der unauffindbar ist. Von einem beweiskräftigen Nachweis, dass anthropogenes CO2 auf Erdtemperaturen einwirkt (gemäß den physikalischen Grundlagen muss es dies in sehr geringem Ausmaß tun) kann noch weniger die Rede sein. Man hat bis heute keinen derartigen Nachweis gefunden – alle Veränderungen sind auch mit natürlichen Einflüssen bestens erklärbar! Klimaveränderungen der Vergangenheit gingen in vielen Fällen nicht nur schneller vonstatten, sie waren zudem auch noch weit heftiger als heute. Die in der Literatur als "attribution and detection problem" bezeichnete Suche nach dem Einfluss des anthropogenen CO2 harrt leider immer noch ihrer Auflösung. Auch wenn es in der Klimaforschung niemand gerne hören will – über die Ursachen von Klimaänderungen wissen wir auch heute noch so gut wie nichts.

Was ist dann daran auszusetzen, wenn ein Mitglied oder gar die Leitung des Acatech-Ausschusses Hypothesen nennt, die nicht dem IPCC-Kanon entsprechen? Bei so viel Unsicherheiten darf es gestattet sein, und als unwissenschaftlich darf man es nicht bezeichnen. Dennoch führt insbesondere Hans v. Storch aus:

"Man hätte die Strategien der Anpassung nicht losgelöst von der Alternative, der Vermeidung von Treibhausgasen, diskutieren dürfen. „Man hätte gleich zu Anfang klarstellen müssen, dass der Anpassungsbedarf steigt, wenn die Emissionen steigen“

Wieso steigt der Anpassungsbedarf, wenn die Emissionen steigen? Dies wäre nur dann der Fall, wenn durch steigende CO2-Emissionen tatsächlich gefährliche Temperatursteigerungen und zunehmende Extremwetterereignisse entstünden. Dieser Zusammenhang ist aber nicht nur ungesichert, er ist nach Auffassung vieler renommierter Klimaforscher unzutreffend. Immerhin sind gemäß IPCC (IPCC-Report, 2001, AR-02, Kap. 2.7 sowie hier) bis heute keine Extremwetterzunahmen bekannt, obwohl die atmosphärischen CO2-Konzentrationen, verursacht durch den Menschen, seit Beginn der Industrialisierung kräftig zugenommen haben . Den physikalischen Grundlagen folgend, müssen wir mit einer globalen Temperatursteigerung zwischen 0.6 und 1.1 °C bei CO2-Verdoppelung rechnen (H.Harde, Geophys. Res. Abstracts, Vol. 13, EGU2011-4505-1, 2011 sowie die IPCC-Reports). Ob diese unmaßgebliche Erwärmung einen Anpassungsbedarf erfordert, der über den sich aus den natürlichen Klimaänderungen ohnehin schon ergebenden Anpassungsbedarf hinausgeht, ist nicht sehr wahrscheinlich.

Wie EIKE bereits mehrfach berichtete, basieren alle weiteren, über die vorgenannten Zahlen hinausgehenden Temperatursteigerungen auf Klimamodellen (Wasserdampfrückkoppelung), die ihren Zuverlässigkeitsnachweis bislang nicht erbringen konnten. Mit physikalischen Grundlagen haben diese Modelle nur wenig zu tun. Hier wurde das seit Galilei bewährte Paradigma der Physik, dass Messungen die Priorität vor Modellen haben müssen, in postmoderner Vorgehensweise außer Kraft gesetzt. Die Öffentlichkeit ist sich nicht einmal bewusst, dass Klimakatastrophen auf einem mittelalterlichen Pradigma der physikalischen Beurteilung (Klimamodelle) beruhen. Man kann es auch ironisch ausdrücken. Die Physik ist in einem Zweig der Klimatologie (Klimamodellierung) inzwischen von der Natur- zur Geisteswissenschaft mutiert.

xxxxxxxxxxxxxxxxxxxxx

Anmerkung und Korrektur des Autors, 20.9.2012: Der in der ursprünglichen Version Prof v. Storch zugeschriebene Blogbeitrag

"hatten sie erwartet mit Leuten wie Vahrenholt ernsthaft zusammenarbeiten zu können? ….. Aber wenn man Vahrenholts Missrepräsentation der Wissenschaft sieht und liest, frage ich mich, wie man da überhaupt eine gemeinsame Diskussionsgrundlage bekommen soll. Es geht gar nicht."

beruht auf einer unbeabsichtigten Verwechslung. Das "@v. Storch" im Blog bedeutet, dass der vorgenannte Text an v.Storch gerichtet, nicht aber von ihm verfasst ist. Der Autor bittet für diesen Irrtum alle Leser und v. Storch – falls er denn den EIKE-beitrag überhaupt zur Kenntnis genommen hat – um Entschuldigung und dankt dem EIKE-Leser Sören Hader für seinen Hinweis auf diesen Irrtum.

xxxxxxxxxxxxxxxxxxxx

Wieso geht es nicht? Wenn Vahrenholt (immerhin Professor für Chemie und somit akademischer Kollege von v. Storch) die Wissenschaft in seinem Buch "Die kalte Sonne" missinterpretiert, sollte man mit ihm darüber wissenschaftlich streiten und vom Gegenteil überzeugen. Alles andere widerspricht der wissenschaftlichen Etikette. Diskussionsverweigerung und Austritte aus Arbeitsgruppen tragen vielleicht zur Ehre einer Gruppe, nicht aber zur wissenschaftlichen Wahrheitsfindung oder gar zur Aufklärung der Öffentlichkeit bei. EIKE bedauert es außerordentlich, dass ausgerechnet ein so renommierter Meteorologe wie Hans v. Storch keinen anderen Weg fand als den Austritt. Bemerkenswerterweise sind nämlich viele Publikationen von v. Storch nicht gerade als mustergültige Befolgung der IPCC-Linie zu bezeichnen (hier und hier).

Die Acatech-Affaire war zweifellos ein Tiefpunkt für Klimawissenschaft und kollegiales Umgehen miteinander. Wir wünschen aus vollem Herzen, dass der Diskurs unter verdienten Forschern (dazu gehören alle Beteiligten) wieder aufgenommen wird und auf allen Seiten mehr Verständnis und Toleranz für andere Positionen als die eigene aufkommen.

Prof. Dr. Horst-Joachim Lüdecke

EIKE Pressprecher




Aktuelles aus der Klimaforschung: Klimaentwicklung ist keine Einbahnstraße

Wie sich die Kohlendioxid-Konzentration in der Atmosphäre im Verlauf der Erdgeschichte entwickelte, lässt sich langfristig an den Kalkablagerungen in der Tiefsee ablesen. Durch die Verwitterung von Gesteinen wird nämlich der Luft Kohlendioxid entzogen. Über die Flüsse gelangt das chemisch gebundene Treibhausgas ins Meer und wird dort als Kalkablagerung gespeichert, zum Beispiel in kalkigen Mikrofossilen. Dieser Prozess führt langfristig zu einer globalen Abkühlung. Das konnten Forscher des Biodiversität und Klima Forschungszentrums (BIK-F) und der Goethe-Universität für die letzten rund 55 Millionen Jahre anhand von Tiefseebohrungen im äquatorialen Pazifik mit bisher unerreichter Genauigkeit belegen.

Parallel zum Übergang vom Supertreibhaus zum Eiszeitalter fiel auch die Meerestiefe, unterhalb der das Kohlenstoffmineral Kalkspat vollständig aufgelöst wird (Karbonat-Kompensationstiefe). Das berichten die Forscher in der aktuellen Ausgabe der Fachzeitschrift Nature. Die Daten stammen aus Tiefseebohrungen in der Region beiderseits des äquatorialen Pazifiks, die für den globalen Kohlenstoffkreislauf äußerst produktiv ist. Während einer viermonatigen Expedition des US-amerikanischen Bohrschiffs JOIDES Resolution im Jahr 2009 bohrten die Expeditions-Teams in Wassertiefen von 4.300 bis 5.100 Metern. Sie entnahmen die Bohrkerne an acht Orten und über insgesamt 6.3 Kilometer Länge. Damit steht ein Klimaarchiv zur Verfügung, das die letzten 55 Millionen Jahre umspannt.

„Wir reden heute viel über das vom Menschen kurzfristig produzierte Kohlenstoffdioxid und die dadurch ausgelöste Klimaerwärmung“, sagt Prof. Heiko Pälike, einer der Expeditionsleiter. Er arbeitet seit Juni 2012 im MARUM – Zentrum für Marine Umwelt der Universität Bremen. „Über Jahrmillionen gesehen bestimmen allerdings andere Prozesse den Kohlenstoffkreislauf.“ Zum Beispiel Vulkaneruptionen, die große Mengen Kohlendioxid in die Atmosphäre ausstoßen. Andererseits sorgt die Verwitterung kalkhaltiger Gesteine dafür, dass Kohlendioxid wieder gebunden und dem Klimakreislauf entzogen wird. Die Bilanz des Kohlenstoffkreislaufs spiegelt sich im Ozean, und zwar in der Karbonat-Kompensationstiefe. Unterhalb dieser Grenze bleiben keine kalkhaltigen Partikel wie Kalkschalenreste von Meeresorganismen erhalten.

Im äquatorialen Pazifik lag die Grenzlinie vor rund 55 Millionen Jahren in 3.300 bis 3.600 Meter Tiefe. Zwischen 52 und 47 Millionen Jahre vor heute, als es auf unserem Planeten besonders warm war, flachte sie sogar bis auf 3.000 Meter Meerestiefe ab. Als die Erde vor 34 Millionen Jahren allmählich abkühlte und sich in der Antarktis erste Eisschilde bildeten, senkte sich die Karbonat-Tiefenlinie im Pazifik ab, und zwar auf bis zu 4.800 Meter vor 10,5 Millionen Jahren.

Die Tiefseeablagerungen belegen eindrucksvoll, dass Klima und Kohlenstoffkreislauf nie eine Einbahnstraße waren: „In den Ablagerungen aus der Zeit, die der großen antarktischen Vereisung vor 34 Millionen Jahren voranging, haben wir fünf Ereignisse beschrieben, in denen sich die Karbonat-Kompensationstiefe kurzfristig zwischen 200 und 900 Metern nach oben und unten bewegte“, sagt der Geowissenschaftler Prof. Jens Herrle, einer der Expeditionsteilnehmer: „Diese Ereignisse, die oft für Erwärmungs- und Abkühlungsphasen stehen, dauerten zwischen 250.000 und einer Million Jahre. Sie sind durch einen Wechsel innerhalb des marinen Planktons von kalkigen zu kieseligen Mikrofossilien gekennzeichnet.“

Aber auch für die jüngere Vergangenheit sind vergleichbare Episoden belegt. So vor rund 18,5 Millionen Jahren, als besagte Karbonat-Tiefenlinie um rund 600 Meter Richtung Meeresoberfläche anstieg – um zweieinhalb Millionen Jahre später wieder auf 4.700 Meter abzusinken. Heute liegt sie im Pazifik bei etwa 4.500 Meter.

Um die Ursachen dieser Schwankungen zu bestimmen, setzte das internationale Wissenschaftlerteam auf Computermodelle, die das System Erde und die wesentlichen dort ablaufenden Prozesse nachbilden. Dies war eine der Forschungsarbeiten der wissenschaftlichen Mitarbeiterin Dr. Cecily Chun aus der Arbeitsgruppe Paläontologie und Biogeochemie von Prof. Jens Herrle an der Goethe-Universität.

Publikation: Heiko Pälike et al.: A Cenozoic record of the equatorial Pacific carbonate compensation depth, in Nature DOI: 10.1038/nature11360

Veröffentlichung auf der Webseite der Universität Frankfurt mit weiteren Hinweisen zur Arbeitsgruppe Prof. Jens Herrle hier.