Kann das IPCC revolutionäre Wissenschaft durchführen?

Die SPM-Ausgabe, die den Regierungen am 2. August übermittelt worden ist, kondensiert auf 22 Seiten den Inhalt der 14 Kapitel im AR 5, in denen wissenschaftliche Studien zusammengefasst werden, die zwischen 2006 und dem 15. März 2013 veröffentlicht worden sind.

Diese SPM ist (oder könnte es sein) ein Dokument von welterschütternder Wichtigkeit. Wie Bloomberg sagt: „Sie ist dazu gedacht, von Ministern herangezogen zu werden, die bis 2015 einen globalen Vertrag zum Kampf gegen den Klimawandel aushandeln sollen“.

Der Zeitrahmen für den globalen Vertrag wurde auf der Doha-COP verschoben, weil Entwicklungsländer (vor allem China und Indien) den Eindruck hatten, dass die SPM 2013 eine unverzichtbare Grundlage der Verhandlungen sein sollte. Regierungen brauchen eine autoritative, aktualisierte Zustandsbeschreibung sowohl des Ausmaßes als auch der Gründe der Bedrohung durch den Klimawandel, und zwar jetzt und in Zukunft.

Aber die SPM wurde eingerahmt von momentanen Klimaänderungs-Ereignissen, die nach Redaktionsschluss im März aufgetreten waren – und selbst noch, nachdem die Fassung in Umlauf gebracht worden war.

Klimasensitivität

Das Thema Ausmaß der Erwärmung” konzentriert sich immer mehr auf die Frage, wie sensitiv der Planet auf die zunehmende CO2-Konzentration reagiert. Die Gleichgewichts-Klimasensitivität [equilibrium climate sensitivity (ECS)] wurde im Jahre 1979 von Charney grob geschätzt mit 3,0 ±1,5 angegeben, und diese Bandbreite wurde mehr oder weniger in allen vier IPCC-Zustandsberichten zuvor beibehalten.

Während des Jahres 2012 haben viele Forschergruppen darauf hingewiesen, dass neueste Daten und moderne Diagnose-Methoden jetzt gezeigt haben dass die 30 Jahre alte Schätzung von 3°C erheblich übertrieben war. Begutachtete Studien waren unter anderen:

● Ring et al.: Schätzungen der Klimasensitivität liegen zwischen 1,5°C und 2°C.

● Van Hateren: Die Sensitivität im Maßstab eines Jahrtausends beträgt 2,0°C ±0,3°C

● Aldrin et al.: Das 90%-Intervall liegt zwischen 1,2°C und 3,5°C mit einem Mittelwert bei 2,0°C.

Dies führte natürlich zu großen Meinungsverschiedenheiten und wurde zur wesentlichen Herausforderung, der sich die Leitautoren der WG1 gegenüber sahen. Obwohl wir noch nicht wissen, wie sie am Ende reagiert haben, zeigt eine durchgesickerte Kopie der SPM-Ausgabe, dass sie im Wesentlichen der langzeitlichen Orthodoxie verhaftet blieben.

Im Januar 2013 berichteten britische Medien, dass das UK Met. Office UKMO eine 20-jährige Pause der globalen Erwärmung bis zum Jahr 2017 projiziert hatte. Dieser ‚Stillstand’ war von den Klimamodellen nicht simuliert worden. Im Februar musste der IPCC-Vorsitzende Pachauri einräumen, dass der Temperaturverlauf schon seit 17 Jahren flach verlaufen war. Ihm zufolge wäre ein Stillstand von 30 Jahren erforderlich, um den bisherigen Konsens zu verwerfen.

Sowohl das Thema „Grund” als auch „Ausmaß” hängen stark von der Validität der Klima-Simulationen durch das derzeitige Coupled Model Intercomparison Project (CMIP5) ab, wie auch alle anderen IPCC-Projektionen der zukünftigen planetaren Temperaturen und deren Auswirkungen. Seriöse wissenschaftliche Zweifel sowohl an den mit ECS zusammen hängenden Inputs als auch an der Genauigkeit der Temperaturberechnungen wären fatal für die Glaubwürdigkeit des AR5.

Nach Redaktionsschluss für WG1-Studien haben nachfolgende Studien aus diesem Jahr 2013 starke Bedenken hinsichtlich der übertriebenen Klimasensitivität wiederbelebt:

● Otto et al.: Die beste Schätzung der Sensitivität liegt um 30% unter dem CMIP5-Multimodell-Mittelwert.

● Forster et al.: Die Analyse von CMIP5 zeigt, dass 2/3 über der ‚Wahrscheinlichkeits’-Bandbreite von Otto liegen.

● Masters: Mittlere Schätzung von ECS beträgt 1,98°C.

● Lewis: verbesserte Methoden zeigen einen Wert um 1,6 K [show the mode and median to be 1.6K].

In einer Anhörung vor dem Kongress zitierte Judith Curry die Hawkins-Graphik, die beobachtete Trends unter 90% der CMIP5-Projektionen zeigt, und weist darauf hin, dass die Erwärmung bis zur Mitte des Jahrhunderts nicht wieder einsetzen könnte. James Hansen ordnet den ‚Stillstand’ einer Kombination natürlicher Variabilität und niedrigerer Sensitivität zu, sagt aber vorher, dass „die Temperatur während der nächsten paar Jahre mit der nächsten El Nino-Phase wieder signifikant steigen werde“.

Temperatur-Stillstand

Der Temperatur-Stillstand war seit vielen Jahren aus den Daten offensichtlich, aber der Standesdünkel der Klimawissenschaft hielt es nicht für nötig, dies zu erwähnen – bis zur öffentlichen Enthüllung Anfang 2013. Einmal ausgesprochen bedurfte es einer Erklärung – und dann wurde klar, dass es einen großen Mangel an Forschungen hierzu gab. Bis die Forscher in der Lage waren, diese Lücke zu füllen, war die SPM-Ausgabe bereits verteilt worden.

Im August 2013 erschien eine ganze Flut sehr einflussreicher Studien:

● von Storch & Zorita [1] fanden, dass die beobachteten Temperaturen von 1998 bis 2012 nicht konsistent waren mit 23 getesteten CMIP3 und CMIP5-Modellen, selbst auf dem 2%-Vertrauensniveau. Die Inkonsistenz nahm rapide zu mit der Trendlänge, und ein 20-Jahres-Trend (d. h. bis zum Jahr 2017) würde außerhalb des Ensembles aller vom Modell simulierten Trends liegen.

● von Storch & Zorita (die gleiche Studie) folgern, dass die ‚natürliche’ Variabilität und/oder externe Antriebe möglicherweise die anthropogene Erwärmung während des Stillstands unterbrochen haben. Eine überschätzte Sensitivität kann ebenfalls einen Beitrag dazu geleistet haben.

● Tung & Zhou [2] berichteten, dass „die zugrunde liegende anthropogene Gesamt-Erwärmungsrate seit 1910 konstant 0,07 bis 0,08°C pro Jahrzehnt betragen habe, mit überlagerten, mit der AMO zusammen hängenden Auf- und Abwärtsbewegungen…“. Die stark gestiegenen CO2-Konzentrationen der letzten Jahrzehnte haben nicht dazu geführt, dass sich die Erwärmung nicht wie von den Modellen vorhergesagt beschleunigt hat.

● Yu Kosaka & Shang-Ping Zie [3] konnten plausibel zeigen, dass die Klimamodelle die natürliche Variation erheblich unterschätzt haben. La Nina-Kaltphasen im Ostpazifik während des 21. Jahrhunderts (seit die PDO negativ geworden ist) haben die projizierte Treibhaus Erwärmung bezwungen. Der Erwärmungstrend von 0,68°C während der Jahre von 1975 bis 1998 (als die PDO positiv war), würde sich aus 0,4°C aus natürlichen und lediglich 0,28°C aus anthropogenen Gründen zusammensetzen [4].

● Katz et al. [5] sagen, dass die vom IPVV verwendeten kritischen Unsicherheits-Messungen „deutlich über ein Jahrzehnt überholt“ sind. Moderne statistische Verfahren könnten die Zustandsbeschreibungen „dramatisch“ verbessern.

● Fyfe, Gillet & Zwiers [6] konzentrierten sich auf die außerordentliche Lücke zwischen den Temperatursimulationen von 37 CMIP5-Modellen und den beobachteten Daten. Infolge einer ‚Kombination von Fehlern’ haben die Modelle die Erwärmung während der vergangenen 20 Jahre zu 100% und während der letzten 15 Jahre um 400% überschätzt.

Die Revolution kommt…

Diese neuen Studien zerschlagen die IPCC-Orthodoxie, dass die gegenwärtigen und zukünftigen globalen Temperaturen hauptsächlich durch Treibhausgas-Emissionen getrieben und später in diesem Jahrhundert ein gefährliches Niveau erreichen werden. Andererseits sind alle älteren Studien völlig überrumpelt worden durch ihr offensichtliches Scheitern, die gegenwärtigen Daten (den Stillstand) einzubeziehen.

Im IPCC-Bericht aus dem Jahr 2001 wurde besänftigt [7]: Bei der Klimaforschung und –modellierung haben wir es mit einem gekoppelten, nicht linearen, chaotischen System zu tun, weshalb eine langzeitliche Vorhersage des künftigen Klimas nicht möglich ist. Was wir noch am ehesten ereichten können, ist die Vorhersage der Wahrscheinlichkeits-Verteilung möglicher zukünftiger Zustände des Systems durch die Erzeugung von Ensembles von Modell-Lösungen. Dies reduziert die Klimaänderung auf das Beurteilungsvermögen signifikanter Unterschiede in den Statistiken solcher Ensembles.

Die Hypothese der „gefährlichen anthropogenen globalen Erwärmung” DAGW basiert auf einem eindeutigen Unterschied zwischen den CMIP5-Modellläufen mit natürlichen plus anthropogenen Antrieben im Vergleich zu natürlichen Antrieben allein. Dieser Unterschied verschwindet, wenn die Ensembles so adjustiert werden, dass sie gegenwärtige empirische Daten reflektieren. Es ist ziemlich wahrscheinlich, dass die natürliche Variabilität (einschließlich natürlicher Antriebe) die anthropogenen Effekte immer marginalisiert hat und dass dies auch in der gesamten Zukunft so ist.

In seinem Aufsatz aus dem Jahr 1962 mit dem Titel The Structure of Scientific Revolutions hat Thomas Kuhn überzeugend dargelegt, dass sich Wissenschaft nicht durch die lineare Akkumulation von Wissen auszeichnet, sondern periodische Umwälzungen oder ‚Paradigma-Änderungen’ durchläuft.

Nach Kuhns Ansicht wird es während langer Perioden normaler Wissenschaft keine Beweise geben, die inkompatibel mit dem gerade herrschenden Paradigma sind. Wenn sich jedoch Anomalien häufen, erreicht die Wissenschaft vielleicht eine Krise, die die notwendige Akzeptanz eines neuen Paradigmas befeuert, in dessen Rahmen sowohl die alten als auch die neuen Ergebnisse eingepasst werden. Kuhn nennt das den umgestaltenden Punkt; revolutionäre Wissenschaft.

Das Jahr 2013 führt in eine seit langem verspätete Revolution der Klimawissenschaft. Ein neues Paradigma wird gefordert, das anerkennt, dass AGW nichts weiter ist als eine nicht-deterministische Komponente in einem ‚nicht linearen, chaotischen System’.

Umgang mit der Paradigma-Änderung

All dies hinterlässt das IPCC in einer schlimmen Fessel hinsichtlich seines Treffens im September. Sollte es:

● eine SPM einstampfen, die von den Ereignissen überrollt worden ist?

● einen wesentlichen Vorbehalt hinsichtlich des Status’ im März 2013 hinzufügen und einen Anhang in Aussicht stellen, in dem nach Redaktionsschluss erschienene Studien behandelt werden, oder

● sollte es das Treffen verschieben, um ein Crash-Programm abzufassen, mit dem sowohl der Technical Report der WG1 als auch die daraus resultierende SPM umgeschrieben werden kann?

‚Business as usual’ ist die schlechteste Option. Angesichts der harten internationalen Verhandlungen, die auf diesem Dokument aufbauen, ist es viel besser, das Erscheinen dieses Dokuments zu verschieben, als dass es falsch im Umlauf ist – oder unhaltbar. Keine Regierung kann weit reichende politische Entscheidungen treffen, die auf einem Bericht basieren, von dem man weithin glaubt, dass er schon vor seinem Erscheinen obsolet ist.

Ein Zwischenbericht würde ein ähnliches Glaubwürdigkeits-Defizit aufweisen. Schon jetzt [8] haben die Umweltministerien in den USA und Europa formell mehr Klarheit über den „Erwärmungs-Stillstand“ angefordert und das IPCC aufgefordert, die gesamte Information in die SPM zu stecken.

„Die jüngste Verlangsamung des Temperaturtrends ist gegenwärtig ein Schlüsselthema, und doch ist es nicht in geeigneter Weise in der SPM angesprochen worden”, sagte die EU.

Obwohl es in der Ausgabe heißt, dass der Trend nachgelassen hat, sind die Implikationen unklar – was die USA zu dem Kommentar veranlasst hat: „es steht eine Reihe von Zahlen im Raum ohne konkrete Schlussfolgerung“.

Viele Staaten, einschließlich China, trachten nach Informationen über die Wärmeaufnahme in den Ozeanen oder andere natürliche Veränderungen, die die Daten zur Klimaänderung unterdrückt haben.

In der SPM-Ausgabe fehlt offensichtlich jeder Hinweis darauf [9], dass die 30-Jahres-Erwärmungstrends in jedem Jahr abgenommen haben seit dem Spitzenwert im Jahr 2003. Oder darauf, dass die jüngste 10-Jahres-Periode (2003 bis 2012) die kälteste Dekade seit Beginn von Satellitenaufzeichnungen im Jahr 1979 ist [10].

WG1 ist schon lange dafür bekannt, unbequeme Forschungsergebnisse zu ignorieren mit der Begründung, dass die Ergebnisse ‚isoliert’ sind oder in obskuren Journalen veröffentlicht worden sind.. Das kann kaum für die Studien im August gelten. Alle mit einer Ausnahme waren von Nature Climate Change akzeptiert worden. Viele der Autoren haben aktiv Beiträge zu den IPCC-Berichten geliefert, wobei Zwiers derzeit ein Vize-Vorsitzender der WG1 ist und Fyfe ein Herausgeber von Begutachtungen.

Revolutionäre Klimawissenschaft ist im Gange. Die Frage ist jetzt, ob das IPCC dieser Herausforderung gewachsen ist.

[1] http://www.academia.edu/4210419/Can_climate_models_explain_the_recent_stagnation_in_global_warming

[2] http://www.pnas.org/content/early/2013/01/22/1212471110.short

[3] http://www.nature.com/nature/journal/vaop/ncurrent/full/nature12534.html

[4] See http://judithcurry.com/2013/08/28/pause-tied-to-equatorial-pacific-surface-cooling

[5] http://www.nature.com/nclimate/journal/v3/n9/full/nclimate1980.html?WT.ec_id=NCLIMATE-201309

[6] http://www.nature.com/nclimate/journal/v3/n9/full/nclimate1972.html?WT.ec_id=NCLIMATE-201309

[7] 14.2.2.2 WG1 TAR IPCC

[8] http://www.bloomberg.com/news/2013-08-29/global-warming-slowdown-data-sought-in-un-climate-report.html

[9] http://www.quadrant.org.au/blogs/doomed-planet/2013/08/if-warmists-would-only-tell-the-truth

[10] http://www.skepticalscience.com/trend.php

Link: http://wattsupwiththat.com/2013/08/31/can-the-ipcc-do-revolutionary-science/

Übersetzt von Chris Frey EIKE




Energiewende wirkt: Lt. DIHK Umfrage sehen deutsche Unternehmen deutlich mehr Risiken als Chancen

Wen erinnert diese verbale Hampelei nicht an das Gefasel nach dem Untergang des sozialistischen Ostblocks, der Sozialismus sei richtig nur "schlecht gemanagt". Deswegen müsse nun ein „dritter Weg“ versucht werden. Dass rd. 25 % der Unternehmen angeben auf irgendeine Weise ihr Geschäft ins Ausland zu verlegen wird ebenfalls berichtet. Aber kommentiert mit der Botschaft: Die Wirtschaft stellt sich der Herausforderung Energiewende.

Lesen Sie hier den vollen Wortlaut der Presseerklärung der DIHK

(05.09.2013) Die Wirtschaft stellt sich der Herausforderung Energiewende.

Das belegt eine aktuelle Umfrage der Industrie- und Handelskammern (IHKs). Die Erhebung zeigt aber auch, dass steigende Energiepreise und Risiken bei der Versorgungssicherheit die Wettbewerbsfähigkeit vieler Unternehmen gefährden.

Die Wirtschaft blicke "mit Sorge" auf die politische Umsetzung der Energiewende, berichtete Eric Schweitzer, Präsident des Deutschen Industrie- und Handelskammertages (DIHK), der das zweite "IHK-Energiewende-Barometer" heute in Berlin vorstellte.

An der Umfrage beteiligten sich 2.400 Betriebe aller Größenklassen, Branchen und Regionen in Deutschland. Sie bewerteten die Auswirkungen der Energiewende auf ihre Wettbewerbsfähigkeit auf einer Skala von minus 100 bis plus 100 mit minus 11 und damit marginal besser als im Herbst 2012.

"Nur ein kleiner Teil der Unternehmen sieht mehr Chancen als Risiken", berichtete Schweitzer vor dem Hintergrund, dass nur 16 Prozent der Befragten die Auswirkungen die Energiewende als positiv oder sehr positiv für das eigene Unternehmen betrachten.

"Die insgesamt aber skeptische Einschätzung hängt vor allem mit steigenden Energiepreisen und Befürchtungen hinsichtlich der Versorgungssicherheit zusammen", sagte der DIHK-Präsident. "Hinzu kommt: Die Unternehmen können sich auf politische Entscheidungen immer weniger verlassen." Er kritisierte, dass das gesamte Regelwerk der Energiewende "permanent in der Diskussion" stehe.

Doch ließen sich die Unternehmen nicht entmutigen, so Schweitzer. Sie stellten sich zunehmend auf die Energiewende ein und würden selbst aktiv – vor allem mit Maßnahmen zur Steigerung der Energieeffizienz, aber auch über den systematischen Einsatz energieeffizienter Produkte und Dienstleistungen.

An die Politik formulierte der DIHK-Präsident drei Hauptforderungen: Es gelte, den Netzausbau voranzubringen, den Anstieg der Strompreise zu stoppen und die politischen Ziele und Maßnahmen innerhalb der Bundesregierung sowie zwischen Bund und Ländern aufeinander abzustimmen.

"Die Energiewende ist durch viele Baustellen gekennzeichnet", resümierte Schweizer. "Dennoch bin ich optimistisch, dass dieses spannende Projekt zu einem Erfolg werden kann. Das verspricht im Idealfall eine höhere Wertschöpfung in Deutschland."

Mit Dank an Spürnase Pierre Gosselin von notrickszone

Ergänzung

Auch der Handel fürchtet die Energiewendefolgen und fürchtet den Verlust von vielen Arbeitsplätzen auf Grund des Kaufktaftverlustes der Kunden und höhere Energiekosten für die Unternehmen, berichtet u.a. die FAZ:

Folgen der EnergiewendeHändler sehen Arbeitsplätze durch teuren Strom gefährdet

Die Einzelhändler sehen sich durch den Anstieg der EEG-Umlage zur Förderung von Wind- und Sonnenenergie gleich doppelt belastet. Einerseits bleibt den Konsumenten dadurch weniger Geld für Einkäufe im Portemonnaie, andererseits muss die Branche selbst mehr für den Strom zahlen. Immerhin benötigen die Einzelhändler im Jahr rund 35 Terawattstunden Strom, um ihre Geschäfte zu beleuchten oder Lebensmittel zu kühlen.




Wie Anti-Fracking-Aktivisten die Wissenschaft leugnen: Sicherheit von Bohrlöchern

“When you create doubt, no matter how specious your argument is…it doesn’t matter if you go out and say something ridiculous. … The whole purpose is to create inaction and create a feeling that we do not know what is happening when we actually know exactly what’s happening.”

Josh Fox, director of Gasland and Gasland Part II**

[*HINWEIS: Die Links oben sowie auch mehrere der im Text Folgenden ließen sich von mir auch im Original nicht anklicken. Ich gebe die Hyperlinks hier aber trotzdem. Vielleicht gibt es ja unter den LeserInnen einen Computerfreak, der mit so etwas umzugehen weiß. Siehe auch die Bemerkungen am Schluss des Beitrags.

**Das Zitat von Josh Fox steht im Original ganz am Anfang. Ich habe es mir erspart, diesen gefährlichen Unfug zu übersetzen. A. d. Übers.]

Um sicherzugehen, haben wir dieses Thema ausführlich auch schon zuvor behandelt, und zwar hier, hier und hier. Aber immer noch sehen wir Aktivisten, die von außerordentlich vielen Fehlschlägen berichten als Mittel, die Öffentlichkeit zu ängstigen und darüber hinaus die gesamte Entwicklung zum Stillstand bringen zu wollen.

Zweifellos ist die am meisten angeführte Quelle dieser Behauptung der Anti-Fracking-Aktivist Tony Ingraffea, der sehr oft behauptet hat, dass „Industriedokumenten“ zufolge bestehende Bohrlöcher astronomische Leck-Raten aufweisen. Yoko Ono hat dem Herausgeber der New York Times einen Brief geschrieben, in dem sie Ingraffeas „Forschungen“ unterstreicht, und wir alle wissen um den Kurzfilm „The Sky Is Pink” von Josh Fox, der sich auf die gleichen Informationen stützt. Der Sierra Club hat seine Mitglieder aufgefordert, Ingraffeas Arbeiten zu den Leck-Raten zu lesen, und Food & Water Watch behaupten, dass 50 Prozent aller „Fracking-Löcher“ innerhalb von 30 Jahren lecken.

Die Realität jedoch ist, dass diese Anti-Fracking-Aktivisten die Öffentlichkeit absichtlich in die Irre führen hinsichtlich der Sicherheit der Bohrlöcher und der Leck-Raten.

Eines von Ingraffeas „Industriedokumenten” ist eine Jahrzehnte alte Karte von der inzwischen gelöschten Firma Mineral Management Service MMS. Sie haben vielleicht nicht viel von MMS im Zusammenhang mit hydraulischem Brechen gehört, weil ihr Zuständigkeitsbereich offshore lag und nicht onshore, wo das Große Schiefer die Hauptrolle spielt. Tatsächlich war die Karte eine Zustandsbeschreibung von Tiefwasser-Bohrlöchern im Golf von Mexiko, und in der Legende hieß es explizit, dass „Bohrstellen an Land“ ausgeschlossen seien.

Allerdings wird die Lage für den sog. „Zement-Gottvater” Tony Ingraffea und seine aktivistischen Nachfolger sogar noch schlimmer. Die in der Karte gezeigten Daten waren keine Beispiele von Lecks, sondern vielmehr Beispiele von etwas, das als Sustained Casing Pressure SCP bekannt ist. Jeder mit nur grobem Hintergrundwissen der Öl- und Gasindustrie weiß, dass SCP der Druckanstieg in einem Bohrloch ist; es ist nicht das Gleiche wie ein leckendes Bohrloch und zeigt auch nicht an, dass ein Bohrloch leckt.

Es gibt auch viele Möglichkeiten, mit SCP umzugehen. Woher wir das wissen? Weil im gleichen Artikel, der Ingraffeas Karte enthielt, ausschließlich erklärt worden war, wie die Industrie SCP verhindern, reduzieren oder messen kann.

Die gesamte Basis für die Behauptung „die Hälfte aller Schiefer-Bohrlöcher leckt“ besteht aus Daten, die sich weder auf Schiefer noch auf Lecks beziehen.

Wie sich herausgestellt hat, stehen die Behauptungen hoher Leck-Raten seitens der Aktivisten auf so zweifelhaften Füßen, dass nicht einmal ihre eigenen Aussagen übereinstimmen. In einer Kolumne für USA Today schrieb Josh Fox, dass an fünf Prozent der Bohrlöcher „das Betonieren unmittelbar fehlgeschlagen ist“. Acht Monate später verachtfachte sich diese Zahl, als Fox DemocracyNow! gesagt hat, dass „die Verschalung zum Schutz des Grundwassers in 40 Prozent aller Fälle Risse hatte“. Im gleichen Monat hat Fox Al Jazeera gesagt, dass die Fehlerrate näher an 50 Prozent liege (20:16). In seinem Kurzfilm „The Sky is Pink“ (09:23) führte Fox eine neue Zahl ein: 16,7 Prozent. Und schließlich hat Fox auf seiner Reklametour für seinen Film Gasland Part II Platts gesagt, dass die Rate weltweit tatsächlich bei 35 Prozent liege, wobei er sich auf die Society for Petroleum Engineers SPE bezog.

Der letzte Punkt ist bemerkenswert, weil Fox und viele Andere versucht haben, ihre Glaubwürdigkeit zu untermauern mit der Nennung ihrer Quelle. Aber SPE bestreitet, eine solche Einschätzung jemals vorgenommen zu haben. Im Juli 2013 sagte eine Sprecherin von SPE Daily Kos:

„Weder SPE noch irgendjemand, der SPE repräsentiert, hat jemals die Behauptung aufgestellt, dass 35% aller Bohrlöcher (Öl und Gas) lecken. Wir haben keinerlei Basis für eine solche Bestimmung!“

Wenn man auf die realen Daten schaut, kann man erkennen, warum Gegner zu solchen groben und frei erfundenen Mitteln greifen mussten.

Einem Bericht vom Ground Water Protection Council vom August 2011 zufolge wurden über 34000 Bohrlöcher im US-Bundesstaat Ohio zwischen 1983 und 2007 untersucht sowie über 187000 Bohrlöcher in Texas zwischen 1993 und 2008. Die Daten zeigen lediglich 12 Störungen in Ohio, die auf Fehler (oder graduelle Erosion) in der Verschalung hindeuten – das ist eine Fehlerquote von 0,03 Prozent. In Texas betrug die Fehlerrate nur etwa 0,01 Prozent.

Übrigens war es zu den meisten dieser Störungen vor der Einführung moderner Technologie und aktualisierten staatlichen Vorschriften während des letzten Jahrzehnts gekommen.

Garantiert: Eine Fehlerrate von irgendetwas über Null erfordert Verbesserungen, und es gab Fehler in der Verschalung an verschiedenen Stellen im Land. Das sind ernste Dinge, und strenge Regeln und Vorschriften sind hinsichtlich dieser Risiken in Kraft, die diese minimieren sollen. Tatsächlich gehen wesentliche Förderstaaten wie Texas mit aktualisierten Vorschriften für Bohrungen voran, um sicherzustellen, dass diese und andere potentielle Risiken ordnungsgemäß beachtet werden. In Pennsylvania, das dabei ist, zum zweitgrößten Gaserzeuger in den USA zu werden, hat man die Vorschriften bereits im Jahre 2011 aktualisiert.

Die Industrie hat auch eine Reihe von Anforderungen und Erfahrungen übernommen und veröffentlicht. Die Marcellus Shale Coalition hat ein Dokument angefertigt, in dem angemessene Aktionen umrissen werden, und das American Petroleum Institute hat eine lange Liste mit Richtlinien zur Konstruktion und Sicherheit von Bohrlöchern erstellt. Darin finden sich auch Aktionen, die Risiken der Bohrloch-Sicherheit zu minimieren oder vollständig zu eliminieren.

Der aktivistische Standpunkt zu Sicherheitspannen bei Bohrungen basiert nicht auf Wissenschaft oder harten Daten. Er ist eine vollständig ausgedachte Geschichte und besteht aus einer ganzen Reihe irreführender oder glatt falscher Behauptungen, gedacht, Zweifel in den Gehirnen der Öffentlichkeit zu wecken hinsichtlich der Sicherheit der Entwicklung von Schiefer. Es handelt sich nicht um eine Diskussion über Sicherheit oder auch nur Sicherheits-Management und schon gar nicht um einen vernünftigen Dialog über Sicherheit.

Einfach gesagt, die Gegner hoffen, dass die Öffentlichkeit zu dumm ist, um eigene Nachforschungen an- und dabei festzustellen, wie weit die Behauptungen der Gegner von der Wirklichkeit entfernt sind.

Steve Everley currently serves as team lead and national spokesman for Energy In Depth (EID), a research and education program of the Independent Petroleum Association of America. EID focuses on informing key public audiences about the promise and potential of responsibly developing America’s onshore energy resources – especially the abundant sources of oil and natural gas from shale and …

Link: http://tinyurl.com/osbdwdv

Übersetzt von Chris Frey EIKE

Bemerkung: Wie oben erwähnt, handelt es sich bei diesem Beitrag um den vierten Teil einer ganzen Serie. Gerne hätte ich die anderen Teile auch geschaut, aber die Links sind eben nicht erreichbar.

Aber unabhängig davon beleuchtet dieser Artikel indirekt die verbrecherischen Machenschaften der Anti-Fracking-Aktivisten. Deswegen habe ich diesen Beitrag auch zur Übersetzung ausgesucht. Das wird sicher auch bei den anderen drei Themen so sein. Und das rein Fachliche wird auch in vielen anderen Quellen behandelt.

C. F.




Konsens? Was für ein Konsens?

Die Studie

Während der letzten Monate wurde wiederholt festgestellt, dass 97% aller Wissenschaftler zustimmen, dass die globale Erwärmung real und vom Menschen verursacht ist. Diese Behauptungen basieren auf einer Studie von John Cook et al. in dem Journal Environmental Research Letters. (1)

Die Autoren sind allesamt assoziiert mit der umstrittenen Website der AGW-Aktivisten Skeptical Science. Ihre Schlussfolgerungen lauteten:

Unter den Abstracts, in denen AGW zum Ausdruck kommt, haben 97,1% die Konsensposition geteilt, wonach die Menschen Ursache der globalen Erwärmung sind.

Die Studie erregte außerordentliche Aufmerksamkeit, wurde über 20000 mal während der ersten paar Tage nach ihrem Erscheinen heruntergeladen und hunderte Male im ganzen Internet zitiert. Selbst Präsident Obama bezog sich auf Twitter darauf (2):

@Barack Obama: 97 Prozent der Wissenschaftler stimmen überein: die Klimaänderung ist real, vom Menschen verursacht und gefährlich.

Man muss festhalten, dass Obama mit diesem Statement die Studie von Cook et al. fehlinterpretiert, war doch darin gar nicht davon die Rede, dass die globale Erwärmung gefährlich ist. Außerdem basiert sie auf einer Analyse veröffentlichter Abstracts und nicht auf einer Analyse der Meinungen von Wissenschaftlern. Die Konfusion, worum es in der Studie überhaupt geht, scheint auch Ed Davey erfasst zu haben, den Minister für Energie und Klimaänderung, sagte er doch in einem Interview mit Andrew Neil von der BBC (3):

Wir hatten eine vollständig unbehelligte Ansicht der Leugner der Klimaänderung [So? A. d. Übers.]. Ich denke, dass wir mehr Ausgewogenheit in der Debatte haben sollten, vor allem nach der jüngsten Analyse von 12000 wissenschaftlichen Studien … und von den Wissenschaftlern, die einen Standpunkt genannt haben – dass es sich nämlich um Studien zur Klimaänderung handelte – und von den Wissenschaftlern, die zu 97% den Standpunkt vertreten, dass die Klimaänderung stattfinde und dass Ursache die menschlichen Aktivitäten sind.

Planung

Die erhebliche Aufmerksamkeit der Medien hinsichtlich dieser Studie ist keine Überraschung, war sie doch genau für diesen Zweck geschrieben worden. Anfang 2012 führte ein Sicherheitsloch bei Skeptical Science zu einem internen Forum, auf dem das Personal für die Öffentlichkeit bekannt geworden ist. Von den Teilnehmern gab es viele Diskussionsbeiträge, aus denen später die Studie von Cook et al. geworden ist.

In einer dieser Äußerungen hat Cook festgeschrieben, dass das Ziel der Studie die Etablierung eines wissenschaftlichen Konsens’ hinsichtlich AGW ist:

Es ist unabdingbar, dass die Öffentlichkeit versteht, dass es hinsichtlich AGW einen wissenschaftlichen Konsens gibt. Daher haben die (Aktivisten bei Skeptical Science) Jim Powell, Dana Nuccitelli und ich während der letzten Monate an etwas gearbeitet, von dem wir hoffen, dass es einen das Spiel verändernden Einfluss auf die Meinung der Öffentlichkeit hinsichtlich des Konsens’ hat. Grundsätzlich hoffen wir zum Ausdruck zu bringen, dass es nicht nur einen Konsens, sondern einen sich verstärkenden Konsens gibt (4).

Ein anderer Teilnehmer verlieh seinen Sorgen über die Tatsache Ausdruck, dass die Vermarktung der Studie schon vor der eigentlichen Forschungsarbeit geplant worden ist:

Ich muss sagen, dass ich die Ausarbeitung gewaltiger Marketing-Strategien irgendwie eigenartig finde, wenn wir noch nicht einmal Ergebnisse vorliegen haben und das Forschungsobjekt auch nicht so revolutionär daher kommt (sondern lediglich eine Zusammenfassung bestehender Forschungen ist).

Diese Kommentare zeigen, dass es sich bei dem Projekt nicht um eine wissenschaftliche Untersuchung zur Bestimmung des Ausmaßes der Zustimmung zu AGW gehandelt hat, sondern um eine Übung in Public Relations.

Methodik

Die von Cook et al. verwendete Methodik war es, eine Liste wissenschaftlicher Studien zum Thema Klimaänderung zusammenzustellen und das Ausmaß der Zustimmung zur AGW-Hypothese zu bestimmen. Untersucht wurde lediglich das Abstract jeder Studie. Obwohl es in der Studie hieß, dass die Bewertung der Studien durch ein ‚unabhängiges Bewertungsteam’ erfolgt war, war es in Wirklichkeit ein Team freiwilliger Aktivisten in der Gemeinschaft von Skeptical Science.

Die Definition, wozu genau sich diese Studien zustimmend geäußert haben, war für das Autorenteam problematisch, da es eine weit verbreitete Zustimmung auch unter Skeptikern gibt, dass Kohlendioxid ein Treibhausgas ist und dass die Menschheit daher in der Lage ist, den Planeten zu erwärmen. Der Brennpunkt der Debatte richtet sich auf das Ausmaß der Erwärmung.

Allerdings nimmt die große Mehrheit der Studien zur globalen Erwärmung zu dieser Frage gar nicht Stellung. Daher war die Idee, das Ausmaß des Konsens’ durch eine umfassende Begutachtung der Literatur auf diesem Gebiet zu erfassen, so etwas wie Unsinn. Cook und seine Kollegen waren sich dieses Problems sehr wohl bewusst und haben daher anscheinend beschlossen, eine bewusst vage Definition zu formulieren, auf die sich der Konsens bezieht – ‚dass die Menschen die globale Erwärmung verursachen’. In der Diskussion bei Skeptical Science nannte man das den ‚Porno’-Ansatz:

Okay, wir haben eine AGW-Definition ausgeschlossen, wonach diese ‚einen menschlichen Einfluss spiegelt’ oder ‚zu mehr als 50% einen menschlichen Einfluss spiegelt’. Im Grunde folgen wir Aris Porno-Ansatz (vielleicht sollte ich den nicht mehr so nennen), der da lautet: ‚AGW = die Menschen verursachen die globale Erwärmung’, d. h. keine spezifische Quantifizierung, die der einzige Weg ist, um den Umfang der Studien in Betracht zu ziehen, die wir untersuchen. (5)

Der oberflächliche Konsens

Die Formulierung ‚dass die Menschen die globale Erwärmung verursachen’, kann zwei verschiedene Bedeutungen haben. Ein ‚tief greifender’ Konsens würde bedeuten, dass die gesamte oder der größte Teil der Erwärmung vom Menschen verursacht ist. Ein ‚oberflächlicher’ Konsens würde lediglich implizieren, dass ein unbestimmtes Ausmaß der Erwärmung der Menschheit zugeordnet werden kann.

Differenzen über das Ausmaß irgendeines menschlichen Einflusses stehen im Zentrum der Klimadebatte. Die große Mehrheit der involvierten Personen – Wissenschaftler, Ökonomen, Kommentatoren, Aktivisten, Umweltaktivisten und Skeptiker – akzeptieren, dass Kohlendioxid ein Treibhausgas ist, das unabhängig von allen anderen Dingen den Planeten erwärmen wird. Aber ob dieser Effekt groß oder klein ist, bleibt verborgen und ist Gegenstand einer wilden Debatte. Der durchgesickerte zweite Entwurf des 5. IPCC-Zustandsberichtes zeigt eine Reihe von Abbildungen effektiver Klimasensitivität – das Ausmaß der Erwärmung, das man bei einer Verdoppelung des CO2-Gehaltes erwarten kann. An einem Ende der Bandbreite steht eine Studie des bedeutenden Atmosphärenwissenschaftlers Richard Lindzen, der eine Erwärmung von weniger als 1°C pro Verdoppelung schätzt (6). Wenn das stimmt, würde es bedeuten, dass die Klimaänderung ohne Konsequenzen bleiben wird. Am anderen Ende stehen Schätzungen aufgrund von Computer-Simulationen, die, wenn sie stimmen, katastrophal wären.

Man kann zeigen: Wenn Cook et al. sagen, dass es einen Konsens zu der Aussage ‚die Menschen verursachen die globale Erwärmung’ gibt, übernehmen sie die oberflächliche Definition. Den von den Freiwilligen verwendeten Protokollen zufolge, die diese Studien bewerteten, bestätigte eine Studie den Konsens, wenn man das Konzept der anthropogenen globalen Erwärmung akzeptiert, entweder implizit oder explizit und unabhängig davon, ob das Ausmaß des menschlichen Einflusses auf die Temperatur des Planeten quantifiziert wurde. Die meisten Studien wurden als den Konsens unterstützend bewertet (7), obwohl einige anscheinend als neutral eingestuft worden waren. Eine Studie wurde nur dann als ablehnend bewertet, wenn sie den menschlichen Beitrag minimierte, zum Beispiel durch die Aussage, dass natürliche Mechanismen dominieren oder, expliziter, dass der menschliche Beitrag minimal ist.

Daher gab es in den Klassifikationen eine Asymmetrie. In einigen Studien wurde der Einfluss eines großen oder nicht spezifizierten menschlichen Einflusses als den Konsens stützend eingestuft, und lediglich die den menschlichen Einfluss aktiv minimierenden Studien als den Konsens nicht stützend. Zum Beispiel: Die Anleitung, die man den freiwilligen Bewertern gegeben hatte, zeigt, dass ein Abstract, das die Worte ‚Emissionen einer großen Bandbreite von Treibhausgasen über verschiedene Lebenszeiten tragen zur globalen Klimaänderung bei’, sollten als explizite, aber nicht quantifizierte Stützung des Konsens’ eingestuft werden. Diese Phrase sollte ganz klar irgendein Niveau des menschlichen Beitrags zur Erwärmung implizieren. Dies führt zu der unvermeidlichen Schlussfolgerung, dass der von Cook et al. enthüllte Konsens tatsächlich der Oberflächliche war.

Dieses Verständnis der Cook-Studie wird durch einige überraschende Kategorisierungen individueller Studien bestätigt. Es gab nämlich Studien prominentester Kritiker der Mainstream-Klimawissenschaft, die vermeintlich den Konsens unterstützten. Zum Beispiel wurde eine Studie von Nir Shaviv (8), in der Vergangenheit bei Science Skeptical als ‚Leugner’ bezeichnet (9) eingestuft als ‚stützt den Konsens explizit, quantifiziert oder minimiert’ die globale Erwärmung aber nicht.

Shaviv hat diese Einstufung seiner Arbeit komplett zurückgewiesen:

… es handelt sich dabei nicht um eine akkurate Repräsentation (meiner Arbeit). Die Studie zeigt, dass … die Klimasensitivität gering ist … ich konnte diese Dinge wegen des Refereeing [? Vielleicht tendenziöse Begutachtung?] nicht expliziter in der Studie ausführen. Allerdings muss man kein Genie sein, um diese Schlussfolgerung aus der Studie zu ziehen (10).

Genauso hat auch Alan Carlin, ehemals Mitarbeiter bei der US-Umweltschutzagentur die Einstufung seiner Studie von Cook et al. kritisiert, dass sie explizit die globale Erwärmung stützt, sie aber nicht minimiert. Aus seinem Abstract geht klar hervor, dass seiner Ansicht nach das Kohlendioxid nur eine sehr geringe Erwärmung erzeugt:

Die ökonomischen Vorteile einer Reduzierung der CO2-Emissionen können um zwei Größenordnungen kleiner sein als von den meisten Ökonomen geschätzt, und zwar wegen des Klimasensitivitäts-Faktors … Der ist viel niedriger als von den UN angenommen, weil die Rückkopplung eher negativ als positiv ist, und dass die Auswirkungen der Reduzierung von CO2-Emissionen auf den atmosphärischen CO2-Gehalt eher kurz- als langfristiger Natur sind (11).

Der Umgang mit der Shaviv-Studie ist besonders interessant: der Autor hat die globale Erwärmung im Text nicht aktiv herunter gespielt, weil dies es schwierig gemacht hätte, die Studie durch den Begutachtungsprozess zu bekommen. Nur wegen dieses beredten Schweigens zum Ausmaß des menschlichen Einflusses wurde sie als den Konsens stützend eingestuft, und zwar nach der den Bewertern übergebenen Anleitung.

Aus diesen Kommentaren wird ersichtlich, dass beide Autoren akzeptieren, dass Kohlendioxid ein Treibhausgas ist, dass sie aber auch der Ansicht sind, dass die Klimasensitivität gering ist. Das Beispiel der Unterstützung in den Anleitungen – ‚Emissionen einer großen Bandbreite von Treibhausgasen tragen zur globalen Klimaänderung bei’ – wäre in den beiden Studien nicht gegensätzlich beurteilt. Wieder bleibt der Eindruck zurück, dass die Einstufung korrekt war, was die oberflächliche Natur des Konsens’ bestätigt.

Schlussfolgerungen

Cook et al. sind angetreten, um die Existenz eines überwältigenden Konsens’ zur globalen Erwärmung zu zeigen. Während ihr Ansatz mehr der Public Relations als der wissenschaftlichen Methode geschuldet zu sein scheint, gibt es wenig Zweifel, dass es tatsächlich einen wissenschaftlichen Konsens gibt, allerdings keinen, dessen Existenz die Autoren der Studie der Öffentlichkeit glauben machen wollten.

Das letzte Wort zu dieser Studie wird Professor Mike Hulme erteilt, Gründer des Tyndall Centre, des nationalen Klimaforschungsinstitutes in UK:

Der Artikel von Cook et al. ist unausgereift, schlecht aufgemacht und schlecht durchgeführt. Er verschleiert die komplexe Natur des Themas Klima und ist ein Zeichen des ungemein niedrigen Niveaus der öffentlichen und politischen Debatte in diesem Lande. Der Energieminister sollte dies beim Namen nennen. Er nimmt eine Einteilung der Welt in Kategorien wie ‚richtig’ oder ‚falsch’ vor, genau wie in einer früheren Studie die veröffentlichenden Klimawissenschaftler eingeteilt worden sind in ‚Gläubige’ und ‚Nicht-Gläubige’. Mir scheint, dass diese Leute immer noch in der Welt vor 2009 leben (oder leben wollen). Haben sie nicht bemerkt, dass sich das Verständnis der Öffentlichkeit zum Thema Klima weiterbewegt hat? (12)

Link: http://www.thegwpf.org/content/uploads/2013/09/Montford-Consensus.pdf

Übersetzt von Chris Frey EIKE

References:

1 Cook J et al. ‘Quantifying the consensus on anthropogenic global warming in the scientific literature.’ Environmental Research Letters. 2013; 8 024024

2 Although note that the Obama Twitter account is operated by an activist group called Organising for Action. Their work is endorsed by Obama, but the majority of the tweets on the BarackObama account, including the one in question, are not issued by the president in person.3 Consensus? What Consensus?

3 http://www.bbc.co.uk/news/uk-politics-23405202

4 http://www.populartechnology.net/2013/06/cooks-97-consensus-study-game-plan.html4

5 http://rankexploits.com/musings/2013/the-saga-continues/

6 Lindzen is a member of the GWPF Academic Advisory Council.5 Consensus? What Consensus?

7 The guidance to raters suggests that the words ‘carbon sequestration in soil is important for mitigating global climate change’ should be taken as implicit endorsement.

8 Shaviv, who works at the Hebrew University of Jerusalem, is a member of the GWPF Academic Advisory Council.

9 http://www.skepticalscience.com/examining-the-latest-climate-denialist-plea-for-inaction.html

10 http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html6

11 http://www.populartechnology.net/2013/05/97-study-falsely-classifies-scientists.html

12 http://blogs.nottingham.ac.uk/makingsciencepublic/2013/07/23/whats-behind-the-battle-of-received-wisdoms/




Energiewende – der lange Marsch in die „Große Transformation“

Die Transformation funktioniert nicht wie ein Transformator oder Umspanner, mit dem man Wechselspannungen erhöhen oder verringern kann. Transformation bedeutet Umformung und  will nichts anderes als einen grundlegenden Wechsel der gesellschaftlichen und wirtschaftlichen Ordnung. Das war auch Ziel der 68er Kulturrevolution! Wer das „Unplanbare“ gestalten will, hüllt sich zuallererst in einen unverständlichen Wortnebel. Offenbar hat der, der mit unverständlichen Begriffen „große Sprüche klopft“, in der Politik das Sagen. Doch was bedeutet „Transformation zur Klimaverträglichkeit“? Wie soll das geschehen? Soll die „Energiewende“ die „Klimaverträglichkeit“ befördern? Muss nicht zuerst die Wetterverträglichkeit erhöht werden? Schaut man genauer hin, verletzen diese politischen Kunstbegriffe alle Regeln der logischen Wortbildung.

„Energiewende“ zur „postindustriellen Gesellschaft“?

Der zweite Begriff wurde erstmals von dem französischen Soziologen Alain Touraine im Jahre 1969 geprägt: „La société post-industrielle“. Diese Vorstellung orientierte sich offensichtlich an Richard Cautillion, der 1756 eine „Regierung der Natur“ propagierte und eine ökonomische Theorie entwickelte, die glaubte, den Wohlstand der Nationen allein von der Landwirtschaft herleiten zu können. Er wandte sich gegen den Merkantilismus, das vorherrschende Wirtschaftssystem des Zeitalters des Absolutismus. In der grünen Ökobewegung findet sich dieses Gedankengut wieder, das schon bei Jean-Jacques Rousseau (1712-1778) mit der Parole „Zurück zur Natur“ zu finden ist. Rousseau schrieb 1762 seinen „Contrat social“. Er war einer der wichtigsten Wegbereiter der Französischen Revolution 1789.

Doch was das mit der „Energiewende“ zu tun? Kann man Energie drehen und wenden? Hierzu äußerste sich bereits 1841 Julius Robert Mayer (1814-1878) dahingehend, „dass Energie weder erschaffen, noch vernichtet, sondern nur umgewandelt werden kann“. Mayer bestimmte das „Mechanische Wärmeäquivalent“ und formulierte den „Ersten Hauptsatz der Wärmelehre“. 1847 folgte der „Energieerhaltungssatz“ von Hermann von Helmholtz (1821-1894). Dies geschah in der Frühphase der „Industriellen Revolution“, die von England ausgehend sich mit der Erfindung der Dampfmaschine von James Watt 1769 über die Welt verbreitete. Im Wort Industrie steckt das lateinische Wort ‚industria‘, das Fleiß und Betriebsamkeit bedeutet.

Die Energie, die mit der Fähigkeit Arbeit zu leisten ursächlich verbunden ist, ist unverzichtbar für das Funktionieren einer Industriegesellschaft. Energie ist nötig, um einen Körper zu beschleunigen oder um ihn entgegen einer Kraft zu bewegen, um Körper zu erwärmen und um Gase zusammenzudrücken, um elektrischen Strom fließen zu lassen oder elektromagnetischen Wellen abzustrahlen. Pflanzen, Tier und Menschen benötigen Energie, um leben zu können. Energie braucht man auch zum Betrieb von Computersystemen, zur Telekommunikation und für jegliche wirtschaftliche Produktion. Wohin soll uns die „Energiewende“ führen? In die „postindustrielle Gesellschaft“, die dennoch nicht auf Energie, insbesondere in Form elektrischen Stroms, verzichten kann? Drückt sich hier ein intellektueller Wunschtraum nach Ruhe und Müßiggang in einer „saturierten Welt“ aus? Was bezweckt die Große Transformation wirklich, was wird verschwiegen?

Das Karbonzeitalter und die „De-Karbonisierung“

Das Karbon, auch „Steinkohlezeitalter“ oder „Zeitalter der Farne“ genannt, umfasste etwa 60 Millionen Jahre, von 360 bis 300 Millionen Jahre vor unserer Zeitrechnung. Das damalige Pflanzenwachstum wurde begünstigt von einem etwa 800 ppm betragenden CO2-Gehalt der Luft. Dies ist das Doppelte des heutigen Wertes und mit Sicherheit nicht „anthropogen“ bedingt. Auch gab es einen mehrfachen Wechsel vom Warm- und Kaltzeiten mit erheblichen Schwankungen des Meeresspiegels. Auch hierbei war der Mensch nicht beteiligt! Urwälder wurden also immer wieder von Moränen-Ablagerungen überschüttet, so dass sich dazwischen Steinkohleflöze in mehreren Horizonten bilden konnten. Aus dem Abbau und er Verbrennung der Steinkohle wurde die Energie gewonnen, die zur Entwicklung der Industrien unverzichtbar war. Die bis dahin dominierende Muskelkraft von Mensch und Tieren wurde ins Unermessliche gesteigert. Die das Korn malenden Wassermühlen wie die vom wehenden Wind abhängigen Windmühlen wurden durch kontinuierlich arbeitende Dampfmaschinen ersetzt. Wilhelm Busch (1832-1908) dichtete:

„Aus der Mühle schaut der Müller, der so gerne mahlen will. Stiller wird der Wind und stiller, und die Mühle stehet still. So geht’s immer, wie ich finde, rief der Müller voller Zorn. Hat man Korn, so fehlt’s am Winde, hat man Wind, so fehlt das Korn.“

Bereits 1885 machte sich Rudolf Clausius (1822-1888), der Entdecker des Zweiten Hauptsatzes der Thermodynamik, Gedanken über die Energieversorgung und schrieb eine Abhandlung „Über die Energievorräte der Natur und ihre Verwertung zum Nutzen der Menschheit“. Unsere Vorfahren waren keineswegs blind und haben nur auf die „grüne Erleuchtung“ gewartet. Sie haben sich sehr wohl ernsthaft Gedanken über die Ressourcenausstattung der Erde gemacht. Dies war auch Thema des ersten großen internationalen Geologen-Kongresses im Jahre 1913. Dabei wurde auch das „Gespenst einer künftigen Kohlennot“ erörtert. Man errechnete, dass alle damals bekannten Steinkohlenlager, bis auf 1800 Meter Tiefe abgebaut, theoretisch noch für 6000 Jahre reichen. Diese Zahl wurde korrigiert auf die wirklich nutzbare Kohle, womit die Reichweite auf 1500 Jahre reduziert wurde. Dies gilt zwar im globalen Durchschnitt, aber nicht für die Kontinente und Länder. Während in den Vereinigten Staaten die Vorräte auf 2000 Jahre geschätzt wurden, so werde vermutlich England schon in 200 Jahren keine Kohle mehr haben.

Man machte sich 1913 vor jetzt genau 100 Jahren ernsthaft Gedanken um eine „Welt ohne Kohle“. Man baute keine „Klimakatastrophe“ auf, versprach keinen „Klimaschutz“, versetzte nicht die Welt in Angst und Schrecken, sondern handelte pragmatisch und zielorientiert. Man fragte sich schlicht und einfach: Welche Möglichkeiten bietet die Natur, um den Energiehunger der Menschheit zu stillen? Ganz pragmatisch mit Ingenieurverstand! Vor allem ignorierte man Svante Arrhenius, der bereits 1896 die irrsinnige Hypothese vom „CO2-Treibhauseffekt“ in die Welt gesetzt hatte.

„In hundert Jahren – Die künftige Energieversorgung der Welt“

Dies ist der Titel einer Kosmos-Bändchens, das im Jahre 1931 von Hanns Günther (W. de Haas) veröffentlicht wurde. Er schreibt: „Versuchen wir einmal, uns auszumalen, was „Welt ohne Kohle“ heißt. Vor allem keine Heizung mehr und keine Möglichkeit, zu kochen! Auch nicht mit Gas, das ja gleichzeitig der Kohle entstammt, und ebenso wenig mit Holz, denn unsere Öfen würden alle vorhandenen Wälder in wenigen Jahren fressen. Dann selbstverständlich Unterbindung des Eisenbahn- und Schiffsverkehrs! Aber auch des Verkehrs mit Automobilen und Luftfahrzeugen, denn die Petroleumquellen der Erde sind bis dahin längst erschöpft, und die künstlich erzeugten Treibstoffe entstammen durchweg der Kohle. Weiter würde „Keine Kohle mehr!“ für den größten Teil der Menscheit bedeuten: Kein künstliches Licht, denn da es kein Gas und kein Leuchtöl mehr gäbe und die Elektrizität in den meisten Ländern aus Kohle erzeugt wird, kämen wir wieder zu Kienspan und Tranlampe zurück. Das alles wäre aber immer noch erst der Anfang, denn natürlich kämen auch alle Industrien zum Erliegen, für die man Kohle als Wärmequelle oder Rohstoff braucht. … „Keine Kohle mehr“, heißt also letzten Endes „Verschwinden der Zivilisation“.“

Diese 1931 geschriebene Situationsanalyse hat nicht dazu geführt, dass man in Visionen und Utopien geflüchtet ist, sondern konkret nach Möglichkeiten gesucht hat, „die Kohle aus unserer Energieversorgung auszuschalten“, aber sie „mit größtmöglicher Beschleunigung durch andere Energieträger zu ersetzen“. Es geht um Suche nach dem Ersatz von „Energieträgern“! Noch heute ist erstaunlich, mit welch hohem Maß an ideologiefreier Kreativität, an schöpferischer Intelligenz und technischer Innovationskraft man an dieses Problem der Knappheit heranging.

Welche Alternativen boten sich zu damaliger Zeit – vor 100 Jahren?

Wenn heute Sachverhalte von Politikern als „alternativlos“ dargestellt werden, ist das eher ein Ausdruck fatalistischer Resignation als ein Zeugnis sachorientierter Problemlösungskapazität. Die Akrobatik mit Kunstbegriffen wie „Energiewende“ hilft nicht weiter. Hier können nur kurz die Gedanken umrissen werden, die sich damals kluge Physiker und Ingenieure machten, um das Energieproblem zu lösen. Das Büchlein ist gegliedert in 10 Kapitel:

Nach „Die Welt ohne Kohle“ folgt „Pläne ums Mittelmeer“: Darin werden Pläne von Hermann Soergel (Panropaprojekt Gibraltardamm) und Pierre Gandrillon (Solares Pumpspeicherwerk im Jordantal am Tiberias-See) näher beschrieben. Als drittes wird die Frage erörtert: „Wird es einst Wellenkraftwerke geben?“ Hier geht es um die Nutzung der Kräfte von Brandungswellen und der Meereswellen. Daran schließ sich das Kapitel „Ebbe und Flut im Dienst“ an. Es wird die Funktion des französischen Gezeitenkraftwerks an der Mündung des Diouris bei l’Aberwrach in der Bretagne dargestellt. Zwecks Gewinnung der Gezeitenenergie fand 1930 in Berlin eine Weltkraft-Konferenz statt. Das nächste Kapitel heißt „Gefesselte Zyklone“. Mehr Energie als in den Gezeitenströmungen stecke in der Wärmestrahlung der Sonne, „obwohl unser Wohnstern, der Erde, im Ganzen nur 1/250 000 000 der tatsächlichen Strahlung erhält“. Auf einem km2 Saharafläche lassen sich – die Nutzwirkung nur mit 10 Prozent angenommen – nicht „weniger als 25 000 Jahrespferdestärken gewinnen“. Für den 1970 geschätzten Energiebedarf würden bei Ausnützung der Sonnenwärme 40 000 km2 Saharafläche genügen. Bernard Dubos erkannte, dass das richtige Mittel zur Ausnützung der Sonnenwärme der Wind ist und entwickelte ein Windkraftwerk, das zudem die natürliche Temperaturabnahme mit der Höhe ausnutzte. Das 6. Kapitel befasst sich mit „Die Türme des Windes“, um auch in kälteren Ländern die Windkraft zur Energiegewinnung heranzuziehen, durch Erzeugung senkrechter Luftströme in zylindrischen Türmen. Grund: „Dass die alte Windmühle keine brauchbare „Windmaschine“ ist, weiß jeder. Dasselbe gilt für ihre Nachfolgerung, die Windturbine, die man gleichfalls nur als Kleinkraftmaschine gelten lassen kann.“

Das siebte Kapitel widmet sich den „Tropischen Meeren als Wärmequelle“. Die Überlegungen zur Ausnutzung des Temperaturgefälles zwischen 300-Dampfkessel und 150-Kondensator zwecks Energiegewinnung gehen auf den französischen Physiker Prof. d’Arsonval 1881 zurück. Sie wurden weiterentwickelt und schließlich 1926 der Pariser Akademie der Wissenschaften als Projekt „Georg Claude“ präsentiert. An der Nordküste Kubas wurde eine Versuchsanlage errichtet. Auch wenn das Projekt scheiterte, so heißt es 1931: „Der Energievorrat, den wir in Gestalt der warmen und kalten Wassermassen der Ozeane besitzen, ist nach der Sonnenstrahlung und der Gezeitenströmung sicher die weitaus größte Energiequelle der Erde.“ Dies ist durchaus als Auftrag anzusehen. In dem folgenden Kapitel geht es um die „Kraft aus der arktischen Kälte“. Aufgrund der Überlegung, dass sich aus dem Wärmegefälle zwischen Wasser unter dem Eis und der Luft über dem Eis ähnlich wie zwischen dem Temperatursprung zwischen Oberflächen- und Tiefenwasser in den Tropen Energie gewinnen lasse, entwarf der Physiker Dr. Barjot ein „Eiskraftwerk“. Benötigt wurde ein Stoff, der bei O0 dampfförmig und bei -220 flüssig ist. Hierfür eignet sich „Butan“. Zum Bau eines Barjot-Kraftwerkes ist es nicht gekommen. Das vorletzte Kapitel trägt die Überschrift „Und die Erdwärme?“ Sie wird als Mitgift bezeichnet, „die die Erde erhielt, als sie sich vor Jahrmillionen von ihrer Mutter, der Sonne, trennte“. Im Jahr 1912 baute man in der Toskana bei Lardarello ein „Vulkankraftwerk“, das 1916 eine Maschinenleistung von 12 000 Kilowatt erbrachte. Sir Charles Parsons, der Erfinder der Dampfturbine, entwickelte die Idee, wie man die Erdwärme nach heutiger Technik nutzen kann. Dann kommt „Das letzte Ziel“. Es beginnt: „Die Frage nach der direkten Umwandlung von Wärme in Elektrizität beschäftigt Wissenschaft und Technik schon über 100 Jahre, seit Thomas Seebeck (1770-1831) im Jahr 1821 jene Erscheinung entdeckte, die der Physiker kurzweg „Thermoelektrizität“ nennt. Es werden das Thermoelement wie das Brennstoff-Element vorgestellt und dann das „größte Problem, das die technische Physik noch zu lösen hat: die Nutzbarmachung der inneratomaren Energie durch künstliche Zertrümmerung der Atome“.

Allein dies ist gelungen: Die friedliche Nutzung der Kernenergie! Die Lektüre dieses vor gut 80 Jahren geschriebenen und allgemeinverständlichen Kosmos-Büchleins ist ein Genuss, aber heutige Energiepolitiker müssten sich schämen. Während unsere Zeit auf einer nicht existenten, ja erfundenen „Gegenstrahlung“ eine „Erderwärmung“ als „Eigenerwärmung“ mit der Gefahr einer globalen „Klimakatastrophe“ konstruiert, haben sich frühere Generationen ganz konkret gefragt, wie man die gewaltigen Sonnenkräfte in ihren verschiedensten Formen zur Energiegewinnung nutzen könne. Dabei waren sie extrem ideenreich und vielseitig.

Nichts schildert die positive Einstellung damaliger Zeiten besser als folgende Worte:

„Das sichtbare Inventar ist schnell aufgenommen. Lassen wir die Kohlen, das Erdöl, die Flüsse und Wasserfälle beiseite, so kommen in Betracht: die unendlichen Wärmemengen, die von der Sonne her über die Erde fluten, die ungeheure Glut, die unser Wohnplanet als Mitgift seiner Mutter in seinem Innern birgt, die Strömungen im Luftmeer, die wir Winde nennen, der Wellenschlag der Meere, der sich als donnernde Brandung an ihren Küsten bricht, das ewige Steigen und Fallen der Gezeiten, jene gemeinhin Ebbe und Flut genannte periodische Bewegung des Meeresspiegels, die der Mond mit seiner Massenanziehung zustande bringt.“

In diesen Worten stecken noch ungeheure physikalische und technische Herausforderungen an die Industriegesellschaft! Oder hat deswegen bisher keine einzige Partei Widerspruch gegen den Plan „Große Transformation“ erhoben, weil alle Parteien das post-industrielle Ökoparadies anstreben? Warum wird dieses revolutionäre Ziel verklausuliert und das Volk im Unklaren gelassen?

Oppenheim, im September 2013                                             

Dipl.-Met. Dr. phil. Wolfgang Thüne; Oppenheimer Werkstatt für Wetterkunde