Fakten, welche die Klimapolitik beachten sollte

von Ulrich Wolff Dipl. Physiker
Das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, begründet seine Empfehlungen an die Staatsregierungen der Welt zur Klimapolitik
mit den Ergebnissen von Modellrechnungen. In Abb 1 werden solche Ergebnisse für den Beobachtungszeitraum von 1983 bis 2013 mit dem tatsächlichen Verlauf verglichen. Die fehlende Übereinstimmung wird folgend hinterfragt.
Abb.1  Klimamodelle im Vergleich zur Beobachtung.

1.  Die aktuelle Klimapolitik

Seit es Menschen gibt, war das tägliche Wetter eine überlebenswichtige Vorgabe der Natur, deren Beeinflussung  allenfalls übernatürlichen Autoritäten zustand. Grundlage einer „Klimapolitik“ war stets die erforderliche Anpassung an und Vorsorge für seine ständigen Veränderungen.
Erst in der zweiten Hälfte des vorigen Jahrhunderts führte die auch in der Politik erfolgreich angewandte Methode der „Angst auf Objektsuche“ findige Politiker zur Idee, die Verantwortung für Veränderungen künftig auf menschliches Handeln zu übertragen.
Das Wetter selbst, wie auch seine Statistik der Vergangenheit, mit der das „Klima“ unterschiedlicher „Klimate“ auf der Erde definiert und beschrieben wird, sind dazu als Messlatte einer Bedrohung grundsätzlich ungeeignet, weil meist Veränderungen in gleicher Richtung an einem Ort vorteilhaft, an einem anderen nachteilig sind. Erst mit der Erfindung eines Weltklimas können global die Urängste vor dem Unbekannten, vor  Veränderungen jeder Art erreicht werden. Der Anstieg weder spürbarer noch kaum prüfbarer Jahresmittelwerte für die Temperatur über der Oberfläche der Erdkruste und der Pegelstände der Weltmeere wird sofort als Gefahr verstanden. Dabei war doch z. B. in Deutschland der Anstieg der Temperatur seit der kleinen Eiszeit im Mittelalter ein Segen und seine Fortsetzung würde so manche Vorteile bringen.
Als konkrete Basis und Ausgangspunkt für das Angstobjekt „anthropogener Klimawandel“ dient ein winziger Ausschnitt aus der Klimageschichte, nämlich nur die Periode von 150 Jahren nach dem Beginn der Industrialisierung. Die mittlere Temperatur war während dieses Zeitraums um 0.7 – 0.8 ℃, die Pegelstände der Weltmeere um etwa 20 cm und der CO2 Gehalt in der Atmosphäre um 0,01 Vol.% über den Ausgangswert von 0,03 Vol.% hinaus angestiegen.
Die Parole: „Die Nutzung fossiler Brennstoffe sei die alleinige Ursache dieser in Zukunft dramatisch zunehmenden Veränderungen“. Nur mit den zeitlichen Scheuklappen von 150 Jahren ließ sich diese These gut verkaufen, denn  diese mittlere Temperatur war z. B. seit dem Ende der letzten Eiszeit vor 15.000 Jahren um etwa 5 ℃ und die Meeresspiegel sogar um 120 m angestiegen, ohne dass irgend jemand fossile Brennstoffe verwendet hätte. Assimilation hatte den CO2 Gehalt in der Atmosphäre in der Erdgeschichte sogar von mindestens 25% auf die zu Beginn der Industrialisierung noch existierenden 0,03 Vol.% verringert. Zur Zeit der Saurier waren es sogar mehr als 0,1 Vol.%.
Zur Einführung des neuen Angstobjektes „Klimawandel“ in die Realpolitik der Staaten wurde im Jahr 1988  vom „United Nations Environment Programme (UNEP)“ und der „World Meteorological Organization (WMO)“ das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, installiert. Dieses IPCC soll seither der Welt als Vorgabe für die Politik einen klaren wissenschaftlichen Einblick in den gegenwärtigen Stand der Kenntnisse zur künftigen Klimaänderung verschaffen.
Die Wetterkunde nutzt für ihre Prognosen von Veränderungen in Erdkruste und Atmosphäre komplexe mathematische Modelle auf der Grundlage der Erfahrung aus Beobachtung, Messung und Experiment. Damit gelingt inzwischen die Vorhersage der wahrscheinlichen Veränderungen des Wetters für höchstens eine Woche.
Das zur Autorität erklärte IPCC setzt dagegen auf die Ergebnisse vergleichsweise stark vereinfachter mathematischer Modelle, die monokausal als Folge einer Fortsetzung der Nutzung fossiler Brennstoffe einen Anstieg der mittleren Temperatur über der Oberfläche der Erdkruste von einigen ℃ und der Meeresspiegel um einige Meter prognostizieren. Die globale Nutzung fossiler Brennstoffe sei daher drastisch zu reduzieren, um einen Anstieg der Temperatur auf 2 ℃ zu begrenzen. Dieser Ansatz wird im folgenden Abschnitt hinterfragt.
Die Reaktionen der Staatsregierungen auf diese Forderung des IPCC unterscheiden sich stark. Sie reichen von Ablehnen, Ignorieren, Lippenbekenntnis bis hin zu drastischen politischen Eingriffen in den Energiemarkt, wie das insbesondere Deutschland  – fast im Alleingang – vorführt.
Im Jahr 2014, 26 Jahre nach der Geburt des politischen Angstobjektes „anthropogener Klimawandel“, ist festzuhalten:
Der CO2 Gehalt der Atmosphäre steigt ungebremst weiter und folgt damit vermutlich zum Teil der globalen – und auch in Deutschland – weiter steigenden CO2 Freisetzung. Die mittlere Temperatur in Bodennähe (und auch darüber) über der Oberfläche der Erdkruste ändert sich dagegen seit etwa 18 Jahren nicht mehr.
Wie in Abb. 1 gezeigt, erfassen die Modelle, auf die sich das IPCC exklusiv stützt, diesen klaren Sachverhalt nicht.
Die deutschen Politiker, die ihr Handeln zwar mit ihrem Mandat für die Abwehr von Schäden für die menschliche Gesellschaft begründen, reagieren bisher nicht: „Weil Ihnen und ihren Institutionen der erforderliche Sachverstand fehle, würde man den Empfehlungen des IPCC weiterhin folgen.“

2.        Missverständnisse zur Erderwärmung

Die obere Erdkruste umfasst anteilig  29% Festland und 71% Ozeane mit einer mittleren Wassertiefe von ≈3800m. Lokale Wassertemperaturen bewegen sich  in diesem Volumen zwischen -2℃  und +30℃. An der Oberfläche des kleineren Festlandanteils variieren die Temperaturen dagegen zwischen -90℃ und +60℃. Der geschätzte Mittelwert der Temperaturen über der gesamten Oberfläche der Erdkruste liegt im mehrjährigen Mittel gegenwärtig bei knapp 15℃. (Eine genaue Bestimmung ist nicht möglich, weil dazu die Messmittel fehlen. Über Modellbetrachtungen (hic!) kommt man auf Werte zwischen 12.8ºC to 14.4ºC[1])
Ohne die  Absorption und langjährige Speicherung absorbierter Solarstrahlung, also allein gespeist von Erdwärme, würde diese Temperatur nur -240℃ betragen.
Der Energiefluss der Sonne erreicht die rotierende Erde im Jahresmittel mit einer Intensität von etwa 360 W/m2 an der Oberfläche ihrer Atmosphäre. Davon wird etwa ein Drittel ohne Wirkung direkt in den Weltraum umgeleitet. Gegenwärtig werden daher etwa 240 W/m2 von der Materie zunächst absorbiert, überwiegend in Wärme gewandelt, durchfließen Erdkruste und Atmosphäre und werden entsprechend verzögert als Wärmestrahlung ebenfalls in den Weltraum emittiert. Nur wenn die Energiebilanz der Erde bei diesem Vorgang nicht ausgeglichen ist, ändert sich der Energieinhalt von Erdkruste und/oder Atmosphäre. Das kann – mit entsprechender Verzögerung – sowohl Temperaturen, Eismengen und Meeresspiegel verändern. Diese Erwärmung um ≈255℃ lässt Ozeane und Atmosphäre entstehen. 
Zur Größe der Temperatur, die sich in der oberen Erdkruste einstellt, liefert der atmosphärische Treibhauseffekt einen signifikanten Beitrag. Seine Wirkung verzögert die Durchleitung der Solarenergie durch ihre flüssige und feste Materie zusätzlich.
Die Existenz eines atmosphärischen Treibhauseffektes wurde schon sehr früh richtig erkannt. Die Ursachen seiner Wirkung werden seither diskutiert. Eine Quantifizierung seines signifikanten Beitrages zur Erwärmung ist bisher nicht gelungen. Vermutet wird nur, dass dadurch die mittlere Temperatur über der Oberfläche der Erdkruste um erheblich mehr als nur um 33℃ angehoben wird. In diesem Beitrag wird der Versuch unternommen zu zeigen, dass es vermutlich erheblich mehr sein müsste. [2]
Fakt ist, dass Wolken ständig 60 bis 70% der Erdoberfläche vom Weltraum trennen. Die Projektion der Wasser und/oder Eispartikel in sichtbaren Wolken auf eine Kugelfläche bildet eine geschlossene Schicht flüssiger und/oder fester Materie. Jedes einzelne Partikel emittiert an seiner Oberfläche kontinuierlich Wärmestrahlung in den Raumwinkel von 4π, die gesamte Wolke also jeweils etwa hälftig in Richtung Weltraum und als Gegenstrahlung in Richtung Erdkruste.
Der Energiefluss zu den Partikeln der Wolken umfasst Absorption von Wärmestrahlung aus allen Richtungen, Kondensation, Konvektion und Wärmeleitung.
Eine Reihe von Indizien machen es sehr wahrscheinlich, dass auch an wolkenfreien Teilen der Atmosphäre existierende teils sehr geringe „Feuchte“ in Form sehr kleiner Eispartikel mit dann entsprechend großer Oberfläche ein dort vermutetes Fenster für Wärmestrahlung schließt.( https://de.scribd.com/doc/144664169/Treibhauseffekte)
Es ist offenbar feste und flüssige Materie, die in der Troposphäre[3] eine Wärmesenke entstehen lässt, von der sowohl die Emission in den Weltraum als auch eine Gegenstrahlung etwa gleicher Intensität zur Erdkruste ausgeht und so den atmosphärischen Treibhauseffekt entstehen lässt.
Bleibt die Frage nach dem tatsächlichen Einfluss der mehr als zweiatomigen Spurengase in der Atmosphäre, denen vom IPCC die Ursache für die Entstehung des atmosphärischen Treibhauseffektes zugeordnet wird.
Diese Gasmoleküle sind keine Kontinuumsstrahler. Sie absorbieren und emittieren Wärmestrahlung lediglich an diskreten Wellenlängen.
Sie erhalten und verlieren zudem kinetische Energie durch Stoß, sodass auch Spontanemission erfolgen kann.
Ihre Konzentration in der Troposphäre nimmt – gegenläufig zur Häufigkeit von Aerosolen – mit zunehmender Höhe ab.
Solche Gasmoleküle sind im Volumen der Troposphäre orts- und zeitabhängig mehr oder weniger mit den genannten Aerosolen gemischt.
Mehr als zweiatomige Spurengase interagieren daher sowohl mit Strahlungsflüssen, die von flüssiger und fester Materie an der Oberfläche als auch von den Partikeln in und außerhalb der Wolken emittiert werden.
Von  mehr als zweiatomigen Gasen absorbierte Strahlung wird dem Strahlungsfluss selektiv Energie an diskreten Wellenlängen entzogen, wenn einer Emission folgend eine Absorption in Aerosolen erfolgt. Die absorbierte Energie wird von dort ebenfalls wieder in den Raumwinkel von 4π emittiert, so dass sich zwar das Spektrum entsprechend ändert, nicht jedoch Intensität und Richtung der Strahlungsflüsse. Dieser Effekt wird durch Messung erfasst.
Auch eine Berechnung solcher Veränderung der Spektren von IR Strahlungsflüssen muss gelingen, wenn die Absorption der Gase mit Hilfe der umfangreichen  HITRAN Dateien korrekt erfasst wird.
Die Wirkung eines durch Wasser und Eis geschlossenen Fensters für Wärmestrahlung, die den atmosphärischen Treibhauseffekt erzeugt, kann jedoch an einem solchen, unvollständigen Modell, das Aerosole nicht erfasst, nicht erkannt werden.
Unabhängig von der Größe ihrer Konzentration in der Atmosphäre kann die Interaktion von mehr als zweiatomigen Gasen die Wirkung des atmosphärischen Treibhauseffektes nicht verändern. Von diesen Gasen kann daher nur in einer  Atmosphäre, die nahezu keine Aerosole enthält, eine energetisch wirksame Gegenstrahlung wesentlich geringerer Intensität emittiert werden.[4]
Ein solcher Zustand wurde zum Zweck der Prüfung von Berechnungsverfahren – lokal begrenzt – „am trockensten Ort der Erde“ gefunden und konnte zum Nachweis einer unter diesen Bedingungen von CO2 ausgehenden energetisch wirksamen Gegenstrahlung benutzt werden.
Die Abb. 2 zeigt das Ergebnis von Messung und Berechnung des Spektrums.

Abb. 2.  Spektrum der Gegenstrahlung aus sehr trockener Luft.
Fazit: Der fehlende Einfluss der mehr als zweiatomigen Gase auf die Größe des atmosphärischen Treibhauseffektes erklärt das Versagen der allein auf ihre Wirkung begrenzten Modellrechnungen. Die vom IPCC vertretenen Prognosen zum Anstieg von Temperatur und Meeresspiegel haben daher keine naturwissenschaftliche Grundlage.

3.        Klimageschichte und Ausblick

Der Ablauf der Klimageschehnisse der Vergangenheit kann mit Hilfe einer Reihe von sog. Klimaarchiven rekonstruiert werden. Dazu gehören u. a. Baumringanalyse, die Untersuchung von Ablagerungen in Seen und Ozeanen), Eisbohrkernen u. a. mehr. Eine solche Rekonstruktion der letzten 500 Millionen Jahre zeigt die Abb.3.

Abb.3. Abweichung der mittleren Temperatur an der Erdoberfläche vom Durchschnitt der      Jahre 1960 – 1990 in ℃.
Auch während dieser 500 Millionen Jahre ist kein Einfluss des CO2 Gehaltes der Atmosphäre auf Temperaturen zu erkennen:
Obwohl die Atmosphäre vor 300 Millionen Jahren noch etwa 8% CO2 enthielt, kam es zu einer Eiszeit. In den folgenden 250 Millionen Jahren stieg die Temperatur um 16℃ während der CO2 Gehalt im gleichen Zeitraum auf etwa 0,05% abnahm. Danach wurde ein Absinken der Temperatur um 16℃ von einer Abnahme der CO2 Konzentration um 0,02 – 0,03% begleitet.
Dieser Sachverhalt allein stellt die am rechten Bildrand als rote Punkte eingetragenen mit dem IPCC Modell erstellten Prognosen einer zukünftigen Erwärmung infrage.
Auffällig ist die ungewöhnlich lange Dauer der gegenwärtigen warmen Periode von etwa 10.000 Jahren, die sich in Abb. 4 im Vergleich zur Dauer der vorlaufenden warmen Perioden noch deutlicher abhebt.
Die Abb. 4 macht deutlich, dass der Anstieg der CO2 Konzentration in der Atmosphäre, die Entgasung, verzögert dem Anstieg der Wassertemperatur folgt. Aus gleichem Grund kann das durch die Nutzung fossiler Brennstoffe freigesetztes CO2 auch nur verzögert im Wasser der Ozeane in Lösung gehen.

Abb. 4. Temperaturverlauf und CO2 Konzentration der letzten 460.000 Jahren in der Antarktis.
Sowohl für den Übergang in eine Eiszeit vor etwa 2 Millionen Jahren als auch für die fast regelmäßigen Wechsel zwischen kurzen warmen und langen kalten Abschnitten sind die Ursachen nicht bekannt.
Daher ist es auch nicht möglich, Prognosen abzugeben. Die Temperaturen können ansteigen, weiter auf dem gegenwärtigen Niveau verharren, oder in den Übergang zu einer neuen kalten Periode absinken. Es gilt eine alte Bauernweisheit:
„Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt wie es ist!“


[1] Im SPM des IPCC AR4 (Fig SPM 3) wird für  1850 ein Wert von 13,65 °C gezeigt und für 2000 ein Wert von 14,4°C. Jones et al. vermuten die „wahre Globaltemperatur„ bei 14,0 °C auf der Südhalbkugel bei 13,4 °C und auf der Nordhalbkugel bei 14,6°C. [Jones, 1999]. Das Goddard Institute of Space Science (GISS) umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Dazu schreibt man auf seiner Fragen und Antwortseite[2] unter den Titel „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absolute Oberflächentemperatur“…For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.
[2]Zur Berechnung dieser Differenz von 33℃ mit Hilfe des Stefan-Boltzmann Gesetzes wird der Wert für das Jahresmittel des mittleren Energieflusses in den Weltraum von  240 W/m2 benutzt. Tatsächlich handelt es sich jedoch um eine komplexe orts- und zeitabhängige Verteilung. Da die lokale Emissionstemperatur mit der 4. Potenz vom lokalen Energiefluss abhängt resultiert ein wesentlich größerer Wert als 33℃ für die Wirkung des atmosphärischen Treibhauseffektes.
[3] Die Troposphäre als untere Schicht der Atmosphäre reicht in hohen geographischen Breiten bis in eine Höhe von ca. 8 km, in Äquatornähe bis 15 km. Über der Erdoberfläche nimmt die Temperatur durchschnittlich um 0,5 – 0,7 °C pro 100 m Höhe ab. An der Oberkante der Troposphäre, der Tropopause, herrschen den Globus umfassend Temperaturen knapp unter -50℃ °C, die in der Stratosphäre darüber wieder ansteigen.
[4]https://de.scribd.com/doc/242156102/Der-Traum-vom-anthropogenen-Treibhauseffekt-docx


[ML1]Warum




Grüne Energiepolitik: Je sinnloser, desto lieber – Geothermie – allzu oft nur die Gier nach Subventionen

Am 8. Dezember 2006 ereignete sich in der Region Basel ein Erdbeben der Stärke 3,4. Dieses richtete zwar keine größeren Schäden an, war aber dennoch deutlich zu spüren und löste in der Bevölkerung Unruhe aus. Die Versicherung musste 9 Mio. CHF für Gebäudeschäden erstatten. Und am 20. Juli 2013 kam es in St. Gallen zu einem Erdbeben der Stärke 3,5. In dessen Folge wurden insgesamt 120 Meldungen über kleinere Schäden bis hin zu Rissen in Häusern eingereicht. Gemeinsamkeit beider Ereignisse war die Auslösung der Beben durch Geothermieprojekte. Bei dem Basler Projekt hatte die Angelegenheit sogar ein Strafverfahren gegen den Chef der Bohrfirma zur Folge.
Die Alpen (Bild rechts) wurden durch den Anprall der afrikanischen auf die europäische Platte aufgetürmt. Diese auch heute noch andauernde tektonische Bewegung kann äußerst starke Erdbeben auslösen

Die Technologie

Das Problem war in beiden Fällen, dass – wie z.B. auch in den meisten Regionen Deutschlands – der Wärmestrom aus dem Erdinneren keine allzu großen Energiemengen transportiert und man daher sehr tief bohren muss, um überhaupt für die Stromerzeugung nutzbare Temperaturen zu erhalten. Bei den Bohrungen in der Schweiz waren dies Tiefen von über 4.000 m. In Basel war das Ziel trockenes, mehr als hundert Grad heißes Gestein. In dieses wird im ersten Projektstadium Wasser unter großem Druck hineingepumpt. Dadurch bilden sich Risse, die allmählich ein Warmwasser-Reservoir entstehen lassen. Bei diesem Aufbrechen des Gesteins werden im Untergrund Schockwellen ausgelöst, die als sogenannte Mikrobeben an der Oberfläche registriert werden. Das gestattet es, den Fortschritt der Arbeiten zu verfolgen. In St. Gallen wurde dagegen versucht, eine Wasserader mit ausreichend hoher Temperatur anzuzapfen. In beiden Fällen hatte man jedoch keine ausreichende Kenntnis der Verhältnisse im Untergrund.

Unverantwortbare Risiken…

Das Problem ist, dass man sich am Nordrand der Alpen und insbesondere im Bereich des oberen Rheingrabens bei Basel in einer stark erdbebengefährdeten Region befindet. Ursache ist der Zusammenprall des afrikanischen und des europäischen Kontinents, der unter anderem dazu geführt hat, dass die Alpen aufgeschoben wurden. Dieser geologische Vorgang dauert immer noch an und bewirkt den Aufbau hoher Spannungen im Untergrund, die sich von Zeit zu Zeit in Erdbeben entladen. Gerade im Raum Basel, wo es im Verlauf der letzten 2000 Jahren zu zwei äußerst heftigen Erdbeben gekommen ist, besteht das Risiko, dass man durch ein künstliches Kleinbeben ein größeres Beben auslösen kann. Prof. Domenico Giardini vom Institut für Seismologie und Geodynamik der ETH Zürich hält dies für realistisch: „Dieser Brute-Force Ansatz ist attraktiv und simpel. Der Nachteil ist: Er kann Erdbeben auslösen. Und zwar auch größere, nicht nur jene kleinen, die die Bohrung und das Erweitern des Reservoirs begleiten“ [RIBE].

mit möglicherweise katastrophalen Folgen

Und im Raum Basel geht es um Auswirkungen, die nahezu jede andere in dieser Region denkbare Naturkatastrophe übertreffen würden: „Das Basler Erdbeben bezeichnet eine Serie von gewaltigen Erdstößen, die Basel ab dem Nachmittag des Lukastages (18. Oktober) des Jahres 1356 in Trümmer legten. Die Intensität des Erdbebens wird nach den Schäden auf Stufe X der Modifizierten Mercalliskala geschätzt” [WI35]. Erdbeben dieser Stufe werden als „vernichtend“ bezeichnet. Prof. Donat Fäh, Leiter des Bereichs für Risiko- und Gefahrenbeurteilung des Schweizerischen Erdbebendienstes (SED) an der ETH Zürich, betont dass dort, wo historisch Beben aufgetreten sind, diese wieder kommen werden. Das gelte auch für Basel, das am südlichen Ende des Rheingrabens liegt. Diese Zone ist auch heute noch tektonisch aktiv, weil sich Erdplatten gegeneinander verschieben und dabei verhaken, wodurch Spannungen aufgebaut werden. Wenn dann irgendwann eine größere Schwachstelle bricht, gibt es „einen kräftigen Ruck – wie anno 1356“, so der Wissenschaftler und warnt: „Ein Beben derselben Stärke (wäre) für das heutige Basel verheerend. Das Ereignis von 1356 ist vergleichbar mit dem katastrophalen Erdbeben, das 1995 Kobe getroffen hat.…Ein solches Beben würde heute in der Region Basel 1.000 bis 20.000 Tote (fordern)….Allein (die) Gebäudeschäden würden bei rund 50 Milliarden Franken liegen“ [FAEH]. Zusätzliches Unheil könnten nach Ansicht von Dr. Mayer-Rosa, früherer Chef des Schweizerischen Erdbebendienstes (SED), auch die zahlreichen Wehre am Hochrhein und der Staudamm des Schluchsees im benachbarten Schwarzwald anrichten. Würden sie bersten, dann könnte es zu einer Flutwelle kommen, die ganze Hafenanlagen, Benzintanklager oder Pharmafirmen wegspült und letzte Fluchtwege abschneidet. Zudem käme es zu verheerenden Sekundärwirkungen auf die andern Rheinanliegerstaaten: „Wenn beispielsweise Sandoz wegschwimmt, dann ist in Amsterdam der Teufel los“ [ONLI].

Grob fahrlässiges Verhalten

Während Wissenschaftlern also schon lange klar war, welche Risiken mit solchen Vorhaben verbunden waren, gab man beim Baseler Projekt erst nach dem Unfall eine umfassende Risikoanalyse in Auftrag [BAZO, NZZ]. Das Ergebnis ist im Prinzip eine Ohrfeige für die Verantwortlichen. Das von sechs Firmen aufgrund der Auswertung von Messdaten und Modellanalysen erstellte seismische Gutachten schlussfolgert, dass bei diesem Projekt die Gefahr von Erdbeben und Gebäudeschäden zu groß sei. Die zu erwartenden Sachschäden – im Raum stehen Summen bis zu weit mehr als 600 Mio. CHF – seien „gemäß dem Maßstab der Störfallverordnung hinsichtlich der Häufigkeit des Auftretens und der Schadenssumme als nicht akzeptabel zu beurteilen“ [RIBE].
Auch in St. Gallen, wo man trotz des Erdbebens zunächst weitergemacht hatte, musste man am 14.5.2014 den Abbruch des Projekts bekanntgeben [STG2]. Die in der Tiefe gefundene Heißwassermenge ist für ein Kraftwerk viel zu klein. Hinzu kommen das Risiko weiterer Erbeben und das finanzielle Risiko für die Stadt. Prof. Stefan Wiemer, seit 2013 Leiter des SED, schreibt in einem Fazit, der Untergrund bleibe voller Überraschungen und die dort herrschenden tektonischen Vorspannungen ließen sich vor einer Bohrung nicht verlässlich abschätzen. „Änderungen der Spannungsverhältnisse im Untergrund durch menschliche Eingriffe können Erdbeben auslösen. Das ist sogar oftmals gewollt, denn Mikrobeben erhöhen die Durchlässigkeit des Gesteins und damit auch die Wirtschaftlichkeit eines Geothermie-Projektes. Doch mit solchen Eingriffen ausreichend kleine Beben zu erzeugen und gleichzeitig Schäden an der Erdoberfläche sicher auszuschliessen ist eine Kunst, die wir bislang noch nicht verlässlich beherrschen. In der dichtbesiedelten Schweiz sollte man daher einen Sicherheitsabstand von grösseren aktiven Verwerfungen einhalten“ [WIEM]. Was der Wissenschaftler damit durch die Blume ausdrückt, kann man auf gut Deutsch auch so formulieren: Auch die Verantwortlichen der Stadt St. Gallen haben sich bei der Verfolgung ihrer „Vision einer erneuerbaren Energiezukunft“ fahrlässig verhalten.

Gigantische Investitionen

Für jemanden, der gewohnt ist, bei Wirtschaftsprojekten Kosten und Nutzen gegeneinander abzuwägen, ist die Hartnäckigkeit, mit der sowohl in Deutschland als auch in der Schweiz immer neue Geothermieprojekte vorangetrieben werden [WIGE], schwer nachzuvollziehen. In beiden Ländern ist das Temperaturniveau im Untergrund fast flächendeckend niedrig. Bei derartigen Niederenthalpie-Lagerstätten muss man in der Regel sehr tief bohren, um überhaupt den für die Elektrizitätserzeugung erforderlichen Grenzwert von 100 °C zu überschreiten. Für eine Abschätzung der Kosten eines Projekts, das die Gewinnung sowohl von Wärme als auch von elektrischer Energie zum Ziel hat, kann man die für Basel und St. Gallen bewilligten Budgets als Maßstab nehmen. In beiden Städten waren jeweils 80 Mio. CHF angesetzt, zusammen also 160 Mio. Rechnet man dies zum gegenwärtigen Kurs von etwa 1,2 zu 1 in € um, so liegen die Kosten für ein solches Projekt bei rund 67 Mio. €. Bei 26 in Deutschland angesetzten Projekten geht es demnach um Investitionen in einer Größenordnung von bis zu 1,5 Mrd. €. Was zu der Frage führt, was mit diesen Investitionen letztlich erreicht werden könnte.
Von den 26 deutschen Projekten liefern derzeit acht Strom mit einer Leistung von insgesamt rund 27 MW. Bei weiteren zehn Projekten ist eine Stromerzeugung aus den verschiedensten Gründen hinfällig oder zumindest sehr fragwürdig. Somit verbleiben noch acht Projekte, bei denen eine Stromerzeugung im Bereich des Möglichen liegt. Setzt man für jedes dieser Projekte eine Stromerzeugungskapazität von durchschnittlich 5 MW an, so kämen zu den 27 MW maximal weitere 40 MW hinzu. Das Gesamt-Erzeugungspotenzial läge damit bei rund 67 MW – dem „Gegenwert“ von 22 Windenergieanlagen.

Das Niederbringen einer Tiefbohrung – hier ein Bohrturm für eine Gasbohrung in Norddeutschland – verschlingt zweistellige Millionenbeträge

Gier frisst Hirn

Geht man von einem Nutzungsgrad von 90 % aus, so würden die Anlagen pro Jahr rund 530.000 MWh an elektrischer Energie erzeugen. Bei einem aktuellen Börsenstrompreis von 30 €/MWh entspräche dies Einnahmen von jährlich rund 16 Mio. €. Da auch noch Betriebs- und Unterhaltskosten zu berücksichtigen wären, ist eine Wirtschaftlichkeit im Prinzip ausgeschlossen. Solche Projekte rechnen sich nur, weil z.B. in Deutschland das EEG (Fassung vom Jan. 2012) Vergütungen von 250 €/MWh vorsieht. Das ist rund das Achtfache dessen, was der Strom an der Börse wert ist. Bei bestimmten Projekten steigt dieser Satz sogar auf 300 €/MWh. Hinzu kommen diverse sehr substanzielle „Marktanreizprogramme“ des Bundesministeriums für Umwelt (BMU). Unter diesen Voraussetzungen lässt sich natürlich Geld verdienen, allerdings auf Kosten der Allgemeinheit, der diese Kosten aufgebürdet werden. Bei Wikipedia wird dies auf sehr elegante Weise umschrieben: „Unter den gegenwärtigen politischen Rahmenbedingungen (Erneuerbare-Energien-Gesetz) ist eine Wirtschaftlichkeit bei größeren Geothermieanlagen auch in Deutschland in vielen Gebieten, wie zum Beispiel in Oberbayern, Oberrheingraben und Norddeutsches Becken, erreichbar“. Verschwiegen wird dabei, dass der Beitrag der Geothermie zum Strombedarf Deutschlands mit geschätzten 0,08 % so verschwindend gering ist, dass diese Technologie in den Jahresstatistiken der Arbeitsgemeinschaft Energiebilanzen inzwischen gar nicht mehr aufgeführt wird.
Vor allem ist den Verantwortlichen vorzuwerfen, dass sie in ihrer Gier nach Subventionen die erheblichen Risiken und Schäden missachten, die der Allgemeinheit bei diesen Bohrprojekten in teils dicht besiedelten Gebieten aufgebürdet werden. Ein Blick auf die Gesamthistorie der Geothermiebohrungen in Deutschland und der Schweiz liest sich wie ein Drehbuch für eine Galaausgabe der Sendung „Pleiten, Pech und Pannen“. Im bereits erwähnten Wikipedia-Artikel werden in Deutschland und der Schweiz insgesamt 13 Bohrprojekte aufgeführt, bei denen es zu mehr oder weniger erheblichen geologischen Störungen mit entsprechenden Auswirkungen auf Gebäude kam. Die Liste umfasst diverse Erdbeben, massive Zerstörungen an der Gebäudesubstanz durch aufquellende Gesteinsschichten (wie in der historischen Altstadt von Staufen) oder durch absinkende Grundwasserschichten. In Baden-Württemberg wurden deshalb regional bereits Beschränkungen für solche Projekte ausgesprochen. Auf Bundesebene haben jedoch bisher Eigentum, Gesundheit und Leben der Bevölkerung hinter den noblen Ambitionen der EEG-Profiteure zurückzustehen.

Politik ohne Verstand

Die Frage, warum man Projekte, die für jeden mit gesundem Menschenverstand so offensichtlich sinnlos sind, mit solch horrenden Summen fördert, wird vermutlich kommenden Generationen von Soziologen und Politologen Stoff für umfassende Analysen liefern. In beiden betroffenen Ländern ist die Politik derart darauf fixiert, selbst noch so utopische „grüne“ Visionen zu verfolgen, dass man so gut wie jeden Unsinn genehmigt und gefördert bekommt, wenn nur die richtigen Etiketten draufgeklebt werden. Bei diesem üblen Spiel steht auch die Wissenschaft unter Druck, denn wer mit seinen Projekten von öffentlichen Geldern anhängig ist, wird es in der Regel vermeiden, sich das Wohlwollen maßgeblicher Geldgeber zu verscherzen.
Dennoch gibt es Wissenschaftler mit Rückgrat, die dankenswerter Weise Klartext reden und dabei auch auf Zusammenhänge verweisen, auf die weder die Politik noch die allgemeine Öffentlichkeit ihr Augenmerk richten. Dazu gehört auch Prof. Domenico Giardini, der in einem Beitrag der Zeitschrift „Energie-Perspektiven“ zum Baseler Projekt wie folgt zitiert wird: „Für Giardini ist klar, dass es im Vorfeld keine ausreichende Risikoanalyse gab. Die Industrie habe ein zu rosiges Bild gemalt und berücksichtigte in einer erdbebengefährdeten Region wie Basel die lokalen Gegebenheiten nicht ausreichend“ [RIBE]. Ausserdem steht dort zu den ungeklärten rechtlichen Folgen folgender bemerkenswerte Absatz: „Die Versicherung der Bohrfirma hatte in der Folge des Bebens mehrere Millionen Euro für zahlreiche kleinere Gebäudeschäden bezahlt, da es sich um ein vom Menschen ausgelöstes Ereignis handelte. Dies, so Giardini, „eröffnet natürlich schwierige Fragen…wie wollen wir ein Erdbeben in Basel mit der Magnitude 5,5, sagen wir mal in 30 Jahren, behandeln? Können wir nachweisen, ob es natürlichen Ursprungs war oder nicht? Wer würde für die Schäden aufkommen?“ [RIBE].
Quellen
[BAZO] http://bazonline.ch/basel/stadt/Erdbebenrisiko-deutlich-zu-gross-fuer-Geothermie-in-Basel/story/12803210  abgerufen am 25.7.2013
[FAEH] http://www.schulelaupen.ch/Erdbeben/erbeben%20basel1.pdf   abgerufen am 25.7.2013
[NZZ] http://www.nzz.ch/aktuell/startseite/teures-erdwaerme-fiasko-endgueltig-gestoppt-1.4169323
[ONLI] http://www.onlinereports.ch/Gesellschaft.112+M5dfbe3584c0.0.html   abgerufen am 25.7.2013
[RIBE] http://www.ipp.mpg.de/ippcms/ep/ausgaben/ep201001/0110_geothermie.html  abgerufen am 25.7.2013
[RKIP] http://www.science-skeptical.de/energieerzeugung/solarkraftwerk-in-der-wueste-verbrennt-voegel-und-erdgas-und-viel-geld/0012425/
[STG2] http://www.tagesanzeiger.ch/schweiz/standard/St-Gallen-stoppt-GeothermieProjekt/story/21827912
[WI35] http://de.wikipedia.org/wiki/Basler_Erdbeben_1356   abgerufen am 25.7.2013
[WIEM] https://www.ethz.ch/en/news-and-events/zukunftsblog/archiv/2014/02/geothermie-st-gallen.html
[WIGE] http://de.wikipedia.org/wiki/Geothermie   abgerufen am 13.9.2014




EIKE 8. IKEK Klimafakten – Was wurde gemessen? von Prof. Dr. Friedrich-Karl Ewert:

Nur fiktive Klimamodelle, die noch nicht einmal die Klimavergangenheit oder die Eintrittszeitpunkte des ENSO (El Nino) wiederzugeben in der Lage sind, können hierüber etwas aussagen.

Video des Vortrages über die Untersuchung über 1000 einzelner Temperaturganglinien weltweit und ihre Verläufe.

Prof. Ewert bittet um diese Ergänzung:

Post scriptum:

Nach dem Vortrag wurde mir gesagt, ich hätte bei manchen meiner Zahlen die Kommastelle nicht immer korrekt in Übereinstimmung mit den gezeigten Foliendaten genannt. Bevor jemand beim Anschauen darüber stolpert, möchte ich mich dafür entschuldigen. In diesen Fällen gilt nicht das gesprochene sonders das geschriebene Wort auf den Folien.

Warum passierte der Fehler? Ist wohl das erste Mal und mir nicht erklärlich. Vielleicht den örtlichen Umständen geschuldet und/oder dem Alter: der achte Runde steht kurz bevor. Pardon also! Soll nicht wieder vorkommen.

Friedrich-Karl Ewert




EIKE 8. IKEK – Hydraulic Fracturing in Deutschland – Die Risiken aus geowissenschaftlicher Sicht – Dr. V. Wrede:

Der Vortrag war sehr ausführlich, dies war angesichts der gebotenen Information auch angebracht. So gut wie kein Gesichtspunkt, kamen sie nun seitens der Befürworter oder der Gegner des Fracking, wurde ausgelassen. Es handelt sich nach unserer Kenntnis wohl um die bislang beste und erschöpfendste Darstellung des Themas in einem allgemeinverständlichen Fachvortrag.
Video mit dem Vortrag von Dr. Volker Wrede auf der 8. IKEK in Frankfurt am Main am 16.10.14

Selbst die berühmten-berüchtigten „Flammen aus dem Wasserhahn“, die als US-Bild immer wieder durch die Medien geistern, kamen zur Sprache. Es handelte sich hier aber erwiesenermaßen um ein ganz natürliches Eindringen von CH4 ins Grundwasser ohne menschliches Zutun. Das „brennende“ Leitungswasser wird damit zwar weder ungenießbar noch giftig, es besitzt aber das Potential der Verpuffung. Mit Fracking hatte diese Erscheinung, die in den USA wiederholt beobachtet wurde (das erste Mal 1965 im Bundesstaat Michigan beschrieben) nichts zu tun.

Der Film „Gasland“ des Umweltaktivisten Josh Fox -gezeigt auf sämtlichen Kanälen von ARD bis ZDF- allerdings behauptete dies. Es war wieder mal ein grandiose Fälschung – wie seinerzeit die Greeenpeace Geschichte um die zu versenkende Bohrinsel „Brent Spar“. Und sie wurde wie damals geglaubt, die Richtigstellung z.B. im Film von Phelim Mc Allister Fracknation interessiert kaum noch jemanden

Videoauszug aus dem Film Fracknation




Ärgerlich: Winter in Salzburgs Bergen sind die letzten 30 Jahren kälter geworden- Klimaalarm ja, aber keiner hört mehr hin

Der Klimawandel kennt kein Erbarmen. Forscher fanden jetzt heraus, dass Ziegen aufgrund der globalen Erwärmung schrumpfen. Das ist gut, denn Ziegen produzieren große Mengen des klimaschädlichen Gases Methan. Kleinere Ziegen machen weniger Methan, eine Supersache. In diesem Zusammenhang sei unbedingt auch auf unseren Beitrag “Suppenschildkröten beim Klimawandel mit besseren Chancen als Meeresschildkröten” hingewiesen.
——————
Böses Erwachen in Österreich: Da hatten die ersten Skiliftbetreiber bereits aus Angst vor der Klimaerwärrmung ihre Anlagen verkauft, da schneite am 6. November 2014 diese Nachricht vom ORF ins Haus:
Studie: Winter sind kälter geworden
Trotz des Klimawandels sind die Winter in Salzburgs Bergen in den vergangenen 30 Jahren nicht wärmer, sondern kälter geworden. Das zeigt eine Studie, die die Schmittenhöhe Bahnen erstellen haben lassen. Unabhängige Meteorologen bestätigen den Trend.
Weiterlesen auf orf.at.
Mit Dank an notrickszone.com für den Hinweis.
——————
Die Klimaalarmmasche hat sich im Laufe der Zeit abgenutzt. Die Leute haben genug von der Panikmache. Das Schweizer Radio und Fernsehen SRF machte dies am 29. Oktober 2014 zum Thema:
Klimawandel? «Viele Menschen können das nicht mehr hören»
Klimawandel ist eins der häufigsten Themen in den Medien. Aber keins der beliebtesten: Selbst aufwendige Filmproduktionen aus Hollywood erreichen wenig Publikum. Was können Medien und Journalisten erreichen? Und was nicht? Publizistikforscher Mike Schäfer von der Universität Zürich im Interview. […]

SRF: Auf der Gegenseite hat sogar Hollywood sich des Themas angenommen. James Cameron hat die Doku-Serie «Years of Living Dangerously» mit viel Aufwand und Geld gedreht – doch die Einschaltquoten waren schwach. Reichen nicht mal Superstars, um dieses Thema sexy zu machen?
Könnte es sein, dass die Leute mittlerweile einfach mitbekommen haben, dass die Argumente schwach und die Alarmstories arg konstruiert sind? Wenn das Vertrauen in die Ehrlichkeit nicht mehr gegeben ist, nützen auch Hollywoodstars nichts. Der erwähnte “Doku-”Streifen steckt voller Fehler, wie Jim Steele auf WUWT detailliert zeigen konnte. Der SRF und Schäfer muten ihren Zuhörern jedoch eine eher abwegige Erklärungsmöglichkeit zu:
SRF: Sind wir am Ende einfach klimamüde?
Mike Schäfer: Ja, das sind wir. Egal, wo Sie hinschauen auf der Welt: Klimawandel war in den letzten zehn Jahren ein wesentliches Thema in der Berichterstattung – in einem Ausmass, wie man es bei wenigen anderen Themen hatte. Die Leute haben gehört, was der Klimawandel ist und wie er zustande kommt. Die Leute kennen die wesentlichen Szenarien, auch die Katastrophenszenarien. Und viele Menschen können das nicht mehr hören. Oder sehen.
Lieber Herr Schäfer. In den letzten 10 Jahren, ja sogar 18 Jahren ist es kein bisschen wärmer geworden. Das ist ja wohl das Hauptakteptanzproblem. Hierzu hören wir kein Wort. Pleiten, Pech und Pannen. Da muss man sich nicht wundern, wenn einem die Anhänger in Scharen davon laufen. Im Interview geht es dann um die Übermacht der klimaalarmistischen Medien in der Schweiz. Kein Wunder, denn der Hauptitz des IPCC befindet sich in Bern.
SRF: Der Klimawandel beschäftigt auch die Schweizer Medienszene: Wie sind da die Rollen verteilt?
Mike Schäfer: In der Schweiz haben wir eine Medienlandschaft, die Klimaberichterstattung im Sinne des Weltklimarats macht, so wie in vielen anderen europäischen Ländern. Mit Ausnahme der Weltwoche, die das einzige Blatt ist, die eine dezidiert skeptische Position einnimmt, also an der Existenz des Klimawandels zweifelt. Und daran, dass die Folgen tatsächlich so dramatisch sind wie sie häufig dargestellt werden oder dass man in dem Masse darauf reagieren muss, wie die Politik das plant.
Man muss der Weltwoche als Stimme der Vernunft in dieser Sache sehr dankbar sein. In großer Regelmäßigkeit weist die Wochenzeitung auf IPCC-Argumentationspannen und fragwürdige Klimapanikmache hin. Siehe z.B. unseren Blogartikel “IPCC-Berichts-Chef Thomas Stocker zeigt im Weltwoche-Interview unerklärliche Gedächtnislücken: Die Gesprächsanalyse“).
Übernommen von „Die kalte Sonne“ hier