Windkraft – das gewaltigste Naturzerstörungswerk seit 200 Jahren

Ja: Dort ist Deutschland, das artenreichste Land Europas, das gerade seine noch 2011 von der UNESCO als Weltnaturerbe gewürdigten Wälder mit den darin lebenden Tieren opfert – und das mit unfassbarer Rücksichtslosigkeit. Gerade waren Wildkatze und Luchs zurückgekehrt. In Wälder, die nun großflächig – und oft schon „vorsorglich“, damit man rasch bauen kann – dem Erdboden gleichgemacht werden (in Wahrheit bleibt nach den meist angewandten Methoden nicht einmal der Waldboden erhalten). Der ländliche Raum blutet gerade mehr aus als durch jedes andere Ereignis in den letzten 200 Jahren. Und wenn sich niemand findet, der dem wirksam entgegentritt, steht uns noch das Vielfache des bisherigen Zerstörungswerks bevor. Alle Konzepte der bisherigen Landesentwicklungsplanung, den ländlichen Raum aufzuwerten und der Entvölkerung entgegenzuwirken, werden konterkariert. Wer zieht schon „ins Grüne“, um dann in einer Industrielandschaft mit Immissionen wie Infraschall, Lärm und Schattenschlag zu leben? Immobilieneigentum von unbeteiligten Eigentümern wird auf diese Weise in Milliardenhöhe entwertet, deren Altersvorsorge ein großer Teil der Substanz genommen. Es handelt sich um eine Form der äußerst problematischen Enteignung zugunsten privater Dritter (ich komme darauf zurück) – dem steht oft ein Taschengeld gegenüber, das die planenden Kommunen von den Windkraftunternehmern einstreichen dürfen. Wiederum ist es auch eine Art von Mischfinanzierung, die dem Wahnsinn Methode gibt: Die Kommunen, die sich aufgrund chronischer Unterfinanzierung nicht mehr anders zu helfen wissen, verkaufen ihre Natur, ihre Tiere, aber auch die Gesundheit und das Wohlbefinden ihrer Bürger (wird ausgeführt), um Kleckerbeträge aus den von den kleinen Stromkunden gespeisten Subventionstöpfen abbekommen zu können. Das ist eine Form des „goldenen Zügels“, mit dem man von oben eine letztlich nutzlose Ideologie umsetzt, auf die sich Politiker aufgrund mangelnder Kompetenz festgefahren haben. Ich würde es nicht so deutlich schreiben, hätte ich nicht schon viele Bürgermeister Dinge sagen hören wie: „Ihr wollt ein neues Dach auf dem Sportheim? Dann müsst Ihr Windräder stellen!“. Oder sie wollen sich an den Rädern auf dem eigenen Gebiet sogar beteiligen, um die Gemeindekasse zu sanieren. Wenn die Projekte dann umgesetzt sind, ist die Enttäuschung über den finanziellen Misserfolg riesengroß.
Erst dann erkennt man das nutzlose Opfer an der eigenen Naturlandschaft, der man beim Planen nur eine „mindere Schönheit“ bescheinigt hat. Das Opfer an den Tieren von Wald und Feld, die man als „nicht nachgewiesen“, „nicht schutzwürdig“ bzw. „nicht windkraftrelevant“ abgetan hat. Das Opfer, das die eigenen Einwohner zu bringen haben, deren Gesundheits- und Eigentumsinteressen man beim Planen gnädig „zur Kenntnis genommen“ aber für unmaßgeblich befunden hat. Opfer, die man bringt für eine reine Ideologie. Die grundlegende Wahrheit, die man endlich erkennen muss, heißt doch: Strom, der zur falschen Zeit am falschen Ort produziert wird, ist weniger wert als null. Die Ideologie der Energiewende kann man leicht auf den Boden der Tatsachen zurückholen, wenn man sich einige grundsätzliche Fragen stellt: Warum stehen wesentlich mehr Windräder still als laufen? Warum wurde der älteste Block des französischen Atomkraftwerks Cattenom wieder voll angefahren, anstatt wie geplant stillgelegt zu werden? Warum bezahlt der deutsche Stromkunde für stillstehende Kraftwerke? Warum bezahlt der deutsche Stromkunde für die Abgabe von Energie in das Ausland? Die Antwort hierauf, die noch ausgeführt wird, heißt kurz gesagt: Mangelnde Grundlastfähigkeit.
Dem somit für den Klimaschutz (wie näher gezeigt werden wird) irrelevanten Aufbau von großen Windkraftanlagen, steht ein hoher zu zahlender Preis gegenüber:
– Zunächst wird untersucht, welche Auswirkungen die Windenergieanlagen auf den Menschen haben, insbesondere unter dem Aspekt des Gesundheitsschutzes. Besonders problematisch ist hierbei der Infraschall. Dabei handelt es sich um nicht hörbare niederfrequente Schallwellen, deren gesundheitliche Auswirkungen auf Mensch und Tier von der Medizin und Zivilgerichtsbarkeit mittlerweile anerkannt, aber von der Verwaltung und den Verwaltungsgerichten unter Verweis auf die veraltete TA Lärm ignoriert werden. Diese Problematik des Infraschalls wird eingehend untersucht, indem der Stand der medizinischen Forschung dargestellt und mit der Auffassung der Verwaltung verglichen wird.
– Daneben wird auch der Schutz des Eigentums eine wichtige Rolle spielen. Alleine die Planung von Windenergieanlagen in der Nachbarschaft schreckt bauwillige Interessenten ab und läßt die Grundstückspreise sinken. Gesprochen wird von Wertverlusten von ca. 40 Prozent bis hin zur völligen Unverkäuflichkeit eines Hausgrundstücks.
– Hiernach widme ich mich dem Tierschutz. Ein besonderes Augenmerk wird auf die aktuelle Rechtsprechung zum signifikant erhöhten Tötungsrisiko nach § 44 Abs. 1 Nr. 1 Bundesnaturschutzgesetz gelegt. Das insbesondere bezüglich des Rotmilans, einer seltenen Vogelart, die unter einem besonders strengen Artenschutz steht und für deren Schutz Deutschland als Brutgebiet die Hauptverantwortung zufällt. Neben den Auswirkungen auf den Menschen und die Tierwelt sind es aber auch tiefgreifende Einschnitte in die Landschaft, die eine strengere Auswahl der Vorrangflächen gebieten. Insbesondere Kahlrodungen von Wäldern werfen waldrechtliche und naturschutzrechtliche Probleme auf, die sogar straf- und ordnungswidrigkeitenrechtliche Dimensionen haben.
– Aber auch hinsichtlich der Rechtsschutzmöglichkeiten von Naturschutzverbänden, Bürgerinitiativen und privaten Umweltschützern lassen sich interessante europarechtliche Entwicklungslinien aufzeigen, aufgrund derer man Deutschland zu einer Rückkehr zur Rechtsstaatlichkeit bringen könnte, statt es bei einer Umsetzung der politischen Ideologie „auf Teufel komm raus“ zu lassen.
An dieser Stelle darf ich dem Leser versichern, dass ich ein großer Freund einer intelligenten und wirksamen Nutzung von alternativen Energien, intelligenten Netzen sowie von Energieeinsparmöglichkeiten bin. Leider werden die hierzu notwendigen Entwicklungen zugunsten einer sinnlosen und zerstörerischen Subventionspolitik vernachlässigt. Auch hierauf soll im folgenden ein kurzer Seitenblick gerichtet werden.
Prof. Dr. Michael Elicker ist Staatsrechtslehrer  an der Universität des Saarlandes und Rechtsanwalt  in Luxemburg. Mit ihren deutschen Büros
in Saarbrücken und Ramstein/Pfalz hilft die Kanzlei Prof. Elicker im Interesse von Natur und Mensch bei der Bekämpfung des rechtsstaatswidrigen Windrad-Wahns.

Der Beitrag wurde vom Blog des Deutschen Arbeitgeber Verbandes übernommen



Neue AWI-Studie warnt: Klimamodelle unterschätzen natürliche Schwankungen der Meeresoberflächentemperaturen um den Faktor 50

Potsdam/Bremerhaven, den 10. November 2014. Das Klima der Erde scheint in den letzten 7000 Jahren sehr viel unbeständiger gewesen zu sein als bisher gedacht. Diese Schlussfolgerung legt eine neue Studie nahe, die im Lauf dieser Woche im US-amerikanischen Wissenschaftsmagazin „Proceedings of the National Academy of Sciences“ (PNAS) veröffentlicht wird. Wissenschaftler vom Potsdamer Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, und der Harvard University zeigen darin, dass die aus Klimaarchiven rekonstruierten Meeresoberflächentemperaturen auf langen Zeitskalen erheblich stärker variieren als von Klimamodellen berechnet. Konsequenz: entweder liefern gängige Klimaarchive ungenaue Temperatursignale oder die getesteten Modelle unterschätzen die regionalen Klimaschwankungen in der jüngeren Erdgeschichte.
Wer die Klimageschichte rekonstruieren will, muss natürliche Archive studieren, denn der Mensch hat den Planeten erst seit erdgeschichtlich kurzer Zeit vermessen. Reale Messwerte von Meerestemperaturen gibt es erst seit ungefähr 150 Jahren. Für die Zeiträume davor sind Wissenschaftler auf sogenannte „Proxies“ angewiesen – Indikatoren, die indirekte Rückschlüsse auf Klimadaten früherer Zeiten erlauben. Solche Klimaarchive beziehen sich in der Regel auf räumlich begrenzte Gebiete und unterscheiden sich in ihrer zeitlichen Auflösung. Außerdem zeigen sie mitunter ein erhebliches Hintergrundrauschen.

„In unserer Untersuchung interessierte uns nicht, wie warm das Klima zum Zeitpunkt X in einer bestimmten Region gewesen sein mag. Wir wollten rückblickend analysieren, wie stark das regionale Klima über Jahrzehnte bis Jahrtausende zeitlich variiert“, erläutert Dr. Thomas Laepple vom Alfred-Wegener-Institut. „Eine unserer größten Herausforderungen bestand deshalb darin, verschiedene Messdaten und Klimaarchive aus einer Vielzahl von Regionen untereinander vergleichbar zu machen und das natürliche Rauschen herauszufiltern, das die Aussagekraft mancher Klimaarchive stark verfälscht.“

Laepple und sein Kollege Peter Huybers von der Harvard University verglichen Daten aus Temperaturmessungen, Korallen und Sedimentkernen, die aus vielen verschiedenen Meeresregionen der Erde stammen. Klimadaten aus heutigen Korallen reichen maximal 400 Jahre in die Vergangenheit zurück. Sie erlauben Rückschlüsse auf Temperaturänderungen im Lauf von Jahrzehnten oder Jahrhunderten. Meeressedimente können sehr viel ältere Informationen enthalten, erreichen in der Regel aber nur eine Auflösung über Jahrhunderte und Jahrtausende. Durch verschiedene Eich- und Filterprozesse gelang es den beiden Forschern, eine Vielzahl verfügbarer Daten aus Temperaturmessungen und Klimaarchiven so zu kombinieren, dass sie die rekonstruierten Meeresoberflächentemperaturen an verschiedenen Orten der Welt über einen Zeitraum von 7000 Jahren auf unterschiedlichen Zeitskalen miteinander vergleichen konnten.
„Wir haben zunächst einmal festgestellt, dass die natürlichen Schwankungen der Meerestemperaturen überraschend groß sind und um so stärker waren, je länger die analysierten Zeiträume sind“, so ein erstes Fazit der beiden Wissenschaftler. In einem zweiten Schritt haben sie dann rund 20 Klimamodelle in mehr als 100 Testläufen untersucht um festzustellen, wie gut die Modelle diese Temperaturschwankungen simulieren können. Ergebnis: Über Zeiträume von Jahren und Jahrzehnten stimmten Mess- bzw. Klimaarchivdaten und Modellläufe recht gut überein. Doch je länger die Zeitskalen, desto größer wurde die Diskrepanz – am stärksten in tropischen Meeresregionen. Auf tausendjähriger Zeitskala unterschätzten gängige Klimamodelle die aus den Klimaarchiven rekonstruierten Schwankungen der Meeresoberflächentemperaturen um den Faktor 50.
„Theoretisch gibt es nun zwei denkbare Erklärungen“, so Thomas Laepple. „Entweder liefern die Klimaarchive keine verlässlichen Temperaturdaten, oder die Klimamodelle unterschätzen die Variabilität des Klimas. Vielleicht stimmt auch beides ein bisschen.“ Da das Ergebnis auf mehreren unabhängigen Klimaarchiven und Korrekturmethoden beruht, glaubt Laepple, dass das Problem eher bei den Modellen liegt.
„Wir müssen die Vorhersagen, wie stark das Klima regional schwanken kann, wahrscheinlich korrigieren“, ist Thomas Laepple aufgrund seiner Forschungsergebnisse überzeugt. „Angesichts der enormen Mengen von Treibhausgasen, die in die Atmosphäre abgegeben werden, können wir uns sicher sein, dass es global wärmer wird. Aber die Bandbreite von Veränderungen, auf die wir zusteuern, ist wahrscheinlich wesentlich größer, als wir sie uns derzeit vorstellen.“ Denn die natürlichen Schwankungen, die den Trend zur Erwärmung überlagern, zeigen immer in beide Richtungen: Temperaturen können in einer bestimmten Region im Zeitraum von Jahrzehnten oder einem Jahrhundert weniger oder stärker steigen als Klimamodelle es derzeit im globalen Mittel prognostizieren.
Weil es sich hierbei um eine zentrale Frage für die Prognose künftiger Klimabedingungen auf der Erde handelt, leitet der Potsdamer Physiker seit etwa einem Jahr eine eigene Forschungsgruppe, die sich schwerpunktmäßig mit diesem Thema beschäftigt. Sie trägt den Namen „ECUS – Estimating climate variability by quantifying proxy uncertainty and synthesizing information across archives“.
„Wir stecken“, so Laepple, „mitten in einem Experiment, das sich nicht zurückdrehen lässt, das wir aber immer noch zu grob verstehen, um auf längeren Zeitskalen regional eindeutige Aussagen zu finden. Leider müssen wir mit dieser Unsicherheit wohl noch eine Weile leben.“
Zur Publikation:
Die Studie erscheint in der Woche ab dem 10. November 2014 (46. Kalenderwoche) unter folgendem Titel in der Online „Early Edition“ des Fachmagazins Proceedings of the National Academy of Sciences (PNAS):
Thomas Laepple und Peter Huybers: Ocean surface temperature variability: Large model–data differences at decadal and longer periods. DOI: 10.1073/pnas.1412077111 (Link: www.pnas.org/cgi/doi/10.1073/pnas.1412077111 or in the online early edition unterhttp://www.pnas.org/content/early/recent)
————-
Siehe auch dazugehöriger Artikel “Unterschätzte Temperaturschwankungen: Korallen und Sedimentfunde als Prüfstein für Klimamodelle” von Sven Titz in der Neuen Zürcher Zeitung.
Übernommen von Die kalte Sonne 




EIKE 8. IKEK Bildungsbedingungen der Kohlenwasserstoffe und Hydraulic Fracturing verlängern ihre Verfügbarkeit

Interessant war im kurzen Schlussteil die Beantwortung der immer wieder gestellten Frage nach einem evtl. nicht biotischen Ursprung von Öl und Gas. Gemäß Ewert ist dies auszuschließen, zumindest Öl und Gas in Schiefergestein können nur synergenetisch entstanden sein.

Video vom Vortrag Prof. Ewert zum Thema Fracking anlässlich der 8. IKEK am 16.10.14 in Frankfurt/Main




Fakten, welche die Klimapolitik beachten sollte

von Ulrich Wolff Dipl. Physiker
Das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, begründet seine Empfehlungen an die Staatsregierungen der Welt zur Klimapolitik
mit den Ergebnissen von Modellrechnungen. In Abb 1 werden solche Ergebnisse für den Beobachtungszeitraum von 1983 bis 2013 mit dem tatsächlichen Verlauf verglichen. Die fehlende Übereinstimmung wird folgend hinterfragt.
Abb.1  Klimamodelle im Vergleich zur Beobachtung.

1.  Die aktuelle Klimapolitik

Seit es Menschen gibt, war das tägliche Wetter eine überlebenswichtige Vorgabe der Natur, deren Beeinflussung  allenfalls übernatürlichen Autoritäten zustand. Grundlage einer „Klimapolitik“ war stets die erforderliche Anpassung an und Vorsorge für seine ständigen Veränderungen.
Erst in der zweiten Hälfte des vorigen Jahrhunderts führte die auch in der Politik erfolgreich angewandte Methode der „Angst auf Objektsuche“ findige Politiker zur Idee, die Verantwortung für Veränderungen künftig auf menschliches Handeln zu übertragen.
Das Wetter selbst, wie auch seine Statistik der Vergangenheit, mit der das „Klima“ unterschiedlicher „Klimate“ auf der Erde definiert und beschrieben wird, sind dazu als Messlatte einer Bedrohung grundsätzlich ungeeignet, weil meist Veränderungen in gleicher Richtung an einem Ort vorteilhaft, an einem anderen nachteilig sind. Erst mit der Erfindung eines Weltklimas können global die Urängste vor dem Unbekannten, vor  Veränderungen jeder Art erreicht werden. Der Anstieg weder spürbarer noch kaum prüfbarer Jahresmittelwerte für die Temperatur über der Oberfläche der Erdkruste und der Pegelstände der Weltmeere wird sofort als Gefahr verstanden. Dabei war doch z. B. in Deutschland der Anstieg der Temperatur seit der kleinen Eiszeit im Mittelalter ein Segen und seine Fortsetzung würde so manche Vorteile bringen.
Als konkrete Basis und Ausgangspunkt für das Angstobjekt „anthropogener Klimawandel“ dient ein winziger Ausschnitt aus der Klimageschichte, nämlich nur die Periode von 150 Jahren nach dem Beginn der Industrialisierung. Die mittlere Temperatur war während dieses Zeitraums um 0.7 – 0.8 ℃, die Pegelstände der Weltmeere um etwa 20 cm und der CO2 Gehalt in der Atmosphäre um 0,01 Vol.% über den Ausgangswert von 0,03 Vol.% hinaus angestiegen.
Die Parole: „Die Nutzung fossiler Brennstoffe sei die alleinige Ursache dieser in Zukunft dramatisch zunehmenden Veränderungen“. Nur mit den zeitlichen Scheuklappen von 150 Jahren ließ sich diese These gut verkaufen, denn  diese mittlere Temperatur war z. B. seit dem Ende der letzten Eiszeit vor 15.000 Jahren um etwa 5 ℃ und die Meeresspiegel sogar um 120 m angestiegen, ohne dass irgend jemand fossile Brennstoffe verwendet hätte. Assimilation hatte den CO2 Gehalt in der Atmosphäre in der Erdgeschichte sogar von mindestens 25% auf die zu Beginn der Industrialisierung noch existierenden 0,03 Vol.% verringert. Zur Zeit der Saurier waren es sogar mehr als 0,1 Vol.%.
Zur Einführung des neuen Angstobjektes „Klimawandel“ in die Realpolitik der Staaten wurde im Jahr 1988  vom „United Nations Environment Programme (UNEP)“ und der „World Meteorological Organization (WMO)“ das „Intergovernmental Panel on Climate Change (IPCC)“, der sog. Weltklimarat, installiert. Dieses IPCC soll seither der Welt als Vorgabe für die Politik einen klaren wissenschaftlichen Einblick in den gegenwärtigen Stand der Kenntnisse zur künftigen Klimaänderung verschaffen.
Die Wetterkunde nutzt für ihre Prognosen von Veränderungen in Erdkruste und Atmosphäre komplexe mathematische Modelle auf der Grundlage der Erfahrung aus Beobachtung, Messung und Experiment. Damit gelingt inzwischen die Vorhersage der wahrscheinlichen Veränderungen des Wetters für höchstens eine Woche.
Das zur Autorität erklärte IPCC setzt dagegen auf die Ergebnisse vergleichsweise stark vereinfachter mathematischer Modelle, die monokausal als Folge einer Fortsetzung der Nutzung fossiler Brennstoffe einen Anstieg der mittleren Temperatur über der Oberfläche der Erdkruste von einigen ℃ und der Meeresspiegel um einige Meter prognostizieren. Die globale Nutzung fossiler Brennstoffe sei daher drastisch zu reduzieren, um einen Anstieg der Temperatur auf 2 ℃ zu begrenzen. Dieser Ansatz wird im folgenden Abschnitt hinterfragt.
Die Reaktionen der Staatsregierungen auf diese Forderung des IPCC unterscheiden sich stark. Sie reichen von Ablehnen, Ignorieren, Lippenbekenntnis bis hin zu drastischen politischen Eingriffen in den Energiemarkt, wie das insbesondere Deutschland  – fast im Alleingang – vorführt.
Im Jahr 2014, 26 Jahre nach der Geburt des politischen Angstobjektes „anthropogener Klimawandel“, ist festzuhalten:
Der CO2 Gehalt der Atmosphäre steigt ungebremst weiter und folgt damit vermutlich zum Teil der globalen – und auch in Deutschland – weiter steigenden CO2 Freisetzung. Die mittlere Temperatur in Bodennähe (und auch darüber) über der Oberfläche der Erdkruste ändert sich dagegen seit etwa 18 Jahren nicht mehr.
Wie in Abb. 1 gezeigt, erfassen die Modelle, auf die sich das IPCC exklusiv stützt, diesen klaren Sachverhalt nicht.
Die deutschen Politiker, die ihr Handeln zwar mit ihrem Mandat für die Abwehr von Schäden für die menschliche Gesellschaft begründen, reagieren bisher nicht: „Weil Ihnen und ihren Institutionen der erforderliche Sachverstand fehle, würde man den Empfehlungen des IPCC weiterhin folgen.“

2.        Missverständnisse zur Erderwärmung

Die obere Erdkruste umfasst anteilig  29% Festland und 71% Ozeane mit einer mittleren Wassertiefe von ≈3800m. Lokale Wassertemperaturen bewegen sich  in diesem Volumen zwischen -2℃  und +30℃. An der Oberfläche des kleineren Festlandanteils variieren die Temperaturen dagegen zwischen -90℃ und +60℃. Der geschätzte Mittelwert der Temperaturen über der gesamten Oberfläche der Erdkruste liegt im mehrjährigen Mittel gegenwärtig bei knapp 15℃. (Eine genaue Bestimmung ist nicht möglich, weil dazu die Messmittel fehlen. Über Modellbetrachtungen (hic!) kommt man auf Werte zwischen 12.8ºC to 14.4ºC[1])
Ohne die  Absorption und langjährige Speicherung absorbierter Solarstrahlung, also allein gespeist von Erdwärme, würde diese Temperatur nur -240℃ betragen.
Der Energiefluss der Sonne erreicht die rotierende Erde im Jahresmittel mit einer Intensität von etwa 360 W/m2 an der Oberfläche ihrer Atmosphäre. Davon wird etwa ein Drittel ohne Wirkung direkt in den Weltraum umgeleitet. Gegenwärtig werden daher etwa 240 W/m2 von der Materie zunächst absorbiert, überwiegend in Wärme gewandelt, durchfließen Erdkruste und Atmosphäre und werden entsprechend verzögert als Wärmestrahlung ebenfalls in den Weltraum emittiert. Nur wenn die Energiebilanz der Erde bei diesem Vorgang nicht ausgeglichen ist, ändert sich der Energieinhalt von Erdkruste und/oder Atmosphäre. Das kann – mit entsprechender Verzögerung – sowohl Temperaturen, Eismengen und Meeresspiegel verändern. Diese Erwärmung um ≈255℃ lässt Ozeane und Atmosphäre entstehen. 
Zur Größe der Temperatur, die sich in der oberen Erdkruste einstellt, liefert der atmosphärische Treibhauseffekt einen signifikanten Beitrag. Seine Wirkung verzögert die Durchleitung der Solarenergie durch ihre flüssige und feste Materie zusätzlich.
Die Existenz eines atmosphärischen Treibhauseffektes wurde schon sehr früh richtig erkannt. Die Ursachen seiner Wirkung werden seither diskutiert. Eine Quantifizierung seines signifikanten Beitrages zur Erwärmung ist bisher nicht gelungen. Vermutet wird nur, dass dadurch die mittlere Temperatur über der Oberfläche der Erdkruste um erheblich mehr als nur um 33℃ angehoben wird. In diesem Beitrag wird der Versuch unternommen zu zeigen, dass es vermutlich erheblich mehr sein müsste. [2]
Fakt ist, dass Wolken ständig 60 bis 70% der Erdoberfläche vom Weltraum trennen. Die Projektion der Wasser und/oder Eispartikel in sichtbaren Wolken auf eine Kugelfläche bildet eine geschlossene Schicht flüssiger und/oder fester Materie. Jedes einzelne Partikel emittiert an seiner Oberfläche kontinuierlich Wärmestrahlung in den Raumwinkel von 4π, die gesamte Wolke also jeweils etwa hälftig in Richtung Weltraum und als Gegenstrahlung in Richtung Erdkruste.
Der Energiefluss zu den Partikeln der Wolken umfasst Absorption von Wärmestrahlung aus allen Richtungen, Kondensation, Konvektion und Wärmeleitung.
Eine Reihe von Indizien machen es sehr wahrscheinlich, dass auch an wolkenfreien Teilen der Atmosphäre existierende teils sehr geringe „Feuchte“ in Form sehr kleiner Eispartikel mit dann entsprechend großer Oberfläche ein dort vermutetes Fenster für Wärmestrahlung schließt.( https://de.scribd.com/doc/144664169/Treibhauseffekte)
Es ist offenbar feste und flüssige Materie, die in der Troposphäre[3] eine Wärmesenke entstehen lässt, von der sowohl die Emission in den Weltraum als auch eine Gegenstrahlung etwa gleicher Intensität zur Erdkruste ausgeht und so den atmosphärischen Treibhauseffekt entstehen lässt.
Bleibt die Frage nach dem tatsächlichen Einfluss der mehr als zweiatomigen Spurengase in der Atmosphäre, denen vom IPCC die Ursache für die Entstehung des atmosphärischen Treibhauseffektes zugeordnet wird.
Diese Gasmoleküle sind keine Kontinuumsstrahler. Sie absorbieren und emittieren Wärmestrahlung lediglich an diskreten Wellenlängen.
Sie erhalten und verlieren zudem kinetische Energie durch Stoß, sodass auch Spontanemission erfolgen kann.
Ihre Konzentration in der Troposphäre nimmt – gegenläufig zur Häufigkeit von Aerosolen – mit zunehmender Höhe ab.
Solche Gasmoleküle sind im Volumen der Troposphäre orts- und zeitabhängig mehr oder weniger mit den genannten Aerosolen gemischt.
Mehr als zweiatomige Spurengase interagieren daher sowohl mit Strahlungsflüssen, die von flüssiger und fester Materie an der Oberfläche als auch von den Partikeln in und außerhalb der Wolken emittiert werden.
Von  mehr als zweiatomigen Gasen absorbierte Strahlung wird dem Strahlungsfluss selektiv Energie an diskreten Wellenlängen entzogen, wenn einer Emission folgend eine Absorption in Aerosolen erfolgt. Die absorbierte Energie wird von dort ebenfalls wieder in den Raumwinkel von 4π emittiert, so dass sich zwar das Spektrum entsprechend ändert, nicht jedoch Intensität und Richtung der Strahlungsflüsse. Dieser Effekt wird durch Messung erfasst.
Auch eine Berechnung solcher Veränderung der Spektren von IR Strahlungsflüssen muss gelingen, wenn die Absorption der Gase mit Hilfe der umfangreichen  HITRAN Dateien korrekt erfasst wird.
Die Wirkung eines durch Wasser und Eis geschlossenen Fensters für Wärmestrahlung, die den atmosphärischen Treibhauseffekt erzeugt, kann jedoch an einem solchen, unvollständigen Modell, das Aerosole nicht erfasst, nicht erkannt werden.
Unabhängig von der Größe ihrer Konzentration in der Atmosphäre kann die Interaktion von mehr als zweiatomigen Gasen die Wirkung des atmosphärischen Treibhauseffektes nicht verändern. Von diesen Gasen kann daher nur in einer  Atmosphäre, die nahezu keine Aerosole enthält, eine energetisch wirksame Gegenstrahlung wesentlich geringerer Intensität emittiert werden.[4]
Ein solcher Zustand wurde zum Zweck der Prüfung von Berechnungsverfahren – lokal begrenzt – „am trockensten Ort der Erde“ gefunden und konnte zum Nachweis einer unter diesen Bedingungen von CO2 ausgehenden energetisch wirksamen Gegenstrahlung benutzt werden.
Die Abb. 2 zeigt das Ergebnis von Messung und Berechnung des Spektrums.

Abb. 2.  Spektrum der Gegenstrahlung aus sehr trockener Luft.
Fazit: Der fehlende Einfluss der mehr als zweiatomigen Gase auf die Größe des atmosphärischen Treibhauseffektes erklärt das Versagen der allein auf ihre Wirkung begrenzten Modellrechnungen. Die vom IPCC vertretenen Prognosen zum Anstieg von Temperatur und Meeresspiegel haben daher keine naturwissenschaftliche Grundlage.

3.        Klimageschichte und Ausblick

Der Ablauf der Klimageschehnisse der Vergangenheit kann mit Hilfe einer Reihe von sog. Klimaarchiven rekonstruiert werden. Dazu gehören u. a. Baumringanalyse, die Untersuchung von Ablagerungen in Seen und Ozeanen), Eisbohrkernen u. a. mehr. Eine solche Rekonstruktion der letzten 500 Millionen Jahre zeigt die Abb.3.

Abb.3. Abweichung der mittleren Temperatur an der Erdoberfläche vom Durchschnitt der      Jahre 1960 – 1990 in ℃.
Auch während dieser 500 Millionen Jahre ist kein Einfluss des CO2 Gehaltes der Atmosphäre auf Temperaturen zu erkennen:
Obwohl die Atmosphäre vor 300 Millionen Jahren noch etwa 8% CO2 enthielt, kam es zu einer Eiszeit. In den folgenden 250 Millionen Jahren stieg die Temperatur um 16℃ während der CO2 Gehalt im gleichen Zeitraum auf etwa 0,05% abnahm. Danach wurde ein Absinken der Temperatur um 16℃ von einer Abnahme der CO2 Konzentration um 0,02 – 0,03% begleitet.
Dieser Sachverhalt allein stellt die am rechten Bildrand als rote Punkte eingetragenen mit dem IPCC Modell erstellten Prognosen einer zukünftigen Erwärmung infrage.
Auffällig ist die ungewöhnlich lange Dauer der gegenwärtigen warmen Periode von etwa 10.000 Jahren, die sich in Abb. 4 im Vergleich zur Dauer der vorlaufenden warmen Perioden noch deutlicher abhebt.
Die Abb. 4 macht deutlich, dass der Anstieg der CO2 Konzentration in der Atmosphäre, die Entgasung, verzögert dem Anstieg der Wassertemperatur folgt. Aus gleichem Grund kann das durch die Nutzung fossiler Brennstoffe freigesetztes CO2 auch nur verzögert im Wasser der Ozeane in Lösung gehen.

Abb. 4. Temperaturverlauf und CO2 Konzentration der letzten 460.000 Jahren in der Antarktis.
Sowohl für den Übergang in eine Eiszeit vor etwa 2 Millionen Jahren als auch für die fast regelmäßigen Wechsel zwischen kurzen warmen und langen kalten Abschnitten sind die Ursachen nicht bekannt.
Daher ist es auch nicht möglich, Prognosen abzugeben. Die Temperaturen können ansteigen, weiter auf dem gegenwärtigen Niveau verharren, oder in den Übergang zu einer neuen kalten Periode absinken. Es gilt eine alte Bauernweisheit:
„Kräht der Hahn auf dem Mist, ändert sich das Wetter – oder es bleibt wie es ist!“


[1] Im SPM des IPCC AR4 (Fig SPM 3) wird für  1850 ein Wert von 13,65 °C gezeigt und für 2000 ein Wert von 14,4°C. Jones et al. vermuten die „wahre Globaltemperatur„ bei 14,0 °C auf der Südhalbkugel bei 13,4 °C und auf der Nordhalbkugel bei 14,6°C. [Jones, 1999]. Das Goddard Institute of Space Science (GISS) umgeht die Bestimmung der Mitteltemperatur aus Messwerten und verweist nur auf Modelle. Dazu schreibt man auf seiner Fragen und Antwortseite[2] unter den Titel „The Elusive Absolute Surface Air Temperature (SAT)“ in deutsch:“ Die schwer fassbare absolute Oberflächentemperatur“…For the global mean, the most trusted models produce a value of roughly 14 Celsius, i.e. 57.2 F, but it may easily be anywhere between 56 and 58 F (12.8ºC to 14.4ºC ) and regionally, let alone locally, the situation is even worse.
[2]Zur Berechnung dieser Differenz von 33℃ mit Hilfe des Stefan-Boltzmann Gesetzes wird der Wert für das Jahresmittel des mittleren Energieflusses in den Weltraum von  240 W/m2 benutzt. Tatsächlich handelt es sich jedoch um eine komplexe orts- und zeitabhängige Verteilung. Da die lokale Emissionstemperatur mit der 4. Potenz vom lokalen Energiefluss abhängt resultiert ein wesentlich größerer Wert als 33℃ für die Wirkung des atmosphärischen Treibhauseffektes.
[3] Die Troposphäre als untere Schicht der Atmosphäre reicht in hohen geographischen Breiten bis in eine Höhe von ca. 8 km, in Äquatornähe bis 15 km. Über der Erdoberfläche nimmt die Temperatur durchschnittlich um 0,5 – 0,7 °C pro 100 m Höhe ab. An der Oberkante der Troposphäre, der Tropopause, herrschen den Globus umfassend Temperaturen knapp unter -50℃ °C, die in der Stratosphäre darüber wieder ansteigen.
[4]https://de.scribd.com/doc/242156102/Der-Traum-vom-anthropogenen-Treibhauseffekt-docx


[ML1]Warum




Grüne Energiepolitik: Je sinnloser, desto lieber – Geothermie – allzu oft nur die Gier nach Subventionen

Am 8. Dezember 2006 ereignete sich in der Region Basel ein Erdbeben der Stärke 3,4. Dieses richtete zwar keine größeren Schäden an, war aber dennoch deutlich zu spüren und löste in der Bevölkerung Unruhe aus. Die Versicherung musste 9 Mio. CHF für Gebäudeschäden erstatten. Und am 20. Juli 2013 kam es in St. Gallen zu einem Erdbeben der Stärke 3,5. In dessen Folge wurden insgesamt 120 Meldungen über kleinere Schäden bis hin zu Rissen in Häusern eingereicht. Gemeinsamkeit beider Ereignisse war die Auslösung der Beben durch Geothermieprojekte. Bei dem Basler Projekt hatte die Angelegenheit sogar ein Strafverfahren gegen den Chef der Bohrfirma zur Folge.
Die Alpen (Bild rechts) wurden durch den Anprall der afrikanischen auf die europäische Platte aufgetürmt. Diese auch heute noch andauernde tektonische Bewegung kann äußerst starke Erdbeben auslösen

Die Technologie

Das Problem war in beiden Fällen, dass – wie z.B. auch in den meisten Regionen Deutschlands – der Wärmestrom aus dem Erdinneren keine allzu großen Energiemengen transportiert und man daher sehr tief bohren muss, um überhaupt für die Stromerzeugung nutzbare Temperaturen zu erhalten. Bei den Bohrungen in der Schweiz waren dies Tiefen von über 4.000 m. In Basel war das Ziel trockenes, mehr als hundert Grad heißes Gestein. In dieses wird im ersten Projektstadium Wasser unter großem Druck hineingepumpt. Dadurch bilden sich Risse, die allmählich ein Warmwasser-Reservoir entstehen lassen. Bei diesem Aufbrechen des Gesteins werden im Untergrund Schockwellen ausgelöst, die als sogenannte Mikrobeben an der Oberfläche registriert werden. Das gestattet es, den Fortschritt der Arbeiten zu verfolgen. In St. Gallen wurde dagegen versucht, eine Wasserader mit ausreichend hoher Temperatur anzuzapfen. In beiden Fällen hatte man jedoch keine ausreichende Kenntnis der Verhältnisse im Untergrund.

Unverantwortbare Risiken…

Das Problem ist, dass man sich am Nordrand der Alpen und insbesondere im Bereich des oberen Rheingrabens bei Basel in einer stark erdbebengefährdeten Region befindet. Ursache ist der Zusammenprall des afrikanischen und des europäischen Kontinents, der unter anderem dazu geführt hat, dass die Alpen aufgeschoben wurden. Dieser geologische Vorgang dauert immer noch an und bewirkt den Aufbau hoher Spannungen im Untergrund, die sich von Zeit zu Zeit in Erdbeben entladen. Gerade im Raum Basel, wo es im Verlauf der letzten 2000 Jahren zu zwei äußerst heftigen Erdbeben gekommen ist, besteht das Risiko, dass man durch ein künstliches Kleinbeben ein größeres Beben auslösen kann. Prof. Domenico Giardini vom Institut für Seismologie und Geodynamik der ETH Zürich hält dies für realistisch: „Dieser Brute-Force Ansatz ist attraktiv und simpel. Der Nachteil ist: Er kann Erdbeben auslösen. Und zwar auch größere, nicht nur jene kleinen, die die Bohrung und das Erweitern des Reservoirs begleiten“ [RIBE].

mit möglicherweise katastrophalen Folgen

Und im Raum Basel geht es um Auswirkungen, die nahezu jede andere in dieser Region denkbare Naturkatastrophe übertreffen würden: „Das Basler Erdbeben bezeichnet eine Serie von gewaltigen Erdstößen, die Basel ab dem Nachmittag des Lukastages (18. Oktober) des Jahres 1356 in Trümmer legten. Die Intensität des Erdbebens wird nach den Schäden auf Stufe X der Modifizierten Mercalliskala geschätzt” [WI35]. Erdbeben dieser Stufe werden als „vernichtend“ bezeichnet. Prof. Donat Fäh, Leiter des Bereichs für Risiko- und Gefahrenbeurteilung des Schweizerischen Erdbebendienstes (SED) an der ETH Zürich, betont dass dort, wo historisch Beben aufgetreten sind, diese wieder kommen werden. Das gelte auch für Basel, das am südlichen Ende des Rheingrabens liegt. Diese Zone ist auch heute noch tektonisch aktiv, weil sich Erdplatten gegeneinander verschieben und dabei verhaken, wodurch Spannungen aufgebaut werden. Wenn dann irgendwann eine größere Schwachstelle bricht, gibt es „einen kräftigen Ruck – wie anno 1356“, so der Wissenschaftler und warnt: „Ein Beben derselben Stärke (wäre) für das heutige Basel verheerend. Das Ereignis von 1356 ist vergleichbar mit dem katastrophalen Erdbeben, das 1995 Kobe getroffen hat.…Ein solches Beben würde heute in der Region Basel 1.000 bis 20.000 Tote (fordern)….Allein (die) Gebäudeschäden würden bei rund 50 Milliarden Franken liegen“ [FAEH]. Zusätzliches Unheil könnten nach Ansicht von Dr. Mayer-Rosa, früherer Chef des Schweizerischen Erdbebendienstes (SED), auch die zahlreichen Wehre am Hochrhein und der Staudamm des Schluchsees im benachbarten Schwarzwald anrichten. Würden sie bersten, dann könnte es zu einer Flutwelle kommen, die ganze Hafenanlagen, Benzintanklager oder Pharmafirmen wegspült und letzte Fluchtwege abschneidet. Zudem käme es zu verheerenden Sekundärwirkungen auf die andern Rheinanliegerstaaten: „Wenn beispielsweise Sandoz wegschwimmt, dann ist in Amsterdam der Teufel los“ [ONLI].

Grob fahrlässiges Verhalten

Während Wissenschaftlern also schon lange klar war, welche Risiken mit solchen Vorhaben verbunden waren, gab man beim Baseler Projekt erst nach dem Unfall eine umfassende Risikoanalyse in Auftrag [BAZO, NZZ]. Das Ergebnis ist im Prinzip eine Ohrfeige für die Verantwortlichen. Das von sechs Firmen aufgrund der Auswertung von Messdaten und Modellanalysen erstellte seismische Gutachten schlussfolgert, dass bei diesem Projekt die Gefahr von Erdbeben und Gebäudeschäden zu groß sei. Die zu erwartenden Sachschäden – im Raum stehen Summen bis zu weit mehr als 600 Mio. CHF – seien „gemäß dem Maßstab der Störfallverordnung hinsichtlich der Häufigkeit des Auftretens und der Schadenssumme als nicht akzeptabel zu beurteilen“ [RIBE].
Auch in St. Gallen, wo man trotz des Erdbebens zunächst weitergemacht hatte, musste man am 14.5.2014 den Abbruch des Projekts bekanntgeben [STG2]. Die in der Tiefe gefundene Heißwassermenge ist für ein Kraftwerk viel zu klein. Hinzu kommen das Risiko weiterer Erbeben und das finanzielle Risiko für die Stadt. Prof. Stefan Wiemer, seit 2013 Leiter des SED, schreibt in einem Fazit, der Untergrund bleibe voller Überraschungen und die dort herrschenden tektonischen Vorspannungen ließen sich vor einer Bohrung nicht verlässlich abschätzen. „Änderungen der Spannungsverhältnisse im Untergrund durch menschliche Eingriffe können Erdbeben auslösen. Das ist sogar oftmals gewollt, denn Mikrobeben erhöhen die Durchlässigkeit des Gesteins und damit auch die Wirtschaftlichkeit eines Geothermie-Projektes. Doch mit solchen Eingriffen ausreichend kleine Beben zu erzeugen und gleichzeitig Schäden an der Erdoberfläche sicher auszuschliessen ist eine Kunst, die wir bislang noch nicht verlässlich beherrschen. In der dichtbesiedelten Schweiz sollte man daher einen Sicherheitsabstand von grösseren aktiven Verwerfungen einhalten“ [WIEM]. Was der Wissenschaftler damit durch die Blume ausdrückt, kann man auf gut Deutsch auch so formulieren: Auch die Verantwortlichen der Stadt St. Gallen haben sich bei der Verfolgung ihrer „Vision einer erneuerbaren Energiezukunft“ fahrlässig verhalten.

Gigantische Investitionen

Für jemanden, der gewohnt ist, bei Wirtschaftsprojekten Kosten und Nutzen gegeneinander abzuwägen, ist die Hartnäckigkeit, mit der sowohl in Deutschland als auch in der Schweiz immer neue Geothermieprojekte vorangetrieben werden [WIGE], schwer nachzuvollziehen. In beiden Ländern ist das Temperaturniveau im Untergrund fast flächendeckend niedrig. Bei derartigen Niederenthalpie-Lagerstätten muss man in der Regel sehr tief bohren, um überhaupt den für die Elektrizitätserzeugung erforderlichen Grenzwert von 100 °C zu überschreiten. Für eine Abschätzung der Kosten eines Projekts, das die Gewinnung sowohl von Wärme als auch von elektrischer Energie zum Ziel hat, kann man die für Basel und St. Gallen bewilligten Budgets als Maßstab nehmen. In beiden Städten waren jeweils 80 Mio. CHF angesetzt, zusammen also 160 Mio. Rechnet man dies zum gegenwärtigen Kurs von etwa 1,2 zu 1 in € um, so liegen die Kosten für ein solches Projekt bei rund 67 Mio. €. Bei 26 in Deutschland angesetzten Projekten geht es demnach um Investitionen in einer Größenordnung von bis zu 1,5 Mrd. €. Was zu der Frage führt, was mit diesen Investitionen letztlich erreicht werden könnte.
Von den 26 deutschen Projekten liefern derzeit acht Strom mit einer Leistung von insgesamt rund 27 MW. Bei weiteren zehn Projekten ist eine Stromerzeugung aus den verschiedensten Gründen hinfällig oder zumindest sehr fragwürdig. Somit verbleiben noch acht Projekte, bei denen eine Stromerzeugung im Bereich des Möglichen liegt. Setzt man für jedes dieser Projekte eine Stromerzeugungskapazität von durchschnittlich 5 MW an, so kämen zu den 27 MW maximal weitere 40 MW hinzu. Das Gesamt-Erzeugungspotenzial läge damit bei rund 67 MW – dem „Gegenwert“ von 22 Windenergieanlagen.

Das Niederbringen einer Tiefbohrung – hier ein Bohrturm für eine Gasbohrung in Norddeutschland – verschlingt zweistellige Millionenbeträge

Gier frisst Hirn

Geht man von einem Nutzungsgrad von 90 % aus, so würden die Anlagen pro Jahr rund 530.000 MWh an elektrischer Energie erzeugen. Bei einem aktuellen Börsenstrompreis von 30 €/MWh entspräche dies Einnahmen von jährlich rund 16 Mio. €. Da auch noch Betriebs- und Unterhaltskosten zu berücksichtigen wären, ist eine Wirtschaftlichkeit im Prinzip ausgeschlossen. Solche Projekte rechnen sich nur, weil z.B. in Deutschland das EEG (Fassung vom Jan. 2012) Vergütungen von 250 €/MWh vorsieht. Das ist rund das Achtfache dessen, was der Strom an der Börse wert ist. Bei bestimmten Projekten steigt dieser Satz sogar auf 300 €/MWh. Hinzu kommen diverse sehr substanzielle „Marktanreizprogramme“ des Bundesministeriums für Umwelt (BMU). Unter diesen Voraussetzungen lässt sich natürlich Geld verdienen, allerdings auf Kosten der Allgemeinheit, der diese Kosten aufgebürdet werden. Bei Wikipedia wird dies auf sehr elegante Weise umschrieben: „Unter den gegenwärtigen politischen Rahmenbedingungen (Erneuerbare-Energien-Gesetz) ist eine Wirtschaftlichkeit bei größeren Geothermieanlagen auch in Deutschland in vielen Gebieten, wie zum Beispiel in Oberbayern, Oberrheingraben und Norddeutsches Becken, erreichbar“. Verschwiegen wird dabei, dass der Beitrag der Geothermie zum Strombedarf Deutschlands mit geschätzten 0,08 % so verschwindend gering ist, dass diese Technologie in den Jahresstatistiken der Arbeitsgemeinschaft Energiebilanzen inzwischen gar nicht mehr aufgeführt wird.
Vor allem ist den Verantwortlichen vorzuwerfen, dass sie in ihrer Gier nach Subventionen die erheblichen Risiken und Schäden missachten, die der Allgemeinheit bei diesen Bohrprojekten in teils dicht besiedelten Gebieten aufgebürdet werden. Ein Blick auf die Gesamthistorie der Geothermiebohrungen in Deutschland und der Schweiz liest sich wie ein Drehbuch für eine Galaausgabe der Sendung „Pleiten, Pech und Pannen“. Im bereits erwähnten Wikipedia-Artikel werden in Deutschland und der Schweiz insgesamt 13 Bohrprojekte aufgeführt, bei denen es zu mehr oder weniger erheblichen geologischen Störungen mit entsprechenden Auswirkungen auf Gebäude kam. Die Liste umfasst diverse Erdbeben, massive Zerstörungen an der Gebäudesubstanz durch aufquellende Gesteinsschichten (wie in der historischen Altstadt von Staufen) oder durch absinkende Grundwasserschichten. In Baden-Württemberg wurden deshalb regional bereits Beschränkungen für solche Projekte ausgesprochen. Auf Bundesebene haben jedoch bisher Eigentum, Gesundheit und Leben der Bevölkerung hinter den noblen Ambitionen der EEG-Profiteure zurückzustehen.

Politik ohne Verstand

Die Frage, warum man Projekte, die für jeden mit gesundem Menschenverstand so offensichtlich sinnlos sind, mit solch horrenden Summen fördert, wird vermutlich kommenden Generationen von Soziologen und Politologen Stoff für umfassende Analysen liefern. In beiden betroffenen Ländern ist die Politik derart darauf fixiert, selbst noch so utopische „grüne“ Visionen zu verfolgen, dass man so gut wie jeden Unsinn genehmigt und gefördert bekommt, wenn nur die richtigen Etiketten draufgeklebt werden. Bei diesem üblen Spiel steht auch die Wissenschaft unter Druck, denn wer mit seinen Projekten von öffentlichen Geldern anhängig ist, wird es in der Regel vermeiden, sich das Wohlwollen maßgeblicher Geldgeber zu verscherzen.
Dennoch gibt es Wissenschaftler mit Rückgrat, die dankenswerter Weise Klartext reden und dabei auch auf Zusammenhänge verweisen, auf die weder die Politik noch die allgemeine Öffentlichkeit ihr Augenmerk richten. Dazu gehört auch Prof. Domenico Giardini, der in einem Beitrag der Zeitschrift „Energie-Perspektiven“ zum Baseler Projekt wie folgt zitiert wird: „Für Giardini ist klar, dass es im Vorfeld keine ausreichende Risikoanalyse gab. Die Industrie habe ein zu rosiges Bild gemalt und berücksichtigte in einer erdbebengefährdeten Region wie Basel die lokalen Gegebenheiten nicht ausreichend“ [RIBE]. Ausserdem steht dort zu den ungeklärten rechtlichen Folgen folgender bemerkenswerte Absatz: „Die Versicherung der Bohrfirma hatte in der Folge des Bebens mehrere Millionen Euro für zahlreiche kleinere Gebäudeschäden bezahlt, da es sich um ein vom Menschen ausgelöstes Ereignis handelte. Dies, so Giardini, „eröffnet natürlich schwierige Fragen…wie wollen wir ein Erdbeben in Basel mit der Magnitude 5,5, sagen wir mal in 30 Jahren, behandeln? Können wir nachweisen, ob es natürlichen Ursprungs war oder nicht? Wer würde für die Schäden aufkommen?“ [RIBE].
Quellen
[BAZO] http://bazonline.ch/basel/stadt/Erdbebenrisiko-deutlich-zu-gross-fuer-Geothermie-in-Basel/story/12803210  abgerufen am 25.7.2013
[FAEH] http://www.schulelaupen.ch/Erdbeben/erbeben%20basel1.pdf   abgerufen am 25.7.2013
[NZZ] http://www.nzz.ch/aktuell/startseite/teures-erdwaerme-fiasko-endgueltig-gestoppt-1.4169323
[ONLI] http://www.onlinereports.ch/Gesellschaft.112+M5dfbe3584c0.0.html   abgerufen am 25.7.2013
[RIBE] http://www.ipp.mpg.de/ippcms/ep/ausgaben/ep201001/0110_geothermie.html  abgerufen am 25.7.2013
[RKIP] http://www.science-skeptical.de/energieerzeugung/solarkraftwerk-in-der-wueste-verbrennt-voegel-und-erdgas-und-viel-geld/0012425/
[STG2] http://www.tagesanzeiger.ch/schweiz/standard/St-Gallen-stoppt-GeothermieProjekt/story/21827912
[WI35] http://de.wikipedia.org/wiki/Basler_Erdbeben_1356   abgerufen am 25.7.2013
[WIEM] https://www.ethz.ch/en/news-and-events/zukunftsblog/archiv/2014/02/geothermie-st-gallen.html
[WIGE] http://de.wikipedia.org/wiki/Geothermie   abgerufen am 13.9.2014