Wie eine Weltmeisterschaft vor leeren Zuschauerrängen: Antarktisches Meereis eilt von Rekord zu Rekord – und die deutsche Presse schweigt

Ein erstaunlicher All-Time-Rekord im Zeitalter der Klimaüberhitzungsangst. Die deutsche Presse verschlief den Rekord.

 
Abbildung 1: Ausdehnung des antarktischen Meereises seit Beginn der Satellitenmessungen 1979.
Interessant ist zudem die Arktis-Meereisprognose für September 2014 des Sea Ice Prediction Networks vom 19. Juni 2014. Der September ist wegen des Ende des Nordsommers traditionell der Monat mit dem geringsten arktischen Meereis:
The median Outlook value for September 2014 sea ice extent is 4.7 million square kilometers with quartiles of 4.2 and 5.1 million square kilometers.
Dies ist deutlich mehr als in den Minusrekordjahren 2007 (blau) und 2012 (dunkelgrün gestrichelt) (Abbildung 2).
 
Abbildung 2: Ausdehnung des arktischen Meereises (Quelle: NSIDC)
————————-
Anmerkung der Redaktion:
Trotz dieser klaren Befunde, die auch jederzeit von den Klima- und Umwelt-"Experten" des ZDF ermittelt hätten werden können, konnte es sich nicht verkneifen in einer Ankündigung ihrer Doku über Grönland zu berichten, dass sich dort "der Klimawandel so deutlich aus(wirkt), wie sonst nirgends auf der Erde. Das Eis der Arktis schmilzt, der Meeresspiegel wird steigen. Reporterin Oster am Eisfjord von Ilulissat."
Vermutlich wären ohne diesen grottenfalschen Hinweis die Produktionskosten dieser Dokusoap der ZDF Reporterin Annegret Oster nicht zu rechtfertigen gewesen. Dass diese sich von den "Wissenschaftlern" des Geomar, insbesondere des Oberpanikers Mojib Latif mangels eigener Sachkenntnis ohne Probleme und gern ein X für ein U vormachen lässt, kann man aus ihrer Vita ableiten. Dort finden wir über

Annegret Oster – Studio Kiel

Annegret Oster, geboren 1968 in Karlsruhe, studierte Literaturwissenschaft, Germanistik und Ethnologie in Mainz, Abschluss als Magister Artium. Schon während ihres Studiums arbeitete sie für das ZDF, war außerdem mehrere Jahre als Hörfunkredakteurin und -moderatorin tätig. Zudem war sie Dozentin für Fernsehen und Sprechtechnik am Studienzentrum für Journalismus der Uni Karlsruhe. 

Die gesamte Information finden Sie hier
Der Beitrag erschien zuerst auf "Die kalte Sonne" 




Atom Havarie Fukushima: Ein Industrieunfall ohne Personenschaden

UNSCEAR 2013 Report, Volume I,

REPORT TO THE GENERAL ASSEMBLY SCIENTIFIC ANNEX A
Levels and effects of radiation exposure due to the nuclear accident after the 2011 great east-Japan earthquake and tsunami

UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) wurde 1955 gegründet, um Regierungen objektiv und unabhängig zu beraten.
Nun, unsere Regierung und auch die Landesregierungen sind da beratungsresistent. Sie bleiben bei Ansichten, wie sie z.B. der Niedersächsische Umweltminister Stefan Wenzel vertritt: „Die Ereignisse in Japan übersteigen die schlimmsten Befürchtungen von Atomkraftgegnern…….In Japan zeigt sich das ganze Grauen der Unbeherrschbarkeit der Risikotechnologie Atomkraft.“ (Stefan Wenzel >Home Juli 2011).
Politiker stehen nun einmal mit der Wirklichkeit auf Kriegsfuß und richten damit Schaden an; im letzten Jahrhundert hatten wir schlimmere.
Dass wir trotzdem ganz gut leben, verdanken wir anderen Berufsgruppen, z.B. den Medizinern. Leider gibt es aber auch unter denen manche, die Tatsachen nicht anerkennen und nicht logisch denken können. Durch eine solche Ärztin wäre ich fast Witwer geworden.
Insofern sind die bei IPPNW (International Physicians for the Prevention of Nuclear War) organisierten Ärzte (in Deutschland 6.500) gefährlich. Wer wäre nicht gegen Atomkriege, aber leider haben sie ihr Tätigkeitsfeld erweitert.
Der Verein schreibt (IPPNW-Seite April 2014):
UNSCEAR-Bericht zu Fukushima vertuscht gesundheitliche Folgen der Atomkatastrophe
Behauptet wird:

  1. Es sind mehrere 10.000 zusätzliche Krebserkrankungen zu erwarten.
  2. Die Mitarbeiter von UNSCEAR haben kritiklos die Angaben der Betreiber und atomfreundlicher Organisationen übernommen.
  3. Bei Kindern wurden extrem hohe Zahlen von Schilddrüsenveränderungen und von Schilddrüsenkrebs gefunden.
  4. Die betroffenen Menschen wurden nicht offen über die Risiken aufgeklärt.

Zum Schluss der Glaubenssatz aller Kernkraftgegner:

Unumstritten ist: Jede noch so kleine Dosis von Radioaktivität geht mit einem erhöhten Risiko für Krebserkrankungen einher.

Es mag zu viel der Ehre für IPPNW sein, wenn ich meine Zusammenfassung über den 314 Seiten langen Bericht von UNSCEAR anhand obiger Behauptungen gliedere. Der Bericht ist aber so lang und so gründlich, dass ich mich auf Weniges beschränken muss, und da hat IPPNW doch einige brauchbare Punkte zusammengestellt:

1. Wie beurteilt UNSCEAR biologische Strahlenwirkungen?

Der UNSCEAR-Bericht ignoriert komplett die steigende Zahl wissenschaftlicher Arbeiten, welche auf einen positiven Effekt geringer Strahlendosen hinweisen. Nach UNSCEAR hat Radioaktivität entweder keinen oder einen negativen Einfluss auf die Gesundheit, eine positive Wirkung wird nicht in Erwägung gezogen.
Wie man anhand einer Internet-Recherche zu diesem Thema schnell herausfinden kann, ist aber die Behauptung von IPPNW, die schädliche Strahlenwirkung wäre unumstritten, eine glatte Lüge.
Strahlendosen ab 100 Millisievert (mSv) werden von UNSCEAR als möglicherweise krebserzeugend angesehen. Allerdings berichtet UNSCEAR auch, dass viele Menschen in einigen Regionen der Welt von Natur aus 20 mSv pro Jahr ausgesetzt sind, diese 100 mSv also jeweils in 5 Jahren erhalten, ohne dass gesundheitliche Folgen beobachtet werden.
Strahlendosen unter 100 mSv beurteilt UNSCEAR sehr vorsichtig. Eine schädliche Wirkung wird nicht völlig ausgeschlossen. Es wird jedoch dargelegt, dass sie sich in einer Gesundheitsstatistik niemals zeigen kann.
Wäre die Evakuierung von etwa 100.000 Menschen nicht erfolgt, hätte es nach UNSCEAR keine erkennbare Erhöhung der Krebsraten gegeben. Die Unannehmlichkeiten der Umsiedlung waren für manche Menschen jedoch so schlimm, dass man sie ins Krankenhaus bringen musste, wo über 50 sehr bald gestorben sind.
UNSCEAR lehnt das Konzept der Kollektivdosis nicht ab, macht aber für Dosen im Bereich der natürlichen Umgebungsstrahlung keinen Gebrauch davon. Für Kernkraftgegner und auch die deutsche Politik ist es jedoch das Fundament. Damit werden die zehntausende von Toten begründet. Würde man dieselben Vorstellungen auf Blut anwenden, sähe das so aus:

Verliert jemand 5 l Blut, ist er tot. Verlieren 1.000 Menschen je 5 ml, dann sind das zusammen wieder 5 l, und es gibt genau einen Todesfall.

So zählt man die Strahlendosen aller betroffenen Personen zusammen, das hat UNSCEAR mit den in 10 Jahren zu erwartenden Dosen getan und ist auf die beeindruckende Zahl von 36.000 Sievert gekommen. Den nächsten Schritt hat UNSCEAR unterlassen, aber das tun die Experten von IPPNW und andere. Sie rechnen so: Dosis ist Dosis, egal auf wie viele Menschen sie sich verteilt. Da nach ICRP 103 (International Commission on Radiological Protection) bei einer Dosis von einem Sievert 4,2 Krebsfälle unter 100 Personen zu erwarten sind, hat man damit den Risikofaktor 0,042 Fälle/Sievert und multipliziert:
36.000 Sv ∙ 0,042 = 1.512 Krebstote.
Der Faktor ist aus Vorsicht eher zu hoch angesetzt, wie man das von Strahlenschützern auch erwarten muss. Aber IPPNW hätte gern mehrere 10.000 Tote, das erreichen sie mit einem höheren Faktor. Gerade kleine Strahlendosen wären überproportional gefährlich, das behaupten sie.
Aber, das steht nicht im UNSCEAR-Bericht, berechnen wir doch einmal die Kollektivdosis der 11 Millionen Menschen in den betroffenen Regierungsbezirken Fukushima, Miyagi, Tochigi, Gunma und Ibaraki aufgrund ihrer natürlichen Lebensdosis von 170 mSv. Ergebnis:

11 x 10^6 x 0,17 = 1,87 x 10^6,

also fast 2 Millionen. Die Erhöhung durch den Unfall von Fukushima beträgt

36 ∙ 10^3 : 1,87 ∙ 10^6 ∙ 100 ≈ 2 %.

Würden die Leute nach Indien oder Brasilien auswandern, dann könnten sie ihre Kollektivdosis um 500 bis 1000 % steigern, ohne dass es mehr Krebsfälle gäbe.
Ich nehme an, im Medizinstudium wird gelehrt, wie man den Tod von Menschen feststellt; durch einfache Multiplikation geht es jedenfalls nicht. Es ist anzunehmen, dass kleine Strahlenschäden vollständig repariert werden, wie auch eine kleine Wunde mit 5 ml Blutverlust. Das bei Medizinern bekannte Nachschlagewerk von Pschyrembel schreibt vorsichtig:

„….da die Bedeutung von Reparatursystemen nach Strahleneinwirkungen nur unvollkommen abgeschätzt werden kann …… Hieraus kann allerdings nicht direkt geschlossen werden, auch kleinste Strahlendosen könnten das Karzinomrisiko maßgeblich erhöhen.“

2. Haben die Mitarbeiter kritiklos Daten der Betreiber und Behörden übernommen?

Natürlich nicht. Ausführlich wird die Herkunft sämtlicher Daten offen gelegt und diskutiert. Schwachpunkte werden aufgezeigt. So gibt es für die Personendosen des Personals in den ersten Tagen und auch Wochen tatsächlich nur die Angaben von TEPCO. Zum Zeitpunkt der Untersuchungen durch UNSCEAR lagen aber die Ergebnisse der medizinischen Untersuchungen vor. Strahlenschäden hatte keiner.
Doch gab es beim Personal 7 Todesfälle, 2 direkt durch den Tsunami, 4 durch Infarkte und tatsächlich einen durch Leukämie. Keiner der Leute hatte in hoch belasteten Bereichen gearbeitet, ihre Strahlendosen lagen im Bereich von 0,7 bis 25 mSv.
Die Ermittlung von biologisch wirksamen Dosen ist immer schwierig, daher hat UNSCEAR durchgehend obere Abschätzungen verwendet, die oft über den von Behörden oder TEPCO erhaltenen Daten liegen, einmal bis zum Faktor 4. Diese Ungenauigkeiten haben aber keinen Einfluss auf die Schlussfolgerungen; auch bei wesentlich höheren Dosen hätte es keine erkennbare Erhöhung der Krebsrate gegeben.
Ein Beispiel für die Schwierigkeiten der Dosisermittlung und die Gründlichkeit von UNSCEAR: Man hat sich auch um Pflanzen und Tiere gekümmert. In den Bergwäldern leben schwarze Bären (Ursus thibetanus). Wie viel Radioaktivität haben die nun in ihren Körpern? Um dies zu ermitteln, hat man keinen erlegt, auch keinen gefangen und dann in den Ganzkörperzähler geschoben. Vielmehr wurde die Radioaktivität im Körper anhand der Ernährungsgewohnheiten errechnet. In den meisten Fällen konnte man es auch bei der Ermittlung menschlicher Körperdosen nicht anders machen.
Die Radioaktivität der Lebensmittel wurde genau gemessen, obwohl IPPNW das bestreitet. UNSCEAR hat realistische Ernährungsgewohnheiten zugrunde gelegt. Auch Japaner kaufen die meisten Lebensmittel im Lebensmittelmarkt und leben nicht vorwiegend aus dem eigenen Garten.
UNSCEAR hat alle bisher veröffentlichten Arbeiten über mutierte Schmetterlinge und dergleichen aufgelistet, konnte aber leicht zeigen, wie unplausibel das alles ist.

3. Gibt es Veränderungen der Schilddrüsen?

In den betroffenen Regierungsbezirken werden praktisch alle Kinder und Jugendlichen auf solche Veränderungen und auf Schilddrüsenkrebs untersucht. Dabei fielen tatsächlich Veränderungen auf. Dies ist aber auf die gründliche Untersuchung zurückzuführen. Zum Vergleich wurden solche Untersuchungen in genau der gleichen Weise in nicht betroffenen Gebieten durchgeführt; der Prozentsatz von Auffälligkeiten war teilweise höher.

4. Information der Bevölkerung über die Risiken

Darüber hat UNSCEAR nicht berichtet. So umfangreich der Bericht ist, man hat sich beschränkt auf die Ausbreitung von Radioaktivität, Aktivitätskonzentrationen in Luft, Wasser und Boden, Tieren und Pflanzen, sowie Personendosen  und mögliche gesundheitliche Folgen.
Eine ehrliche Information über die Risiken der Personen in Gebieten mit zu erwartenden Strahlendosen über 20 mSv wäre so gewesen: „Wenn Sie bleiben, steigt nach einer sehr zweifelhaften Hypothese Ihr Krebsrisiko von 35 % auf maximal 35,3 %. Wollen Sie tatsächlich in eine Notunterkunft?“




Wasser – ein wahrhaft himmlisches wie rätselhaftes Wetterelement

Das „Feuer“ passt nicht in das Schema, ist aber als Energielieferant unverzichtbar. Das „Licht“ nimmt eine Sonderstellung an, denn es ist keine Erscheinungsform von Materie, sondern eine Folge von Materie, wie man bei der Herstellung von Eisen erkannte und darum unlösbar mit Materie verbunden. Die gesamte lebendige Materie in Gestalt von Pflanzen, Tieren und Menschen ist zudem ohne das Licht nicht denkbar. Diese schlichte Wahrheit steckt in dem Wort „Photosynthese“, bei der grüne Pflanzen aus den zwei anorganischen Stoffen Kohlenstoffdioxid und Wasser mit Hilfe des Lichts organische Materie, also „Nahrung“ für Tier und Mensch, produzieren. Zudem wird dabei de zur Nahrungsverbrennung notwendige Sauerstoff durch Spaltung des Wassermoleküls freigesetzt.
Die Urstoffe wiederum seien aus kleinsten unteilbaren Materieteilchen zusammengesetzt, den Atomen. Diese Auffassung vertrat Demokrit (470-380 v. Chr.). Wenn ein Kind zu einem stattlichen Mensch heranwächst und als Greis stirbt und verwest, dann kehren, so Demokrit, die Atome, „die sich in uns für kurze Zeit zu Lust und Leid gefügt haben“, in den ewigen Kreislauf der Natur zurück. Man erkannte auch, dass die Atome von elementaren Kräften, der Anziehung und Abstoßung, beherrscht werden. Sie sagten: „Das Lieben und Hassen der Atome verursacht die Unruhe der Welt.“ Wenn sich am Himmel eine Wolke bildet, sammeln sich die einzeln und unsichtbar herumfliegenden „Wasseratome“ zu sichtbarem Nebel, winzigen Wassertropfen. Diese können bald wieder verdunsten oder wachsen und als Regen zur Erde fallen. Verdunstet der Regen, dann steigen die „Atome“ wieder in die Atmosphäre auf und werden über die Erde, wenn auch extrem ungleichmäßig, verteilt. Heute wissen wir, dass sich das „Wasseratom“ aus drei Atomen (H2O) zusammensetzt, also ein aus Wasserstoff und Sauerstoff bestehendes „Wasserdampfmolekül“ ist, mit ungewöhnlichen Eigenschaften.

Der Regen fällt vom Himmel, doch wie kommt er in den Himmel?

Kluge Leute haben berechnet, dass die Lufthülle der Erde 13 x 10^12 m3 Wasser enthält. Das sind 13 Billionen Tonnen. Wer jedoch hat die Kraft oder die Energie, diese Riesenmenge an Wasser in die Luft zu heben? Wie viele Tanklaster mit 10 Tonnen Fassungsvermögen braucht man dazu? Die Erdoberfläche insgesamt hat eine Fläche von 510 x 10^6 km2. Würde alles Wasser auf einen Schlag ausregnen und gleichmäßig über die Erde verteilt zu Boden fallen, dann würden auf jeden Quadratmeter 25 Liter (25 mm) Regen fallen. Wäre dies die Jahresausbeute, die gesamte Erde wäre eine einzige Wüste. Walfischbai, eine Hafenstadt am Rande der Wüste Namib, einer typischen Küstenwüste in Namibia, misst im Mittel einen Jahresniederschlag von 22 mm. In Aden im Jemen, der trockensten Stadt des Nahen Ostens, sind es 46 mm.
Andere kluge Leute haben ausgerechnet, dass der mittlere globale Niederschlag etwa 1000 mm oder 1000 Liter pro m2 beträgt. Wenn dies wahr wäre, die Erde wäre keine Wüste sondern grün, vorausgesetzt der Regen wäre gleich verteilt und überall würde die „Globaltemperatur“ von 15° Celsius herrschen. Dies zum Sinn oder Unsinn von Globalwerten. Sie sind „schön“, aber nirgends zu gebrauchen. Wenn 25 mm an Wasser in der Atmosphäre sind, aber im Jahresverlauf 1000 mm ausregnen, dann muss sich im Jahresverlauf die Wassermenge der Luft 40 Mal oder knapp alle 10 Tage komplett erneuern.
Machen wir mal eine Überschlagrechnung: Pro Minute fällt auf der ganzen Erde 1 Milliarde Tonnen Regen. Doch diese müssen zuerst einmal verdunsten und in den Himmel gehoben werden. Dazu wird Energie benötigt, die nicht der Mensch sondern einzig und allein die Sonne zur Verfügung stellt. Um 1 Liter Wasser zu verdunsten oder zu verdampfen, benötigt man etwa 0,63 Kilowattstunden. Bei 1 Tonne sind dies 630 und bei 1 Milliarde Tonnen 630 x 10^9 kWh. Diese Leistung an Verdunstungsenergie muss permanent vorgehalten werden, damit der Wasserkreislauf zwischen Niederschlag und Verdunstung in Gang gehalten werden kann. Bei einem Preis von 20 Cent pro kWh kosten 630 kWh 126 EURO. Die Menschheit müsste also pro Minute rund 125 Milliarden EURO für Verdunstungskosten aufwenden, damit 1 Milliarde Tonnen Regen vom Himmel fallen. Und das Jahr hat 8760 Stunden und diese wiederum 60 Minuten. Nach „Adam Riese“ (1492-1559) müsste die Sonne der Menschheit pro Jahr für die Belieferung mit Regen eine saftige Rechnung über 65.700 Billionen EURO schicken, Jahr für Jahr. Doch wegen der extrem ungleichmäßigen Verteilung des Regens -Arica in der Atacama-Wüste Chiles erhält 0,8 mm und der Berg Wai’ala’ale auf der Insel Kauai in Hawaii im Mittel 11 684 mm- gäbe es enormes Konfliktpotential, die Kosten einigermaßen „gerecht“ unter den Völkern aufzuteilen.
Diese Energie liefert einzig und allein die Sonne mittels Licht und Wärme. An der Obergrenze der Atmosphäre beträgt im Mittel die „Solarkonstante“ von 1368 W/m2. Kalkuliert man mit einem Verlust von 30 %, dann kommen im Mittel an der Erdoberfläche 960 W/m2 an und dienen deren Erwärmung. Von diesen müssen noch 30 Prozent für Verdunstung abgezogen werden. Bleiben 640 W/m2. Diese dienen der Erwärmung des Bodens und werden als Wärme per Leitung und Konvektion an die Atmosphäre weitergegeben. In Deutschland beträgt die mittlere Globalstrahlung etwa 1000 kWh/m2 pro Jahr, ohne von der Sonne eine Rechnung zu erhalten.

Zur Wärme als gestaltende Kraft der Natur

Speziell auf das Wasser bezogen spielt die Wärme, also die Temperatur, eine wichtige Rolle. Wir kennen seine drei Aggregatzustände: fest, flüssig und gasförmig. Alle drei Zustände können gleichzeitig auftreten. Geht Eis in Wasser über und dieses in Wasserdampf, der für uns unsichtbar ist, dann ändert sich die Anordnung der Atome. Man spricht von Phasenübergängen, deren Ursache wiederum in der Energie liegt, die einem Stoff von außen zugeführt oder entzogen wird. Es ändern sich die Gitterstrukturen. Bei Eis sind die Atome zu Gittern montiert, ist jedes Atom über die Elektronen seiner äußeren Schale mit seinen Nachbaratomen fest verklammert. Wird dem Eis Wärme zugeführt, geraten die Atome immer mehr in Schwingung, bis irgendwann der Punkt erreicht ist, an dem sie so stark ausschwingen, dass die atomaren Bindungskräfte nicht mehr stark genug sind, die Atome an ihrem Ort im Gitter zu halten. Übersteigt die Bewegungsenergie die Bindungsenergie, dann geht der Körper in den flüssigen Zustand über, er schmilzt. Führt man dem Wassert weiterhin Energie zu, dann bewegen sich die Atome mit ständig wachsender Geschwindigkeit. Immer mehr Moleküle durchstoßen die Oberfläche des Wassers und entweichen gasförmig als Wasserdampf in die Luft.
Diesen Vorgang kann man in der Natur nach jedem Regen beim Abtrocknen der Straßen und dem Verschwinden der Pfützen beobachten. Auch das Trocknen der Wäsche auf der Leine geschieht ohne Zutun des Menschen. Immer herrschen winzige Luftbewegungen und Temperaturänderungen, mit denen sich die Aufnahmefähigkeit der Luft für Wasserdampf ändert. Schnell trocknen Straße und Wäsche, wenn das Sättigungsdefizit groß und die Aufnahmefähigkeit der Luft für Wasserdampf hoch ist. Bei O°C kann die Luft maximal 4,8g H2O, bei 10°C schon 9,4g und bei 30°C ganze 30,3g pro m3 aufnehmen, bis zur Sättigung. Die Geschwindigkeit, mit der Boden abtrocknet, hängt vom Sättigungsdefizit der Luft wie dem Wind ab und nicht allein von der Temperatur. Extrem trockene und kalte Polarluft wirkt über dem warmen Golfstrom wie ein Schwamm und kann erhebliche Mengen an Wassersdampf aufnehmen und zu ergiebigen Regenfällen führen.
Ist Wasser zu Wasserdampf und damit zu einem unsichtbaren Gas geworden, dann sind die H2O-Moleküle vollkommen frei beweglich und rasen mit kaum vorstellbarer Geschwindigkeit umher, wobei sie sich ständig anrempeln und abstoßen. Ist der Raum begrenzt, wird Luft in einem Behälter eingefangen, stoßen die Moleküle nicht nur gegenseitig zusammen, sondern sie prallen auch auf die Gefäßwände und üben dadurch auf diese einen Druck aus. Erhöht man die Temperatur des eingeschlossenen Gases, dann erhöht sich die Geschwindigkeit der Moleküle, der Gasdruck wächst. Der Druck kann schließlich so groß und die Bewegungsenergie so heftig werden, dass der Behälter platzt. Unter freiem Himmel ist dies nicht möglich, da die von der Erde ausgeübte Schwerkraft proportional dem Quadrat der Entfernung abnimmt, der Raum größer wird. Mit zunehmender Höhe nehmen der Druck und die Temperatur ab. Ein Luftpaket, das thermisch aufsteigt, kühlt sich um 1 Grad pro 100 m Höhe ab. Man nennt dies den trockenadiabatischen Temperaturgradienten. Die Temperaturabnahme mit der Höhe hat schon Alexander vom Humboldt (1769-1859) bei seiner Amerika-Reise 1799-1804 untersucht und die Höhenstufen der Anden beschrieben von der Tierra Caliente bis zur Tierra Nevada oberhalb 5000 Meter. Wird beim Aufsteigen der Luft der Taupunkt unterschritten, setzen Sättigung und Kondensation ein, dann wird die bei der Verdunstung benötigte Wärme als Kondensationswärme wieder freigesetzt und die Abkühlung der aufsteigenden Luft auf 0,5 Grad reduziert. Fließt Luft über ein Gebirge, so erklärt sich hieraus auf der auf der Luvseite der Staueffekt und auf der Leeseite der Föhneffekt.

Struktur des Wassermoleküls bei den Phasenübergängen

Bevor der Mensch Temperatur und Wärme messen konnte, hatte er beobachtet, dass sich feste Körper bei Erhitzung ausdehnen und bei Abkühlung wieder zusammenziehen. Je höher die Temperatur wird, umso heftiger bewegen sich die Moleküle und desto mehr Raum beanspruchen sie. Beim Abkühlen nehmen die Eigenschwingungen der Moleküle ab, das Volumen verringert sich. Gehen Körper vom flüssigen in den festen Zustand über, dann nimmt das Volumen im Schnitt um 10 Prozent ab. Dies gilt allerdings nicht für das Wasser. Es ist ein einzigartiger Stoff. Eis, also Wasser im festen Zustand, hat eine geringere Dichte, ein größeres Volumen und das ist der Grund, warum Eis schwimmt.
Wasser, das abgekühlt wird, verhält sich anfangs wie alle anderen Stoffe auch, es wird dichter. Doch nur bis 4° Celsius. Dann beginnt es, sich wieder auszudehnen, bis es bei O°C fest wird. Dieses ungewöhnliche Verhalten des H2O-Moleküls liegt an der einzigartigen Atombindung der beiden Wasserstoffatome und des Sauerstoffatoms. Die chemische Formel H2O gilt streng genommen nur für den Gaszustand, wo sich die einzelnen Moleküle frei im Raum bewegen, zwar gelegentlich zusammenstoßen, aber sonst nichts miteinander zu tun haben. Kühlt der Wasserdampf ab, dann nimmt nicht nur die Heftigkeit der Zusammenstöße ab, die Moleküle beginnen aneinander zu haften und ein lockeres „Flüssigkeitsgitter“ zu bilden. Der Grund liegt in der speziellen atomaren Bindung. Das O-Atom teilt sich mit jedem H-Atom ein Elektronenpaar und bildet eine stabile Achterschale. Geometrisch hat es die Form eine Pyramide, eines verzerrten Tetraeders, in dessen Zentrum das O-Atom sitzt. Die beiden H-Atome befinden sich an zwei der vier Ecken des Tetraeders. An den beiden anderen Ecken sammeln sich die Elektronen und bilden Wolken negativer Ladung. Dadurch wird das Wassermolekül polar, mit einem positiven und negativen Ladungspol. Diese Polarität führt zwischen einander berührenden Wassermolekülen zu Wasserstoffbrückenbindungen. So entstehen Riesenmoleküle, wobei im flüssigen Zustand ein andauernder Wechsel der Bindungspartner stattfindet.
Dies ändert sich schlagartig bei Unterschreiten der 4° Celsius. Das Knüpfen und Lösen von Wasserstoffbrücken hat ein Ende. Die Moleküle suchen sich einen festen Platz im sich verfestigenden Gitter, treten aber auch plötzlich in Distanz zueinander. Die Dichte des sich abkühlenden Wasser nimmt nicht weiter zu, sondern ab. Bei der Eisbildung werden regelrechte Hohlräume zwischen den Tetraeder-Molekülen gebildet. Diese machen etwa 10 Prozent des Gesamtvolumens aus, weshalb Eis um etwa 10 Prozent leichter ist als Wasser und somit schwimmt. Die Tatsache, dass Eis leichter ist als Wasser, bewirkt, dass Seen und Flüsse von der Oberfläche her und nicht vom Untergrund her zufrieren. Die oben schwimmende Eisdecke schützt das Leben in tieferen Gewässerschichten vor der Kälte des Winters, garantiert Fischen das Überleben im 4 Grad „warmen“ Wasser. Die Fähigkeit, sehr viel Wärme zu speichern, ermöglicht die Entstehung großer warmer Meeresströmungen, etwa des Golfstroms als Art Warmwasserheizung für die Nordwestküsten Europas.
Die einzigartige molekulare Struktur des Wassers macht Wasser zu einem ungemein lösungsfreudigen Stoff. Die polare Ladungsverteilung bewirkt, dass sich Salze im Wasser in ihre Ionen auflösen, also Kochsalz in seine Ionen Na+ und Cl-. Wasser löst aber nicht nur Salz- und Zuckerkristalle auf, sondern auch Gase wie Sauerstoff (O2), Stickstoff (N2), Ammoniak (NH3) oder Kohlenstoffdioxid (CO2). Die Lösungsfreudigkeit des Wassers macht es erst möglich, dass Pflanzen in der Lage sind, die für ihr Wachstum lebenswichtigen Mineralien über die Wurzeln aufzunehmen. Fische können im Wasser nur leben, weil es sehr viel gelösten Sauerstoff enthält, den sie mit ihren Kiemen einatmen. Das CO2, das die Fische ausatmen, wird ebenfalls im Wasser gelöst und wird von den Wasserpflanzen genutzt, die ihrerseits H2O aufspalten und Sauerstoff abgeben, wie die grünen Landpflanzen auch.

Wie „Klimaexperten“ die Natur uminterpretieren und auf den Kopf stellen

Alle Energie für alles organische Leben auf der Erde stammt als elektromagnetische Energie von der Sonne. Wie angenehm ist die wärmende Wirkung der Sonnenstrahlen bei Frost auf der Haut! Und wie erbarmungslos können sie die Haut erhitzen, bis zum Hitzschlag. Ist es dem Wüstensand „gleichgültig“, ob er am Tage auf über +70°C erhitzt wird und sich nachts unter -O°C abkühlt, so gilt dies nicht für „Warmblüter“ wie den Menschen. Er benötigt eine „konstante“ Körpertemperatur von +37°C und muss sich daher gleichermaßen vor Überhitzung wie Unterkühlung schützen. Die unbekleidete menschliche Körperoberfläche strahlt, wie jeder tote physikalische Körper, Wärme ab. Je höher die Temperatur, desto mehr. Die Wärmestrahlung steigt oder fällt mit der vierten Potenz der absoluten Temperatur, die in Kelvin angegeben wird. Bei wolkenlosem Himmel bei windschwachem Hochdruckwetter folgen die Bodentemperatur und auch die bodennahe Lufttemperatur dem Sonnengang, sommers wie winters. Es ist ein stetiges Wechselspiel zwischen der solaren Einstrahlung wie der terrestrischen Ausstrahlung, unter Abzug der Verdunstungsverluste.
Doch wie stark die Erdoberfläche erwärmt wird, hängt nicht nur vom Einfallswinkel der Sonnenstrahlen und der Wärmeaufnahmefähigkeit des Untergrundes ab. Die Feuchtigkeit des Bodens spielt eine ganz gewaltige Rolle. Wasserflächen werden nicht nur deswegen langsamer erwärmt als Fels- oder Sandboden, weil das Wasser die höchste spezifische Wärme hat, sondern weil dem Wasser und feuchten Boden durch Verdunstung immer wieder Wärme entzogen wird. In der Fachliteratur ist zu lesen, dass etwa 25 bis 30 Prozent der eingestrahlten Sonnenenergie allein ob der Verdunstung und der Aufrechterhaltung des Wasserkreislaufs “verbraucht“ werden. Diese Energie geht für die Erwärmung des Erdbodens „verloren“, sie ist aber dennoch nicht verloren, sondern steigt als „latente Wärme“ auf und wird bei der Kondensation mit der Bildung von Wolken wieder freigesetzt. Erst über die dann freigesetzte Kondensationswärme entwickeln Gewitter bei labil geschichteter Atmosphäre ihre volle Kraft und stoßen bis zur Tropopause vor, wo sie sich in Form eines Amboss ausbreiten.
Wenn die beiden Klimaexperten des Potsdam-Institut für Klimafolgenforschung S. Rahmstorf und H. J. Schellnhuber in der 7. Auflage ihres Buches „Der Klimawandel“ (2012) schreiben, „Unser Klima ist im globalen Mittel das Ergebnis einer einfachen Energiebilanz: Die von der Erde ins All abgestrahlte Wärmestrahlung muss die absorbierte Sonnenstrahlung im Mittel ausgleichen.“, dann ist das schlichtweg einfach falsch! Die Erde muss gar nichts ausgleichen! Die Erde strahlt nur das an Energie ab, was sie vorher von der Sonne erhalten, sprich absorbiert, hat. Es ist einzig und allein die Sonne mit ihrer Strahlungsenergie, welche die Temperaturen auf der rotierenden Erdkugel bestimmt. Diese differieren je nach Tages- und Jahreszeit, je nach geographischen Breite oder Länge. Es gibt keine „Einheits- oder Globaltemperatur“, es gibt auch kein „Globalklima“, sondern eine Klimavielfalt, die anhand der irdischen Wettervielfalt berechnet wird.
Alle angestellten theoretischen Betrachtungen sind auch deswegen, und das sollte hier gezeigt werden, reine Fiktion, weil schlichtweg bei den Bilanzberechnungen rund ein Drittel der Solarenergie unterschlagen, unter den Tisch gekehrt wurde. Dieses Drittel dient nicht der Erderwärmung, sondern wird sinnvollerweise von der Natur in den Wasserkreislauf investiert. Was wäre das Leben ohne Wasser, was ein Himmel ohne Wind und Wolken, ohne Regen? Wer „Energiebilanzen“ betrachtet, sollte es sich nicht zu „einfach“ machen, wenn er sich nicht dem Vorwurf der gezielten Bilanzfälschung ausgesetzt sehen will. Bilanzfälschung ist kein Kavalierdelikt, zumal der „Schutz des Globalklimas“ ohnehin ein leeres Versprechen ist!
Oppenheim, den 2. August 2014                                                                     Dipl.-Met. Dr. phil. Wolfgang Thüne




Behauptung: Natürliche Variation ‚maskiert’ die globale Erwärmung und ist Grund für den ‚Stillstand‘

In einer in diesem Monat in den Geophysical Research Letters veröffentlichten Studie kommt Lovejoy zu dem Ergebnis, dass eine natürliche Abkühlungs-Fluktuation während dieser Periode großenteils die Erwärmungs-Effekte der fortgesetzten anthropogenen Emissionen von Kohlendioxid und anderer Treibhausgase maskiert.
Diese neue Studie wendet ein statistisches Verfahren an, das von den Forschern bei McGill in einer früheren Studie entwickelt worden war, die im April in dem Journal Climate Dynamics veröffentlicht worden war. Diese frühere Studie – die vorindustrielle Temperatur-Proxys verwendet hat, um historische Klimaverhältnisse zu analysieren – schloss mit einer Sicherheit über 99% die Möglichkeit aus, dass die globale Erwärmung in der Industrie-Ära lediglich eine natürliche Fluktuation des Erdklimas sei.
In seiner neuen Studie wendet Lovejoy das gleiche Verfahren auf die 15-jährige Periode nach 1998 an, während der die global gemittelten Temperaturen nach historischen Standards hoch waren, jedoch unter den meisten Vorhersagen der komplexen Klimamodelle lagen, die von Wissenschaftlern zur Abschätzung der Auswirkung von Treibhausgas-Emissionen generiert worden waren.
Die Abnahme des Temperaturanstiegs während dieses 15-jährigen Zeitraumes wird manchmal als ein „Stillstand“ oder eine „Ruhepause“ der globalen Erwärmung bezeichnet. Er hat Fragen aufgeworfen, warum die Rate der Erwärmung auf der Erde markant niedriger lag als in den Jahrzehnten zuvor. Angesichts dessen, dass die Treibhausgase während der gesamten Periode kontinuierlich weiter gestiegen sind, haben einige Skeptiker geltend gemacht, dass der gegenwärtige Vorgang die Theorie der zum großen Teil vom Menschen verursachten Erwärmung während der Industrie-Ära durch das Verbrennen fossiler Treibstoffe widerlegt.
Lovejoys neue Studie kommt zu dem Ergebnis, dass es seiner Analyse zufolge seit 1998 zu einer natürlichen Abkühlungs-Fluktuation von 0,28°C bis 0,37°C gekommen war – was in Einklang steht mit Variationen, die historisch alle 20 bis 50 Jahre auftreten. „Es gibt viele Beispiele dieser Variationen bei Temperatur-Rekonstruktionen aus präindustrieller Zeit, und zwar auf der Grundlage von Proxys wie Baumringen, Eisbohrkernen und See-Sedimenten“, sagt Lovejoy. „Basierend auf Klimaaufzeichnungen vermeidet dieses Verfahren jedwede Verzerrungen, die die hochmodernen Computermodelle beeinflussen könnten, die allgemein zum Verständnis der globalen Erwärmung verwendet werden“.
Mehr noch, der beobachtete Abkühlungs-Effekt von 1998 bis 2013 “folgt exakt einem etwas größeren Erwärmungs-Ereignis vor dem Stillstand, also von 1992 bis 1998, so dass die natürliche Abkühlung während des ‚Stillstands‘ nichts weiter ist als eine Rückkehr zu einer längerfristigen natürlichen Variabilität“, folgert Lovejoy. „Der Stillstand hat also eine überzeugende statistische Erklärung“.
Er fügt noch hinzu, dass die Verfahren, die Lovejoy in seinen beiden letzten Studien entwickelt hatte, auch von Forschern verwendet werden können zur Analyse von Niederschlags-Verteilungen und der regionalen Klimavariabilität, und um neue stochastische Verfahren der Klimavorhersage zu entwickeln.
——————————————————————————————————
Die Studie:
„Wiederholte Perioden von Klimafluktuationen und der Stillstand“, Shaun Lovejoy, Geophysical Research Letters, published online July 14, 2014. DOI: 10.1002/2014GL060478
Abstract
Ein ergänzendes Verfahren zu den allgemeinen Klima-Zirkulationsmodellen (GCMs) wurde kürzlich zur Quantifizierung menschlicher Auswirkungen entwickelt. Es verwendet den anthropogenen CO2-Strahlungsantrieb als eine lineare Sammelbezeichnung für alle anthropogenen Antriebe (Lovejoy 2014). Unter Verwendung präindustrieller Multiproxy-Reihen und geeigneter Skalierung wurde berechnet, dass die Wahrscheinlichkeiten natürlicher Fluktuationen bis zu 125 Jahre hinterherhinken. Die Hypothese, dass die Erwärmung während der industriellen Epoche eine riesige natürliche Fluktuation war, wurde mit einer Gewissheit von 99,9% zurückgewiesen. In dieser Studie wird diese Methode ausgeweitet auf die Bestimmung der Zeiten wiederkehrender Ereignisse. Während der Periode von 1880 bis 2013 wird das größte 32-Jahres-Ereignis mit 0,47 K erwartet, was die Abkühlung in der Nachkriegszeit (Amplitude 0,42 bis 0,47 K) effektiv erklärt. Genauso ist der „Stillstand“ seit 1998 (0,28 bis 0,37 K) eine Wiederkehr-Periode von 20 bis 50 Jahren (nicht gar so ungewöhnlich). Sie wird nahezu kompensiert durch die Erwärmung vor dem Stillstand (1992 bis 1998, Wiederkehr-Periode 30 bis 40 Jahre). Der Stillstand ist also nichts weiter als natürliche Variabilität.
Vorabdruck hier:
http://www.physics.mcgill.ca/~gang/eprints/eprintLovejoy/neweprint/Anthropause.GRL.final.13.6.14bbis.pdf
Link: http://wattsupwiththat.com/2014/07/21/claim-natural-variation-masked-global-warming-creating-the-pause/
——————————————————————————————————-
Klarer Fall: Dieser Autor rechnet mit einer neuen und verstärkt einsetzenden Erwärmung. Aber um die Tatsache, dass der natürliche Einfluss den vermeintlich anthropogenen Einfluss offensichtlich überdeckt, kommt auch er nicht vorbei.
Im Übrigen wird die Liste der Entschuldigungen für den Stillstand immer länger, wie Anthony Watts eindrucksvoll zusammengestellt hat:
Liste der Entschuldigungen für den ,Stillstand’ umfasst jetzt 29 Dinge
Anthony Watts
Das letzte Mal, als ich dazu etwas geschrieben hatte waren es zehn:
[Siehe Bild oben rechts!]
Hier folgt eine aktualisierte Liste mit 29 Entschuldigungen für den nunmehr 18-jährigen ‚Stillstand‘ hinsichtlich der globalen Erwärmung (Dank an den Hockey Schtick):
Wenn man den Stillstand nicht erklären kann, kann man auch den Grund dafür nicht erklären.

Abbildung: RSS-Satellitendaten, aus denen der 18-jährige ‚Stillstand‘ hinsichtlich der globalen Erwärmung hervorgeht.
Eine aktualisierte Liste von mindestens 29 Entschuldigungen für den 18-jährigen ‚Stillstand der globalen Erwärmung, einschließlich jüngster wissenschaftlicher Studien, Medienzitaten, Blogs und damit verbundene Widerlegungen:
1) geringe Sonnenaktivität
2) Ozeane haben die globale Erwärmung gefressen [widerlegt] [widerlegt] [widerlegt]
3) Chinesischer Kohleverbrauch [widerlegt]
4) Montreal-Protokoll 
5) Welcher ‚Stillstand? [widerlegt] [widerlegt] [widerlegt] [widerlegt]
6) Vulkanische Aerosole [widerlegt]
7) Stratosphärischer Wasserdampf
8) Stärkere Passatwinde im Pazifik [widerlegt]
9) Stadium Waves [?]
10) ‚Zufall!’
11) Kieferpollen
12) Es ist „nicht so ungewöhnlich” und „nichts weiter als natürliche Variabilität ”
13) „Wissenschaftler schauten auf die falschen ‚lausigen’ Daten ”
14) Kalte Nächte werden auf der Nordhemisphäre immer kälter
15) Wir haben vergessen, die Rosinen aus den Modellen zu picken, um sie in Einklang zu bringen mit der natürlichen Variabilität [widerlegt]
16) Negative Phase der Interdekadischen Pazifischen Oszillation
17) AMOC Ozean-Oszillation
18) „Globale Aufhellung” hat aufgehört
19) „Ahistorische Medien ”
20) „Es ist die wärmste Dekade denn je” Dekadische Mittel wurden verwendet, um den ‚Stillstand zu verstecken [widerlegt]
21) Nur wenige El Ninos seit 1999
22) Temperaturvariationen liegen „in etwa in der Mitte der AR 4-Modellergebnisse ”
23) „Nicht statistisch relevant”
24) Die falschen El Nino-Typen
25) Schwächere Passatwinde [widerlegt]
26) TDas Klima ist weniger sensitiv bzgl. CO2 als ursprünglich gedacht [siehe auch hier]
27) PDO und AMO natürliche Zyklen und hier
28) ENSO
29) Vom Sonnenzyklus getriebene ozeanische Temperatur-Variationen
Link: http://wattsupwiththat.com/2014/07/30/list-of-excuses-for-the-pause-now-up-to-29/
Übersetzt von Chris Frey EIKE




Tiefe Kratzer am Sauberstrom-Image – Feuer und Tod: Die verschwiegenen Gefahren der Windenergie

Wegen der großen Turmhöhen sind Brände in Windenergieanlagen kaum zu löschen
Nach Erkenntnissen der Untersuchung sind Windenergieanlagen wesentlich anfälliger für teils schwerwiegende technische Defekte als man der Öffentlichkeit bisher glauben machen wollte. Demnach werden jeden Monat durchschnittlich zehn Windturbinen allein durch Feuer zerstört. Die Häufigkeit solcher Ereignisse lässt sich auch daran erkennen, dass eine Internetsuche nach Begriffen wie „Turbines on Fire“ sofort zahlreiche Hinweise und spektakuläre Bilder bzw. Filme liefert [FIR1, FIR2, FIR3]. Eine Website, die sich auf dieses Thema spezialisiert hat, berichtet, dass der „Daily Telegraph“ beispielsweise am 11. Dez. 2011 meldete, dass „RenewableUK“ bestätigt habe, dass es allein in Großbritannien in den letzten fünf Jahren 1500 Vorfälle und Unfälle mit Windturbinen gegeben habe [TOFI].

Video:
Windkraftanlage in Neukirchen bei Heiligenhafen (OH) brennt ab. NDR aktuell 19.04.2012
Allerdings dokumentiert diese Webseite auch eine Schwachstelle des oben erwähnten Berichts, weil dort ausgesagt wird, dass bei solchen Bränden bisher noch keine Menschen zu Schaden gekommen seien. Dass dies nicht stimmen kann, dokumentiert ein Bericht der niederländischen RTL Nieuws vom 29.10. 2013, über den auch in englischer Sprache auf einer internationalen Webseite berichtet wurde [FTOD]. Demzufolge wurden zwei Monteure bei der Wartung einer Vestas-Turbine von einem Feuer im Maschinenraum überrascht, das ihnen den Fluchtweg abschnitt. Aufgrund der leichten Brennbarkeit wesentlicher Bestandteile einer solchen Windenergieanlage – dazu gehören auch Hunderte Liter brennbaren Schmieröls – hatten die beiden keine Chance, da das gesamte Maschinenhaus abbrannte. Einer der beiden stürzte auf der Flucht vor dem Feuer zu Tode, der andere starb im Maschinenhaus an Brandverletzungen. Besonders erschütternd war dabei die Tatsache, dass beide noch sehr jung waren: Einer war 21, der andere sogar nur 19 Jahre alt. Wie meist bei solchen Bränden in großer Höhe auf freiem Feld hatte die Feuerwehr so gut wie keine Chance, etwas zu unternehmen.
Feuer nur die Spitze des Eisbergs
Doch Schäden durch Feuer sind nur die Spitze des Eisbergs. So zitiert „Turbines on Fire“ Ergebnisse aus einem Bericht des Internationalen Verbandes der Engineering-Versicherer (IMIA) über Schäden an Windenergieanlagen im dänischen Markt, der einen Zeitraum von 15 Jahren umfasste. Dem Bericht zufolge lag der Anteil von Bränden bei lediglich 7 % der Schadenssumme. Rechnet man dies mit den berichteten 10 Ereignissen im Monat hoch, so kommt es jährlich zu rund 1700 Schadensereignissen im Zusammenhang mit Windenergieanlagen. Hiervon betreffen 40 % mechanische Ausfälle wie Rotorblattschäden, 28 % gehen auf das Konto der Elektrik (LOP=Loss of Power, Kurzschlüsse etc.), weitere 20 % sind auf Blitzeinschläge zurückzuführen, während Sturmschäden 4 % des Schadensaufkommens ausmachten [TOFI].
Erschreckend viele Todesfälle
Besonders wirksam ist offensichtlich der ideologische Schleier, den die Windkraft-Lobby mit tatkräftiger Mithilfe ihrer zahlreichen Sympathisanten in den Medien über die tatsächlich recht erheblichen Gefahren der Windenergie für Leib und Leben geworfen hat. Zwar erhalten Meldungen über Feuer oder den Absturz eines Rotorblatts auf lokaler Ebene eine gewisse Aufmerksamkeit, doch werden selbst schwere Personenschäden oder gar Todesfälle so selbstverständlich hingenommen, dass sich in der Öffentlichkeit der Eindruck verfestigt hat, als sei die Windkraftbranche gegen solche Vorkommnisse mehr oder weniger gefeit. Auch eine Schnellsuche im Internet mit Suchbegriffen wie „Wind Unfall“ fördert vordergründig zumeist lediglich Einzelmeldungen zutage, wobei nur selten Todesfälle gemeldet werden. Eine deutsche Website, die sich explizit des Themas Windrad-Unfälle annimmt [WIUN], ist lediglich ein Torso ohne großen Nutzen, weil sie offensichtlich schon kurz nach dem Beginn der Recherche nicht mehr weitergeführt wurde. Auch bei Wikipedia findet man – kaum verwunderlich angesichts der bekannten Dominanz grüner Ideologen in diesem Medium – nur eine sehr unvollständige Auflistung ohne Erwähnung von Todesfällen. Erst im englischsprachigen Netz findet sich eine recht gute Dokumentation [UNFA], welche für den Zeitraum von 1975 bis 30.9.2009 insgesamt 674 Einzelereignisse auflistet, die sehr sorgfältig nach Merkmalen zugeordnet, beschrieben und mit Quellenangaben dokumentiert sind. Leider befindet sich das Material hinter einer Bezahlschranke und wurde zudem ab Oktober 2009 nicht mehr fortgeführt. Für den Berichtszeitraum dokumentiert es jedoch immerhin 60 Todesfälle im Zusammenhang mit Windenergieanlagen. Vergleicht man dies mit anderen Zahlenangaben – z.B. den 1500 Unfällen innerhalb von fünf Jahren allein in Großbritannien –, so erscheint es gerechtfertigt, die Zahl der weltweit seit 1975 aufgetretenen Todesfälle mit einem Faktor von mindestens 5, eher jedoch 10 anzusetzen. Es darf daher angenommen werden, dass die Windenergie im Zeitraum von 1975 bis heute mindestens 300 und möglicherweise sogar bereits über 600 Menschenleben gefordert hat. Das Saubermann-Image der Branche bricht damit in sich zusammen und erweist sich als nichts anderes denn als geschicktes Lügengebäude.
Fred F. Mueller
[FIR1] http://www.wind-watch.org/video-germanfire.php
[FIR2] http://www.youtube.com/watch?v=54YOaQixRUo
[FIR3] http://www.youtube.com/watch?v=eQrtXx3aJdM
[TOFI] http://turbinesonfire.org/
[INGD] http://www.ingenieur.de/Fachbereiche/Windenergie/Unterschaetzte-Gefahr-Jeden-Monat-geraten-zehn-Windturbinen-in-Brand
[FTOD] http://www.epaw.org/multimedia.php?lang=en&article=a19
http://www.rtlnieuws.nl/nieuws/binnenland/monteur-overleden-bij-brand-windmolen-ooltgensplaat
[UNFA] http://de.scribd.com/doc/23856814/Wind-Turbine-Accidents
[WIUN] http://docs.wind-watch.org/unfalldatei_2006.html