Temperaturmessung: Rekord unbrauchbar

Wurde sie gerade noch einmal abgewendet, diese schreckliche Klimakatastrophe? Zumindest in Lingen? Das war – zur Erinnerung – bei jener Hitzewelle vor kurzem bekanntlich Deutschlands heißester Ort. Eine Station des Deutschen Wetterdienstes registrierte am 25. Juli der Wert von 42,6 °C, der von Medien und Potsdamer Klimakatastrophisten als Vorstufe zur Wetterhölle erklärt wurde.

Doch jetzt hat der private Wetterdienst »Wetter online« diesen Wert zurückgezogen: Rekord unbrauchbar. »Bezüglich des Standorts gibt es aber so viel berechtigte Kritik, dass Wetter online diesen Rekordwert nicht anerkennt.«

Historisch sei die Hitze im letzten Julidrittel ohne Zweifel gewesen, bekundet Wetter online. In Geilenkirchen wurde der alte Rekord von 40,3° am 24. Juli mit 40,5° knapp überboten. Danach hatten verschiedene Stationen mehr als 40° gemeldet. »So etwas hat es in Deutschland seit Beginn der regelmäßigen Wetteraufzeichnungen nicht gegeben.«

In Duisburg und Tönisvorst zeigte das Thermometer 41,2° an. Lingen kam dann in die Schlagzeilen mit 42,6°. Doch diese Messstelle in Lingen erfüllt jetzt nicht mehr den Standard der Weltorganisation für Meteorologie WMO. Denn es ist nicht egal, wo und wie das Thermometer steht und die Umgebung beschaffen sein soll. Der Messfühler muss abgeschattet sein, so dass er nicht von der Sonnenstrahlung oder der Wärmeabstrahlung eines Mauerwerkes beeinflusst wird. Er muss zudem ausreichend belüftet werden.Doch gerade im Umfeld der Station in Lingen wuchsen die Büsche in den vergangenen Jahren so, dass rund um die Wetterstation eine Wärmeinsel entstand, in der Wärme gestaut wurde. Höhere Temperaturen sind also nicht weiter verwunderlich. Die Station in Lingen geriet schon in den vergangenen Jahren in die Kritik, weil der Unterschied der Messwerte zu den umliegenden Stationen von Jahr zu Jahr größer wurde. Wetterunternehmer Jörg Kachelmann kritisierte den Standort der Station schon seit längerem; er wusste um den Effekt der Wärmeinseln.

Auch der Deutsche Wetterdienst DWD plante seit einigen Jahren, die Station zu verlegen. Allerdings fürchtet der Dienst die politischen Folgen einer solchen Verlegung. Wetter online: »Erkennt man den Wert nicht an, rücken »Klimawandelleugner« auf den Plan und erklären, dass es nach dem Medienhype gar nicht so heiß gewesen sei. Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standardqualität im Allgemeinen aufgetaucht.«

 

Denn Temperaturmessungen sind nach einem alten Spruch von Meteorologen das größte Problem dieser Zunft. Wo wird gemessen? Jeder kennt das: Steht in einem Zimmer das Thermometer nah an einem Ofen, ist es wärmer als in der Ecke gegenüber. Wo also ist die wahre Zimmertemperatur?

Die Vorschriften für offizielle Temperaturmessungen sehen einen Standort der Wetterhäuschen zwei Meter über dem Boden auf einer freien Fläche vor. Der Messfühler muss abgeschattet sein, ein Ventilator die Luft durchwedeln. Das Thermometer soll nicht die eigene Wärme messen, sondern die der Luft.

Besonders delikat sind Vergleiche der Temperaturentwicklung über vergangenen Jahrzehnte oder gar Jahrhunderte hinweg. Messtechnik ändert sich, ebenso wandeln sich die Gegebenheiten rund um die Messstationen. Häuser werden gebaut oder Wände hochgezogen, die die Temperaturen in der Umgebung verändern. Häufig muss der Wetterdienst auch den Standort seiner Station verändern. Messstationen mussten umgestellt werden, weil die Ableser laut Protokoll des Wetterdienstes unfähig waren, regelmäßig die Werte abzulesen und weiterzugeben.So wurde die Station in Bad Dürkheim, in der Rheinebene nahe dem Pfälzer Wald gelegen, mehrfach verlegt. »Am 13.9.1977 wurden die Beobachtungen an der jetzigen Station wegen Unfähigkeit des Beobachters eingestellt.« Zwei Monate später wurde ein neuer Beobachter gefunden und die Station wieder entsprechend verlegt. Da auch dieser Beobachter ausschied, ruhte die Station vom vom 21.10.1987 bis 14.4.1988. Die Station meldete rückgängige Temperaturen. Es ist also ein sehr schwieriges Unterfangen, Temperaturmesswerte über viele Jahre zu vergleichen. Meteorologen versuchen daher, stark schwankende Daten durch statistische Verfahren zu »homogenisieren«, etwas böse ausgedrückt: passend zu machen.

Wie schwierig, ja unmöglich es ist, die Entwicklung von Temperaturen über die letzten 100, 200 Jahre sogar auf die Nachkommastelle genau anzugeben, zeigte einst die wichtige Arbeit von Michael Limburg, der als Ingenieur im Bereich der Messtechnik und Fehlerstatistik gearbeitet und die entsprechenden Erfahrungen gesammelt hat: »Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme« lautete der etwas sperrige Titel.

Limburg ging in seiner Dissertation der Frage nach, ob die meteorologischen Daten der vergangenen 150 Jahre genau genug sind, um den Verlauf der »Globalen Mitteltemperatur« auf 1/10 Grad Celsius genau zu berechnen. Dieser Verlauf spielt in der aktuellen Klimadebatte eine wichtige Rolle; belegen die einen damit doch, dass es wärmer, die anderen, dass es kälter wird.

Doch die wichtige Frage ist: Lässt sich eine solche Aussage überhaupt treffen? Satelliten vermögen heute sehr genau alle möglichen Wetterdaten wie Temperaturen der verschiedenen Oberflächen zu messen. Sie gibt es allerdings erst seit etwa knapp 40 Jahren. Davor beruhen die Temperaturangaben auf Messungen unterschiedlicher Messstationen. Bei denen hängt es sehr davon ab, wo und wie die Thermometer angebracht sind. Über einer Wiesenfläche ergeben sich andere Temperaturen als über Asphaltflächen. Ziemlich schwierig, wenn man sehr unterschiedlich zustande gekommene Temperaturaufzeichnungen mit vielen dubiosen Angaben miteinander vergleichen und Trends herauslesen will.Das Ergebnis der Dissertation von Limburg:

»Dabei kam ich zu dem eindeutigen Ergebnis, dass die verwendeten historischen Wetter-Messdaten dies nicht erlauben. Ich fand heraus, dass die bei der Berechnung der globalen Mitteltemperatur unvermeidliche verbleibende Unsicherheit mindestens genau so groß ist wie die ganze offiziell angegebenen Änderung über 150 Jahre, wahrscheinlich aber sogar ein Vielfaches beträgt. Dies ergibt sich zwangsläufig bei Anwendung aller gängigen und vielfach erprobten Regeln der Messtechnik und der statistischen Fehlerrechnung.«

Dieses Ergebnis schreckte die prüfenden Professoren erheblich auf. Limburg weiter: »Die Arbeit stellte ja indirekt wesentliche Aussagen zur angeblichen ›menschengemachten Klimaerwärmung‹ und damit einen der Hauptgründe für die Förderung der sogenannten ›Erneuerbaren Energien‹ infrage. Für beide Themenkomplexe gibt es jedoch höchst umfangreiche Fördergelder. Vermutlich befürchteten die Verantwortlichen diesbezügliche Nachteile, falls sie einer Arbeit Platz und dem Autor einen akademischen Grad zugestanden, der dem bisherigem Dogma – und sei es auch nur indirekt – widersprach.«

Man kann sich vorstellen, wie der Blutdruck der Herren Prüfprofessoren hochschnellte. Die erste Kommission, die die Promotionsarbeit prüfen sollte, trat tatsächlich geschlossen zurück. Begründung: »Weitgehende politische Motivationder Arbeit«.

Um es kurz zu machen: Die Arbeit wurde nach einer hanebüchenen Odyssee schließlich abgelehnt. Es darf nicht belegbar sein, was nicht ins politische Konzept passt.

Nur die Entwicklung der Temperaturen über Jahrhunderte hinweg wird nach wie vor so genau angegeben, wie dies messtechnisch überhaupt nicht möglich ist. Doch ist sie ist Grundlage jener wilden These der Klimakatastrophe, auf der moderne Ablasshändler ihre Geschäfte aufbauen.

Der Beitrag erschien zuerst bei TE hier




„Jede Batterie hat zwei Polen: Kathole und Synode“

von Robert von Loewenstern

Die Grünenvorsitzende Annalena Baerbock zählt zu den kreativsten und gebildetsten Köpfen der deutschen Politik. Sie ist nicht nur medizinisch bewandert, sondern verfügt ebenso über ein grundiertes Fundwissen in vielen weiteren naturwissenschaftlichen Bereichen. Bereits mehrfach fiel die Spitzengrüne mit technisch anspruchsvollen Vorschlägen und Lösungsansätzen auf, die auf der Achse umfassende Würdigung erfuhren. Auch ihr vorurteilsfreier und ergebnisoffener Umgang mit Zahlen hat so manches Nach- und Umdenken ausgelöst – und zugleich Anfeindungen von rechtsaußen.

Jetzt, nach einem ARD-Interview, gab es erneut eine heftige Kontroverse um Aussagen der grünen Energieexpertin. Unter anderem hatte sich Baerbock zu Begleiterscheinungen der Elektromobilität geäußert. Wörtlich sagte sie (hier ab 10:00): „Fragen wie Rohstoffe, Kobold, wo kommt das eigentlich her, wie kann das eigentlich recycelt werden? Da müssen wir natürlich Antworten geben, und da gibt es jetzt die ersten Batterien, die auf Kobold verzichten können.“

Unmittelbar darauf ergoss sich in den sozialen Medien ein brauner Strom von Spott und Häme über die angehende Kanzlerkandidatin. Kein Wortspiel war den Hetzern zu billig. Da war die Rede von „Problembaerbock“ und „Baerbockmist“, man geiferte und ereiferte sich, die umstrittene Grüne habe mal wieder „einen echten Baerbock geschossen“ beziehungsweise wolle den Zuschauern „einen Baerbock aufbinden“.

Achse-exklusiv: Das ganze Interview

Stellvertretend für die Hasskommentare der Abgehängten und Abgedrehten sei ein „Dr. Bauer“ zitiert, der auf Twitter giftete: „Früher hieß es bei Esso: Pack den Tiger in den Tank. Heute heißt es bei den #Gruenen: Pack den #Kobold in die Batterie.“ Ein anderer User unterstellte gar Bildungslücken: „Offensichtlich hat es schon lange vor Greta Thunberg Schulschwänzer/innen gegeben.“

Was die Baerbock-Feinde sämtlich übersahen: Die grüne Energieexpertin hat recht. Zum einen ist die wirkmächtige Kombination von Kobold und Strom nachgewiesen und weit verbreitet. Zum anderen sind mittlerweile zahlreiche Stromspeicher ohne Kobold auf dem Markt. Die Baerbock-Aussage über koboldfreie Batterien entspricht damit dem Stand der Wissenschaft.

Zudem war ihr Statement aus dem Zusammenhang gerissen. Die ARD hatte das Gespräch geschnitten, was zu stark verkürzter Darstellung und missverständlichen Aneinanderreihungen führte. Achgut liegt exklusiv das gesamte (sechsstündige) Originalmaterial des Interviews vor, mit den vollständigen Antworten Annalena Baerbocks auf alle vier Fragen. Die ungeschnittene Aufnahme beweist, dass die Grünenvorsitzende zu zahlreichen Themenfeldern ebenso detailliert wie kompetent Stellung nimmt.

„Sonarstrom und Grasfasernetze ausbauen“

Unter anderem erläutert Baerbock ausführlich Aufbau und Funktionsweise von Batterien:

„Für die Batterieherstellung benötigt man eine Vielzahl seltsamer Erden, zum Beispiel Silentium, Graffiti, Mango, Titten und Lyzeum beziehungsweise – auf Griechisch – Lecithin. […] Jede Batterie hat zwei Polen mit Elektrohoden: Kathole und Synode. Die Synode besteht neben Lyzeum meist aus leitendem Graffiti. Für die Kathole wird klassisch und am häufigsten Mangodioxid verwendet, gefolgt von Graffitifluorid.“

Leidenschaftlich plädiert die Grünenchefin im ungekürzten Interview für eine langfristige Förderung der ökologischen Stromproduktion und einen beschleunigten Leitungsausbau:

„Es kann nicht sein, dass wir mit unseren Windkraft- und Sonaranlagen in Massen Strom erzeugen, den wir in die ganze Welt exportieren. Deshalb brauchen wir einen konsequenten Netzausbau. In diesem Zug müssen wir die veralteten Kuffarrohre Schritt für Schritt durch moderne und umweltfreundliche Grasfasernetze ersetzen. Dann können unsere ökumenisch produzierten Elektrolyte endlich deutschlandweit dorthin fließen, wo die Menschen sie benötigen: in ihren Steckdosen und Akkumulierungen.“

Baerbock weiter: 

„Die Förderung von Wind- und Sonarstrom ist alternativlos. Es ist längst gesellschaftlicher Konvent, dass wir unsere Kinder nicht weiter mit den Langzeitfolgen von angereichertem Urin belasten dürfen. Andere Lösungen sind nicht absehbar. Die seit Jahrzehnten von der Industrie versprochene Kernkonfusion ist, wie bereits der Name nahelegt, nichts als eine Spinnerei. Dasselbe gilt für andere Kontrazeptionen im Zusammenhang mit Atmokraft.“

„Reduktion von Coladioxid bleibt oberstes Ziel“

Die Grünenchefin betont, Klimaschutz, Umweltschutz und Menschenschutz seien für sie ein „Dreiklang in perfekter Einfalt“. Die Elektromobilität nutze nicht nur dem Klima, sondern sorge speziell in den Innenstädten „für einen spürbaren Rückgang der tödlichen Stinkoxide“. Gleichzeitig erinnert sie daran, damit sei „das Feenstaubproblem noch lange nicht gelöst“. Vor allem die „Bekämpfung von Trollwiderstand und Reifenabtrieb“ sei nun vorrangige Aufgabe der Industrie.

Zum Schutz bedrohter Minderheiten sei das Gute-Kobold-Gesetz in Vorbereitung, das eine koboldfreie Batterieproduktion verbindlich festschreibe. Zu der Frage nach möglichen Interessenkonflikten, weil an dem Entwurf auch Grünen-eigene Kobolde (K. Schulze, A. Hofreiter) mitgearbeitet hatten, wollte sich die Parteivorsitzende nicht äußern. Grundsätzlich bleibe jedenfalls die Reduktion von CO2 vorrangiges politisches Ziel der Grünen:

„Die Klimaleugner führen ja immer wieder an, dass unsere Atomsphäre zu 99 Prozent aus Stinkstoff und Sauberstoff besteht und Coladioxid nur in winzigen Mengen in der Atomluft vorkommt. Das ist richtig. Ebenso korrekt ist die Aussage, dass Pflanzen Coladioxid zum Wachstum benötigen und per natürlichem Photoshop-Prozess wieder in die Bestandteile Colastoff und Oxymoron zerlegen. Nur, all das sagt nichts über die Gefährlichkeit von menschengemachtem CO2 für das Klimakterium aus. Man kann es gar nicht oft genug wiederholen: Jeder Deutsche erzeugt pro Kopf jährlich neun Gigabyte Coladioxid!“

Darmkatholiken und Verbalgonorrhoe

Dass das Interview mit der Spitzengrünen so umfangreich ausfiel, hängt indirekt ebenfalls mit der CO2-Reduktion zusammen. Zur Abwendung der Klimakatastrophe verzichten viele Grüne auf CO2-haltige Getränke – auch sie selbst, wie Baerbock offenbart:

„Dazu muss man wissen, dass die im Volksmund sogenannte ,Colasäure‘ in Wahrheit keine Säure ist. Es handelt sich um gelöstes Coladioxid, also CO2 , das beim Öffnen der Flasche wieder in die Atomsphäre gelangt. Wir Grünen verwenden für den Sprudeleffekt deshalb seit langem vegane Ersatzstoffe, nämlich NO2 und SO2.“

Das Problem hierbei: Aus NO2 (Stinkstoffdioxid) und SO2 (Schwafeldioxid) entstehen unter Zugabe von Wasser unter bestimmten Bedingungen echte Säuren. Im einen Fall ist dies H2SO4 (Schwafelsäure), im anderen Fall HNO3 (Salbadersäure). Diese beiden Reizstoffe prickeln zwar im Mund- und Rachenraum ähnlich angenehm wie „Colasäure“. Die Einnahme ist allerdings mit Nebenwirkungen verbunden.

Werden Schwafelsäure und Salbadersäure kombiniert, bildet sich unangenehmer Salbader in Reinform. Außerdem führt Langzeitgenuss zu Darmkatholiken und verbaler Dauergonorrhoe, einem hartnäckigen, ansteckenden und meldepflichtigen Ausfluss, von dem neben Annalena Baerbock zahlreiche weitere Grüne betroffen sind.

Mit freundlicher Genehmigung des Autors. Zuerst erschienen auf der Achse des Guten.

Herr von Loewenstern meinte, wir dürfen weiterhin nur dann etwas von ihm übernehmen, wenn sich unsere Leser wie wir von EIKE königlich amüsieren. Also bitte, geneigter Leser, lachen Sie sich schlapp, sonst müssen wir Vertragsstrafe zahlen!




Die 70er Jahre Klima Krisen Show geht weiter, Teil 2 von 2

Auf der Suche nach… der kommenden Eiszeit

Nach der Absage der größten TV-Show aller Zeiten fand Leonard Nimoy die nächstbeste Unterhaltungsnische für Mr. Spock…

In Search of…. The Coming Ice Age

Auf der Suche nach…. Die kommende Eiszeit
30min | Dokumentarfilm, Science-Fiction | ausgestrahlt Mai 1978

Storyline
Eine Untersuchung, ob die dramatischen Wetterveränderungen in den nördlichen Bundesstaaten Amerikas bedeuten, dass sich eine neue Eiszeit nähert.

Pat Bushnell
Dr. James Hayes
Dr. Chester Langway
Dr. Gifford Miller
Dr. Stephen Schneider

IMDB [Link zu alten Hollywood Filmen, hier, obiger Dokumentarfilm]

Besonders sehenswert ist das Segment mit Dr. Stephen Schneider . Er wurde nach Geoengineering-Plänen gefragt, um „The Coming Ice Age“ abzuwenden.

Können wir diese Dinge tun? Ja. Aber werden sie die Dinge verbessern? Ich bin mir nicht sicher. Wir können nicht mit Sicherheit vorhersagen, was mit unserer eigenen klimatischen Zukunft geschieht. Wie können wir daherkommen und das [verstümmeln] ignorieren? Wir könnten die Eiskappen schmelzen. Aber was würde das für die Küstenstädte bedeuten? Die Heilung könnte schlimmer sein als die Krankheit. Wäre das besser oder schlechter als das Risiko einer Eiszeit?

  

Die sich abkühlende Welt, Newsweek, April 28, 1975

 

Die sich abkühlende Welt
Newsweek, April 28, 1975

Es gibt bedrohliche Anzeichen dafür, dass sich das Wetter auf der Erde dramatisch verändert hat und dass diese Veränderungen einen drastischen Rückgang der Nahrungsmittelproduktion bedeuten könnten – mit schwerwiegenden politischen Konsequenzen für nahezu jede Nation auf der Erde. Der Rückgang der Nahrungsmittelproduktion könnte ziemlich bald einsetzen, vielleicht erst in 10 Jahren. Die Regionen, die davon betroffen sein werden, sind die großen Weizenanbaugebiete Kanadas und der UdSSR im Norden sowie eine Reihe von marginal autarken tropischen Gebieten – Teile Indiens, Pakistans, Bangladeschs, Indochinas und Indonesiens -, in denen der Anbau erfolgt Die Jahreszeit hängt von den Regenfällen ab, die der Monsun mit sich bringt.

Die Beweise für diese Vorhersagen häufen sich inzwischen so massiv, dass Meteorologen kaum mehr mithalten können.

[…]

Für Wissenschaftler sind diese scheinbar unterschiedlichen Vorfälle die ersten Anzeichen für grundlegende Veränderungen des Weltwetters. Die zentrale Tatsache ist, dass nach einem Dreivierteljahrhundert außergewöhnlich milder Bedingungen das Erdklima sich abzukühlen scheint.

[…]

Klimatologen sind pessimistisch, ob die politischen Führer positive Maßnahmen ergreifen werden, um den Klimawandel zu kompensieren oder sogar seine Auswirkungen zu mildern. Sie räumen ein, dass einige der spektakuläreren vorgeschlagenen Lösungen, wie das Schmelzen der arktischen Eiskappe durch Bedecken mit schwarzem Ruß oder das Umleiten von arktischen Flüssen, weitaus größere Probleme verursachen könnten als die, die sie lösen. Die Wissenschaftler sehen jedoch nur wenige Anzeichen dafür, dass die Regierungschefs überhaupt bereit sind, die einfachen Maßnahmen zur Bevorratung von Nahrungsmitteln oder zur Einbeziehung der Variablen der klimatischen Unsicherheit in wirtschaftliche Prognosen für die künftige Nahrungsmittelversorgung zu ergreifen. Je länger die Planer sich verweigern, desto schwieriger wird es für sie, den Klimawandel zu bewältigen, sobald die Ergebnisse ernst werden.
– Peter Gwynne mit Berichten der Redaktion

Newsweek , 28. April 1975 Volltext.

Zurück zum Jahr 1975… „Klimatologen sind pessimistisch, dass die politischen Führer positive Maßnahmen ergreifen werden, um den Klimawandel zu kompensieren oder sogar seine Auswirkungen zu mildern.“ Manche Dinge ändern sich nie…

 

Wissenschaftler fragen, warum sich das Weltklima ändert, The New York Times 21. Mai 1975
WALTER SULLIVAN 21. Mai 1975

(Dies ist eigentlich ein sehr guter Artikel …)

Das Weltklima verändert sich. Davon sind die Wissenschaftler fest überzeugt. Aber in welche Richtung und warum ist Gegenstand der vertiefenden Debatten.
Es gibt Spezialisten, die sagen, dass eine neue Eiszeit auf dem Weg ist – als unvermeidliche Folge eines natürlichen Kreislaufprozesses oder als Folge einer von Menschen verursachten Verschmutzung der Atmosphäre. Und es gibt Leute, die behaupten, solche Verschmutzungen könnten tatsächlich eine Eiszeit auslösen.

Früher oder später wird eine starke Abkühlung des Klimas allgemein als unvermeidlich angesehen. Hinweise, dass es bereits begonnen haben könnte, sind offensichtlich. Der Rückgang der Durchschnittstemperaturen seit 1950 auf der Nordhalbkugel hat beispielsweise ausgereicht, um die britische Vegetationsperiode um zwei Wochen zu verkürzen.

In einem kürzlich veröffentlichten Bericht der National Academy of Sciences heißt es: „Die globalen Strukturen der Nahrungsmittelproduktion und der Bevölkerung, die sich entwickelt haben, hängen implizit vom Klima des heutigen Jahrhunderts ab.“

Die Anfälligkeit für den Klimawandel sei „umso gravierender, als wir erkennen, dass unser derzeitiges Klima in der Tat sehr ungewöhnlich ist und dass wir es möglicherweise Klimaveränderungen als Ergebnis unserer eigenen Aktivitäten hervorbringen. “

 […]

Die erste Hälfte dieses Jahrhunderts war anscheinend die wärmste Zeit seit der „Warmzeit“ vor 5.000 und 7.000 Jahren unmittelbar nach der letzten Eiszeit. Dass sich das Klima zumindest auf der Nordhalbkugel seit etwa 1950 abkühlt, ist gut begründet – wenn man die letzten beiden Winter außer Acht lässt.

[…]

Vom Menschen verursachter Einfluss Es besteht allgemeine Einigkeit darüber, dass das Einbringen großer Mengen von Rauchpartikeln oder Kohlendioxid in die Atmosphäre das Klima verändern kann. Gleiches gilt für die Erzeugung von Industriewärme, die mit einem erheblichen Teil der Sonnenenergie vergleichbar ist, die auf die Erde fällt. Im Mittelpunkt der Debatte stehen die genauen Rollen dieser Auswirkungen und der Grad der Verschmutzung, die zu gravierenden Veränderungen führen.

Kohlendioxid in der Luft wirkt wie Glas in einem Gewächshaus. Es ermöglicht, dass Sonnenenergie als sichtbares Licht auf die Erde gelangt, behindert jedoch den Austritt dieser Energie in Form von Wärmestrahlung (bei infraroten Wellenlängen) in den Weltraum.

Dr. Mitchell hat darauf hingewiesen, dass eine Vielzahl von Faktoren die Rolle von Kohlendioxid auf der Erde bestimmen. Inwieweit dieses Gas, das durch Schornsteine und Auspuffrohre in die Atmosphäre gelangt, von den Ozeanen absorbiert wird, hängt von der Temperatur der Oberflächengewässer ab.
Dies wiederum wird durch das Klima beeinflusst, was zu sogenannten Rückkopplungseffekten führt. Pflanzen verbrauchen Kohlendioxid in einer Menge, die von der Temperatur und der Menge des Gases in der Luft abhängt, was Vorhersagen über ihre Rolle erschwert.

Das Observatorium auf Mauna Loa, dem großen hawaiianischen Vulkan, verzeichnete zwischen 1958 und 1972 einen stetigen Anstieg des durchschnittlichen Kohlendioxidgehalts in der Atmosphäre um 4 Prozent. Dies war jedoch eine Periode der globalen Abkühlung – nicht das Gegenteil, wie man es von einem Treibhauseffekt erwarten würde.

Das Mauna-Loa-Observatorium hat auch einen stetigen Anstieg der atmosphärischen Trübung verzeichnet – das Ausmaß, in dem Partikel die Helligkeit der Sonne verringern. Die Studie der Akademie zeigt, dass die menschliche Aktivität in den letzten 120 Jahren mehr zu diesem atmosphärischen Staub beigetragen hat als Vulkanausbrüche.

Es heißt jedoch, dass die derzeitige atmosphärische Belastung durch künstlichen Staub vielleicht nur ein Fünftel der Menge beträgt, die durch die Vulkanexplosion von Krakatoa im Jahr 1883 in die Stratosphäre geworfen wurde. Die Rolle von atmosphärischem Staub ist komplex, da er zwar das auf die Erde kommende Sonnenlicht reduziert, aber der Staub wird selbst durch das Licht erwärmt, das die Atmosphäre erwärmt, in der er sich befindet.

Bis vor kurzem war die Vorstellung, dass Eiszeiten durch intensive vulkanische Aktivitäten ausgelöst werden, unpopulär, da keine Beweise für eine solche Aktivität vorliegen. Die Hypothese hat durch die Analyse von Sedimentkernen, die vom Bohrschiff Glomar Challenger aus dem Meeresboden gewonnen wurden, an Glaubwürdigkeit gewonnen.

Laut Wissenschaftlern der University of Rhode Island war Asche weit häufiger in Schichten zu finden, die in den letzten zwei Millionen Jahren gebildet wurden, als in den vorausgegangenen 18 Millionen Jahren.

Wenn der weltweite Energieverbrauch in der jetzigen Größenordnung weiter steigt, hat MI Budyko, ein führender sowjetischer Spezialist, katastrophale Klimaveränderungen prognostiziert. Er sagt, dass das kritische Niveau wahrscheinlich innerhalb eines Jahrhunderts erreicht wird.

Dies werde zu einer „vollständigen Zerstörung der polaren Eisdecke“ führen. Mit dem eisfreien Nordpolarmeer würde nicht nur der Meeresspiegel steigen, sondern auch das gesamte Wettersystem der nördlichen Hemisphäre verändert.

Dr. Mitchell hat jedoch angedeutet, dass die Erwärmung des Klimas aufgrund der Verschmutzung ausreichen könnte, um eine Eiszeit „ganz ungewollt“ auszulösen.

KANN DIE WAHRHEIT ERLERNT WERDEN?

Eine genauere Kenntnis der Vergangenheit wird sicherlich die Wahl zwischen verschiedenen Erklärungen für langfristige Klimaveränderungen erleichtern. Das Greenland Ice Sheet Program mit amerikanischen, dänischen und schweizerischen Teilnehmern bohrt eine Reihe von Löchern in den Kamm des grönländischen Eises in der Hoffnung, letztendlich das Klima der letzten 100.000 Jahre in jahresweisen Aufzeichnungen zu rekonstruieren.

Bisher wurde das Eis bis zu einer Tiefe von 400m durchbohrt, was die untersuchten Zeiträume um 1.420 Jahren verlängert. Die jährlichen Schichten können wie Baumringe in Bezug auf Sommer- und Winterschwankungen in der relativen Häufigkeit von zwei Formen von Sauerstoff (Sauerstoff 16 und Sauerstoff 18) gezählt werden. Ihr Verhältnis gibt die Temperatur zu dem Zeitpunkt an, als der Schnee zur Bildung dieser Eisschicht fiel.

[…]

The New York Times 21. Mai 1975 Vollständiger Text.

Die „Wissenschaft“ steckte damals eindeutig in den Kinderschuhen… Aber, wie schon erwähnt, manche Dinge ändern sich nie…

Wenn der weltweite Energieverbrauch in der jetzigen Größenordnung weiter steigt, hat MI Budyko, ein führender sowjetischer Spezialist, katastrophale Klimaveränderungen prognostiziert. Er sagt, dass das kritische Niveau wahrscheinlich innerhalb eines Jahrhunderts erreicht wird.

Dies werde zu einer „vollständigen Zerstörung der polaren Eisdecke“ führen. Mit dem eisfreien Nordpolarmeer würde nicht nur der Meeresspiegel steigen, sondern auch das gesamte Wettersystem der nördlichen Hemisphäre verändert.

Zumindest waren ihre Vorhersagen damals weniger fälschbar… Die Eiskappen werden bis 2075 geschmolzen sein. Hat jemand eine Referenz für Budykos Vorhersage? Bezog er sich auch auf die Antarktis und Grönland? Oder nur das Meereis? Die Tatsache, dass die aktuelle arktische Meereisbedeckung deutlich über dem holozänen Durchschnitt liegt, führt mich zu einem Alfred E. Neuman-Moment .

 

  „Kommt die Eiszeit?“, Science News, 1. März 1975


Science News 1. März 1975

Worte sind nicht nötig und das bringt uns zum pièce de résistance

Wie die gegenwärtige gefälschte Klimakrise uns vor der Klimakrise der 70er gerettet hat

Autor, modifiziert nach IPCC AR4

Nach den heiligen Klimamodellen wäre der Planet ohne die Climate Wrecking Industry kälter als „Die Eiszeit kommt“

Dieses stolze Mitglied der Climate Wrecking Industry sagt: „Gern geschehen.“

****

Gefunden auf WUWT vom 24.07.2019

Zusammengestellt und übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2019/07/24/that-70s-climate-crisis-show/




Der Juli 2019 war nicht der wärmste Juli jemals

Man würde denken, dass für eine solche Abschätzung nur die besten verfügbaren Daten herangezogen werden würden. Schließlich stammen die Angaben von offiziellen regierungsamtlichen Stellen (NOAA, WMO).

Aber die derzeitigen offiziellen Verkündigungen globaler Temperaturrekorde stammen von einer ziemlich limitierten Anzahl fehleranfälliger Thermometer, welche niemals dazu gedacht waren, globale Temperaturtrends zu ermitteln. Das globale Thermometer-Netzwerk weist drei große Probleme auf, wenn es um global gemittelte Temperaturwerte geht:

1) Der städtische Wärmeinseleffekt (UHI) hat zu einer graduellen Erwärmung der meisten Thermometer-Messstellen geführt wegen zunehmender Bebauung, der Einrichtung von Parkplätzen und Maßnahmen zu Air Conditioning, Autos usw. Diese Effekte sind lokaler Natur und nicht repräsentativ für die meisten globalen Festlandsgebiete (die zumeist weiterhin ländlich geprägt sind), und diese Erwärmung ist keinesfalls dem zunehmenden Kohlendioxid-Anteil in der Atmosphäre geschuldet. Weil die UHI-Erwärmung wie eine globale Erwärmung „aussieht“, ist es schwierig, diese aus den Daten zu entfernen. Tatsächlich sieht es so aus, als ob die Bemühungen der NOAA, UHI-kontaminierte Daten wie Daten aus ländlicher Umgebung aussehen zu lassen, den gegenteiligen Effekt hatten. Die beste Strategie wäre es, einfach die Daten der besten Thermometer-Standorte (in ländlicher Umgebung) heranzuziehen, aber genau das wird derzeit nicht gemacht.

2) Wassertemperaturen der Ozeane sind notorisch unsicher wegen wechselnder Messverfahren (vor langer Zeit Messungen mittels Eimer-Stichproben, dann Messungen der Temperatur in einströmendem Kühlwasser der Schiffsmotoren, Bojen und Satellitenmessungen erst seit 1983 usw.)

3) Sowohl Land- als auch Wassertemperaturen sind geographisch notorisch unvollständig. Wie kann man Temperaturen abschätzen in einem Gebiet von 1 Million Quadratmeilen, wo es keine einzige Messung gibt?

Es gibt bessere Möglichkeiten.

Ein vollständigeres Bild: Datensätze globaler Re-Analysen

An vielen Wettervorhersage-Zentren weltweit arbeiten Experten, welche eine Vielfalt von Daten aus allen möglichen Quellen auswerten und herausfinden, welche dieser Daten Wetterinformationen enthalten und welche nicht.

Aber wie können sie diesen Unterschied erkennen? Weil gute Daten zu guten Wettervorhersagen führen und schlechte Daten nicht.

Unter den Datenquellen sind Thermometer, Bojen und Schiffe (wie in den „offiziellen“ globalen Temperatur-Berechnungen), aber auch zusätzlich Daten von Wetterballonen, kommerziellen Flugzeugen und eine Vielfalt von Daten aus Satellitenmessungen.

Warum sollte jemand nicht von der Erdoberfläche stammende Daten verwenden, um bessere Messungen an der Oberfläche zu bekommen? Da das Wetter an der Oberfläche die Wetterbedingungen in der höheren Atmosphäre beeinflusst (und umgekehrt), kann man eine bessere Schätzung der globalen mittleren Temperatur erhalten, falls man Temperaturmessungen via Satelliten im globalen Maßstab in der freien Atmosphäre hat und auch in Regionen, in denen es gar keine Daten von der Oberfläche gibt. Aus Satellitendaten ableiten zu können, ob es sich um eine warme Luftmasse oder um eine kalte Luftmasse handelt, ist besser als überhaupt keine Daten zu haben.

Außerdem verlagern sich Wettersysteme. Und darin liegt auch der Sinn von Re-Analysen-Datensätzen: Weil all die verschiedenen Datenquellen sorgfältig durchforstet worden sind, um zu sehen, welche Mischung derselben zu den besten Wettervorhersagen führte (einschließlich Adjustierungen möglicher Instrumentenfehler und zeitlicher Verlagerung), wissen wir, dass die physikalische Konsistenz der verschiedenen eingehenden Daten ebenfalls optimiert waren.

Ein Teil dieses Verfahrens des Erstellens von Vorhersagen ist es, „Daten“ zu erhalten, wo es keine Daten gibt. Weil Wettersysteme unentwegt um die Welt ziehen, können die Gleichungen für Verlagerung, Thermodynamik und Feuchtigkeit herangezogen werden, um Temperaturwerte dort abzuschätzen, wo es keine Daten gibt, indem man vorhandene Daten in anderen Gebieten extrapoliert und dann beobachtet, wie sich das Wettersystem verhält, wenn es in Gebiete ohne Daten zieht. Darum wussten wir im Voraus, dass es in Frankreich einige außerordentlich heiße Tage geben würde, weil eine Luftmasse aus der Sahara bis nach Westeuropa vorankommen würde.

Diese Art der Extrapolation auf physikalischer Grundlage (nichts anderes ist Wettervorhersage) ist viel realistischer als beispielsweise die Temperaturen auf dem Festland rund um die Arktis zu messen und einfach zu raten, wie die Temperaturverhältnisse über dem kalten Meerwasser und dem Eis beschaffen sind, wo die Temperatur im Sommer selten deutlich über den Gefrierpunkt steigt. Tatsächlich ist dies eine der höchst fragwürdigen Verfahren von NASA GISS, um Daten aus datenfreien Gebieten zu erhalten.

Falls man denkt, dass das Re-Analyse-Verfahren fragwürdig klingt, weise ich nochmals darauf hin, dass genau dieses für die tägliche Wettervorhersage herangezogen wird. Zwar können wir uns über einige falsche Wettervorhersagen lustig machen, aber die objektiven Beweise zeigen, dass Vorhersagen für 2 bis 3 Tage im Voraus ziemlich genau sind, und sie werden mit der Zeit immer weiter verbessert.

Das Re-Analyse-Bild für den Juli 2019

Die einzigen Re-Analyse-Daten, die ich kenne und die fast in Echtzeit zu erhalten sind, stammen von WeatherBell.com und kommen vom Climate Forecast System der NOAA, Version 2 (CFSv2).

Die Graphik der Temperaturabweichungen vom Mittel des Zeitraumes 1981 bis 2010 zeigen für Juli 2019 eine globale mittlere Abweichung von lediglich etwas über 0,3°C über den Normalwerten:

Man beachte bei dieser Graphik, wie verzerrt die Berichterstattung in den Nachrichten war, als es um die vorübergehenden heißen Orte in Frankreich ging. Den Medienberichten zufolge sollen sie zur globalen mittleren Erwärmung beitragen. Ja, in Frankreich war es im Juli ungewöhnlich warm. Aber man betrachte die kalten Gebiete in Osteuropa und Westrussland. Wo gab es Berichte darüber? Was ist mit der Tatsache, dass es in den USA allgemein kälter als normal war?

Der Re-Analyse-Datensatz CFSv2 reicht nur bis zum Jahr 1979 zurück, und doch erkennt man, dass der Juli 2019 seit 41 Jahren an vierter Stelle der wärmsten Juli-Monate lag: in den Jahren 2016, 2002 und 2017 war es jeweils wärmer. Und eine Abweichung vom Mittelwert von +0,3°C ist nun wirklich nicht alarmierend.

Warum verwendet man bei der Verfolgung der globalen Temperaturen keine Re-Analyse-Datensätze?

Die Hauptbegrenzung der Re-Analyse-Datensätze liegt darin, dass sie meist nur bis 1979 zurück reichen, und ich glaube, dass mindestens einer bis 1950 zurückreicht. Da man bei der Berechnung globaler Temperaturtrends Daten so weit zurück reichend wie möglich haben will (zumindest bis zurück zum Jahr 1900 oder davor), können sie legitimerweise sagen, dass sie ihre eigenen Datensätze konstruieren wollen aus den längsten Datenreihen: von Thermometer-Messungen.

Aber der größte Teil der Erwärmung ereignete sich während der letzten 50 Jahre, und falls man versucht, die globale Temperatur mit Treibhausgas-Emissionen zu verlinken, scheint der Zeitraum seit 1979 ausreichend, da dies der Zeitraum mit den höchsten Treibhausgas-Emissionen ist.

Also schlage ich vor, dass man globale Re-Analyse-Datensätze heranzieht, weil diese ein genaueres Bild geben für Schätzungen globaler Temperaturänderungen zum Zwecke des Erkennens von Erwärmungstrends während der letzten 40 Jahre und diese zeitlich nach vorne zu extrapolieren. Es sind eindeutig die Datensätze mit der besten physikalischen Grundlage. Sie wurden optimiert, um die besten Wettervorhersagen zu erstellen und sind viel weniger anfällig für willkürliche Eingriffe in Gestalt von Adjustierungen und damit dafür, die vom Provider gewünschten Antworten zu liefern anstatt die Physik der Atmosphäre für diese Antworten zugrunde zu legen.

Link: https://wattsupwiththat.com/2019/08/02/july-2019-was-not-the-warmest-on-record/

Übersetzt von Chris Frey EIKE




KLEINE KLIMAKUNDE – Grüne Klimakiller (1)

Ja, das Wort ist Unfug. Klima kann man nicht killen, es ist und bleibt eine Wetterstatistik. Es klingt aber so schön reißerisch und vielleicht lockt es Leser an, die nur an Kohle, Öl und Gas denken, wenn jemand „Klimakiller“ sagt. Hier geht es aber um die Wirkung der gar nicht reinen Ökoenergien auf das Klima.

Die menschliche Nutzung der Wind- wie auch der Sonnenenergie ist ein Eingriff ins Ökosystem. Energie kann nicht erzeugt, nur gewandelt werden. Jede Naturenergie wird ohne menschlichen Eingriff zu 100 Prozent von der Natur genutzt, jeder Eingriff stört das ursprüngliche energetische Gleichgewicht.Solar- und Windenergie sind das Ergebnis der Sonneneinstrahlung, die wiederum einem kernphysikalischen Fusionsprozess der Sonne entspringt. Die Strahlung sorgt für direkte wie auch indirekte Energiezufuhr über Luftdruckunterschiede und Wasserkreisläufe. Sonnenenergie sorgt für die Erwärmung des Bodens, die Fotosynthese und die Verdunstung von Wasser, der Wind ebenfalls für Verdunstung und zusätzlichen Wärmeentzug.

Sobald der Mensch eingreift und Energie „abzweigt“, fehlt sie der Natur an anderer Stelle. „Jeder Eingriff in dieses bodennahe Ausgleichs- und Kühlsystem muss zu Änderungen im Wärmehaushalt der betroffenen Regionen führen“, schreiben die „Energiedetektive“ aus Graz in ihrer Studie 1). Die Entnahme von Sonnen- und Windenergie ändert natürliche Klimaprozesse. Windkraftanlagen beeinflussen die natürliche Ausgleichsströmung zwischen Zonen verschiedenen Luftdrucks, die Energie fehlt im bodennahen Kühlsystem und ändert damit auch die Wasserbilanzen. Sie greifen in das Lüftungssystem der Natur ein.

Wie das im Detail geschieht, durch welche sich überlagernden Prozesse, die sich kompensieren, aber auch verstärken können, ist noch nicht eindeutig geklärt. Es gibt eine dünne Quellenlage, die verschiedene Theorien zeigt.
Die „Energiedetektive“ gehen davon aus, dass die geminderte Energie des Windes nach der Windkraftanlage (WKA) den Boden weniger kühlt und weniger Feuchtigkeit verdunsten lässt. Weniger Verdunstung und weniger Wolkenbildung, weniger Regen in weiterer Entfernung wären die Folge. In Summe würde die Sonneneinstrahlung zunehmen, was die Erwärmung wiederum fördert.Andere gehen davon aus, dass durch die Drehung der Rotoren die laminare Schichtung der strömenden Luft aufgebrochen werde. Es erfolgt eine Umwandlung in Elektrizität mit einem Wirkungsgrad von etwas über 40 Prozent. Physikalisch bedingt unterliegt der maximale theoretische Wirkungsgrad der Windkraftanlagen der so genannten Betz-Grenze von 59 Prozent, hinzu kommen die praktischen Reibungs-, Wärmeverluste, Umwandlungs- und Leitungsverluste.

Die gegenseitige Windverschattung mehrerer Anlagen in Windindustrieparks mindert zusätzlich den rechnerischen möglichen Ertrag. Ein Teil der umgewandelten Energie wird sofort über die Verlustwärme von Generator und – sofern vorhanden – Getriebe und der Trafostation am Boden an die Umgebung abgegeben.

Der nicht umgewandelte Teil der Energie sorge für Verwirbelung. Es bilden sich so genannte Wirbelschleppen, die man sich als horizontale Tornados (geringer Intensität) vorstellen kann, die noch kilometerweit Bestand haben. Die vertikale Durchmischung der Luft bewirke einen Transport der feuchten Luft aus den bodennahen Schichten in höhere. Dabei kann es zur Auskondensation der Luftfeuchte in größerer Höhe durch den niedrigeren Druck kommen, was dann, wie auf dem Foto zu sehen, die Wirbelschleppen sichtbar macht.

Dazu komme der thermische Effekt. Durch den Luftabtransport aus bodennahen Schichten würde dem Boden Luftwärme entzogen, die feuchte Luft ziehe gleichzeitig Verdunstungswärme ab. Abkühlung und geringere Feuchtigkeit verschlechterten die Bedingungen für das Pflanzenwachstum. Die anthropogen verursachte Wolkenbildung sorge als atmosphärischer Wasserdampf für die Zunahme dieses stärksten und häufigsten Treibhausgases.

Eine weitere Theorie geht davon aus, dass die Verwirbelung der Luft zu deren Erwärmung führt und die Ablenkung nach oben sogar zu einer Verwirbelung und Zerstreuung von Wolkenfeldern führen kann.

Im Wald haben Windkraftanlagen unzweifelhaft besonders schädigenden Einfluss. Zunächst wird der Wald durch den Einschlag als CO2-Senke und Wasserspeicher dezimiert. Erosion und Auswaschung des ehemaligen Waldbodens sowie Versandung führen zu schnellerem Wasserabfluss, eine Versteppung der gerodeten Flächen droht.Hinzu kommt die unterirdische Bodenversiegelung durch die mehrere tausend Tonnen schweren Stahlbetonfundamente, die mehr als drei Meter mächtig sind. Der feuchte Boden darüber trocknet aus, das Wasser kann nicht versickern und an der Grundwasserbildung teilnehmen. Der gleiche Effekt tritt auf den verdichteten Zufahrtsstraßen und Montageplätzen auf, die in der Ausdehnung die Fundamentflächen der Anlagen weit übersteigen. Desweiteren führen die Erdkabel für die Stromableitung zu örtlicher Austrocknung des Bodens. Die klimaregulierende Wirkung des Waldes wird insgesamt reduziert, der natürliche Widerstand gegen Extremwetter verringert sich.

Der Dürremonitor des Helmholtz-Zentrums für Umweltforschung zeigt die verschiedenen Trocknungsgrade des Bodens in Deutschland im Oberboden und in etwa 1,8 Metern Tiefe an. Offensichtlich ist, dass das Gebiet der trockensten Böden etwa deckungsgleich mit der räumlichen Verteilung von Windkraftanlagen ist.
Korrelation ist nicht Kausalität, der Bezug scheint dennoch augenfällig. Deckungsgleichheit mit der Niederschlagsverteilung besteht hingegen, abgesehen vom Osten des Landes, nicht.

Die Erkenntnisse sind nicht neu. Die Wirkung von Windkraftanlagen auf die Bodenfeuchte wurde bereits vom Wissenschaftlichen Dienst des Bundestages (WD8-3000-057/13) beschrieben. Dass dies öffentlich kaum kommuniziert wird, ist Ergebnis von Lobbyarbeit und Energiewendeerfolgsjournalismus in unseren Medien.
Ebenso korrelieren der Ausbau der Windenergie und die Anzahl der Tornadomeldungen in Deutschland 1). Wachsen mehrere Windindustrieparks räumlich zusammen, wie zum Beispiel in der Uckermark, kann man davon ausgehen, dass die Beeinflussung des Mikroklimas zu einer Änderung des Regionalklimas führt.

Klima ist mehr als nur Temperatur

Die durchschnittlichen Windgeschwindigkeiten scheinen zu sinken. Ursache könnten die vielen Windkraftanlagen an der Nordseeküste und in der norddeutschen Tiefebene sein. Wurden in den 60er Jahren in Osnabrück noch im Jahresdurchschnitt 3,7 Meter pro Sekunde Wind gemessen, sind es heute nur noch 3,2 Meter pro Sekunde 2). Dies könnte die Verdunstung mindern, in heißen Sommern jedoch auch die Abkühlung und damit Extremtemperaturen begünstigen.Bei der Offshore-Windkraftnutzung beträgt die Luftfeuchte am Fuß der Anlage, also auf Wasserspiegelhöhe einhundert Prozent. Dementsprechend werden größere Mengen Feuchtigkeit in höhere Luftschichten befördert, was mehr als an Land die Wolkenbildung und damit die Bildung des Treibhausgases Wasserdampf fördert.

Die Frage, ob die Nutzung der Windenergie „gut“ ist fürs Klima, lässt sich nur mit „nein“ beantworten. Sie kann die Bildung von Treibhausgas (Wasserdampf) fördern, für Austrocknung des Bodens sorgen und damit für verringerte Fotosynthese als CO2-Senke. Bezüglich der quantitativen Auswirkungen gilt auch hier das Wort von Paracelsus: Die Dosis macht`s. Der bisherige massenhafte Ausbau und der geplante exzessive Zubau zu den schon vorhandenen fast 30.000 Anlagen im Land steigern die negativen Umwelt- und Klimawirkungen.

Jede Windkraftanlage muss durch ein fast 100-prozentiges konventionelles Backup im Netz abgesichert werden, das wiederum Klimawirkung hat. Der Lastfolgebetrieb konventioneller Anlagen in nicht optimalen Betriebsbereichen erhöht deren spezifische Emissionen pro Kilowattstunde. Der „Wasserbetteffekt“ über den europäischen Emissionshandel (Windstrom verdrängt Emissionszertifikate ins Ausland und hält deren Preis niedrig) kommt hinzu.

Verhinderte Forschung

Zur genaueren Bewertung der Folgen der Windenergienutzung bräuchte es Messnetze im Bodenbereich für Aufzeichnungen von Temperatur und Luftfeuchte und deren Betrieb und Auswertung über längere Zeiträume. Zunächst bräuchte es aber den politische Willen und das Geld dazu, dies untersuchen zu lassen. Auf eine Anfrage der FDP-Bundestagsfraktion zum massenhaften Insektensterben an den Rotorblättern der Windkraftanlagen antwortete Umweltministerin Schulze, dass sie keinen Handlungsbedarf sehe. Man möchte die Welt, wie sie gefällt. Oder um es mit Schopenhauer zu sagen: „Was dem Herzen widerstrebt, lässt der Kopf nicht ein.“Mit den grünen „Klimakillern“ verhält es sich genauso. Viel einfacher ist es für Politiker und Journalisten, fossile Verbrennungsprozesse allein für Klimawandel und das Elend dieser Welt verantwortlich zu machen.

Was bewirkt exzessive Windenergienutzung? Zugestellte Landschaften, ihrer Weite und ihrer Ruhe beraubt, Windindustriegebiete anstelle Natur. Der Blick darauf ist subjektiv. Manche verdienen an jeder Drehung des Rotors und sogar dann, wenn er steht, weil der Strom nicht abgenommen werden kann. Andere leiden unter Infraschall, haben Schlafprobleme, Bluthochdruck und den Wertverfall ihrer Immobilie. Auch hier wird die Gesellschaft gespalten.

Die Auswirkungen auf die Umwelt sind erheblich, auf Menschen, Flora und Fauna. Diese Themen sind an vielen Stellen schon beschrieben, zum Beispiel hier, hier und hier.

Windkraftanlagen beeinflussen das regionale Wetter und wirken sich langfristig auf das Klima aus. Dieses Feld der Forschung ist vor allem hinsichtlich seiner quantitativen Auswirkungen noch ausgesprochen unterbelichtet. Sollten Leser dazu weitergehende Erkenntnisse oder Quellen haben, nehmen wir diese gern entgegen.

In Teil 2 geht es um die Wirkungen der Photovoltaik auf den Treibhauseffekt.

1) Dieser Beitrag entstand unter maßgeblicher Verwendung einer ausführlichen Studie „Ermittlungsakte Energiewende – Nebenwirkungen auf Klima und Umwelt“
vom „Energiedetektiv“ aus Graz. Hier der Weg zur Studie.

2) donnerwetter.de, Pressemitteilung vom 29.5.2015

Der Beitrag erschien zuerst bei TE hier