Trotz Abwahl: Bundesumweltministerin bewilligt die ersten 60 Klimaschutz-Nachbarschaftsprojekte

Man tut so als sei nichts gewesen. Man tut so als ob man nicht soeben abgewählt wurde. Man tut so, als könne man weiterhin business as usual betreiben.

Nur so lässt sich die Chuzpe der Bundesumweltminsterin verstehen noch schnell, als nur noch geschäftsführende Ministerin, einige weitere Steuermillionen für „Klimaschutzprojekte“ zu versenken. In einer Pressemitteilung dem BMU vom 26.9.17 heißt es:

Das Bundesumweltministerium hat die ersten 60 Projekte des Förderaufrufs „Kurze Wege für den Klimaschutz“ bewilligt. Dabei setzen die Projekte beim Alltagshandeln der Bürgerinnen und Bürger auf Nachbarschaftsebene an. Sie werden mit rund 4,9 Millionen Euro aus Mitteln der Nationalen Klimaschutzinitiative (NKI) gefördert. Die ausgewählten Projekte sollen zur Umsetzung der Klimaschutzziele der Bundesregierung beitragen, indem sie Rahmenbedingungen für energieeffiziente und ressourcenschonende Lebensstile schaffen.

Bundesumweltministerin Dr. Barbara Hendricks:

„Klimaschutz darf für Bürgerinnen und Bürger keine abstrakte Idee sein, sondern muss mit Leben gefüllt und mit entsprechenden Rahmenbedingungen unterstützt werden. Durch nachbarschaftliche Vorhaben können auf kurzen Wegen nachbarschaftliche Klimaschutzmaßnahmen wirken und Ressourcen eingespart werden. Die praktische Anbindung an die Lebenswelten der Bürgerinnen und Bürger ist dabei unerlässlich.“

Von Aurich bis Nürnberg und Eberswalde bis Freiburg: Die nun startenden Projekte widmen sich insbesondere den Schwerpunkten Mobilität, Ernährung und Konsum sowie Abfall und Recycling. Unter den Projekten sind Mitfahrkonzepte und Radverleihsysteme, urbane Gärten, Repair-Cafés, Stadtgrün und viele nachbarschaftliche Bildungsangebote, die das individuelle Können und Wissen bezogen auf Ernährung, Konsum, Energiesparen, Wiederverwertbarkeit von Gegenständen thematisieren.

Und damit nicht genug. Der Selbstbedienungsladen für „Bürgerinnen und Bürger“ mit noch so abstrusen Ideen für den „Klimaschutz“ bleibt weit offen, den zum Schluss heißt es in der PM

Ein weiteres Förderfenster zur Einreichung von Projektskizzen öffnet vom 1. Mai bis zum 1. Juli 2018.

Ein guter Anlass für die gerade gewählte AfD Fraktion im Deutschen Bundestag, mittels einer großen Anfrage den erwarteten Nutzen in Bezug auf die Erreichung der Pariser Klimaziele aber vor allem den Umfang dieser massiven Verschwendung von Steuermitteln zu erfragen.

Mit Dank an Hartmut Hüne für den Hinweis




Häufig gestellte Fragen 9.1*: Eine Kritik

Im AR 5 des IPCC heißt es unter FAQ 9.1 (Seite 824):

Die Komplexität von Klimamodellen … hat seit dem AR 1 aus dem Jahr 1990 substantiell zugenommen. In dieser Hinsicht sind also gegenwärtige Modelle des Erdsystems deutlich ,besser‘ als die Modelle von damals.

Sie definieren „besser“ explizit als ,komplexer‘. Was die Politiker jedoch wissen müssen ist, ob diese Prophezeiungen präziser und zuverlässiger sind! Das heißt, sind sie überhaupt brauchbar?

Bei FAQ 9.1 heißt es weiter:

Ein wichtiger Gedanke ist, dass die Modellgüte nur evaluiert werden kann relativ zu Beobachtungen aus der Vergangenheit, wobei man die natürliche interne Variabilität berücksichtigen muss.

Dies stimmt nur dann, wenn die Modelle so angepasst werden, dass sie zum Wetter der Vergangenheit passen, besonders hinsichtlich Temperatur und Niederschlag. Allerdings ist dieses Pseudo-Modellverhalten kaum besser als das Anpassen einer Kurve mittels eines Polynoms höherer Ordnung. Was man tun sollte ist, den Verlass auf historische Daten zu minimieren, wobei man eher Grundsätzen folgen sollte als dem, was derzeit gemacht wird, nämlich eine Projektion zu simulieren und dann 5 bis 10 Jahre warten, um abzuschätzen, wie gut die projizierte Vorhersage zu tatsächlichen zukünftigen Temperaturen passt. So wie man es derzeit macht – trotz der Anwendung von Grundsätzen – dürfte es kaum besser sein als die Verwendung eines neuralen ,Black Box‘-Netzwerkes für Vorhersagen wegen der Stützung auf das, was Ingenieure „Toffee-Faktor“ [fudge factors] nennen bei der Anpassung an die Historie.

Weiter bei FAQ 9.1:

Um Vertrauen in die Zukunfts-Projektionen derartiger Modelle zu haben, muss das historische Klima – nebst dessen Variabilität und Änderung – gut simuliert sein.

Offensichtlich ist, dass falls die Modelle das historische Klima nicht gut simulieren man kein Vertrauen in ihre Fähigkeit zu Vorhersagen setzen würde. Allerdings reicht die Anlehnung an die Historie nicht aus, um zu garantieren, dass Projektionen korrekt sind. Polynom-Anpassungen der Daten kann hohe Korrelations-Koeffizienten haben, sind jedoch dafür bekannt, in das Nirwana zu entfleuchen, wenn man über die Datensequenz hinaus extrapoliert. Darum sage ich oben, dass der Wahrheits-Test darin besteht, die Modelle tatsächlich die Zukunft vorhersagen zu lassen. Ein anderes Verfahren, das man anwenden könnte wäre, die Modelle nicht an alle historischen Daten anzupassen, sondern nur an die Daten aus vorindustrieller Zeit oder vor dem Zweiten Weltkrieg. Dann lasse man sie laufen und begutachte, wie gut sie die zweite Hälfte des vorigen Jahrhunderts simulieren.

Eines der Probleme bei der Anpassung an historische Daten ist, dass falls die bestehenden Modelle nicht alle Faktoren enthält, welche das Wetter beeinflussen (und das ist fast mit Sicherheit der Fall), dann wird der Einfluss der fehlenden Parameter ungeeignet durch andere Faktoren approximiert. Das heißt, falls es in der Vergangenheit eine ,Störung beim Forcing‘ unbekannter Natur und Größenordnung gegeben hat und man die Daten entsprechend korrigiert, wäre es erforderlich, die Variablen zu korrigieren, die in dem Modellen enthalten sind. Können wir sicher sein, dass wir alle exogenen Inputs bzgl. Klima ausgemacht haben? Können wir sicher sein, dass alle feedback loops mathematisch korrekt sind?

Unbequemerweise wird in Kasten 9.1 (Seite 750) angemerkt:

Zumindest für ein Modell wurde gezeigt, dass der Anpassungsprozess nicht notwendigerweise einen einzelnen, einheitlichen Satz von Parametern für ein gegebenes Modell ergibt, sondern dass verschiedene Kombinationen von Parametern gleich plausible Modelle ergeben können (Mauritsen et al. 2012)

Diese Modelle sind so komplex, dass es unmöglich ist vorherzusagen, wie eine Unendlichkeit von Parameter-Kombinationen die verschiedenen Outputs beeinflussen könnten.

Die Art der in modernen Daten verfügbaren meteorologischen Details steht für historische Daten nicht zur Verfügung, besonders in der Zeit vor dem 20. Jahrhundert! Folglich würde es eine voreilige Schlussfolgerung sein, dass fehlende Forcing-Informationen auf andere Faktoren übertragen werden, die in den Modellen sind. Klarer beschrieben: wir kennen die Zeitpunkte von fast allen Vulkanausbrüchen in der Vergangenheit. Allerdings kann die Dichte der vulkanischen Asche in der Atmosphäre im besten Falle nur geschätzt werden, während die Dichte von Asche und Aerosolen bei aktuellen Ausbrüchen gemessen werden kann. Historische Eruptionen in dünn bevölkerten Gebieten können auch nur Spekulation sein auf der Grundlage eines plötzlichen Rückgangs der globalen Temperaturen zumindest ein paar Jahre lang. Wir haben lediglich qualitative Schätzungen bzgl. außerordentlicher Ereignisse wie z. B. das Carrington-Ereignis, ein koronaler Massenauswurf im Jahre 1859. Wir können uns nur fragen, was alles eine solche massive Injektion von Energie in die Atmosphäre anrichten kann.

Jüngst wurden Bedenken laut, wie der Ozon-Abbau das Klima beeinflussen könnte. Tatsächlich waren Einige so kühn zu behaupten,, dass das Montreal-Protokoll einen unerwünschten Klimawandel verhindert hat. Wir können nicht sicher sein, dass einige Vulkane wie etwa der Mount Katmai in Alaska keinen signifikanten Effekt auf die Ozonschicht hatten, bevor wir überhaupt von Variationen des Ozons wussten. Dieser Vulkan ist bekannt für seine anomalen Emissionen von Salzsäure und Fluorwasserstoff (siehe Seite 4). Weiteres hierzu findet man hier.

Fortsetzung von FAQ 9.1:

Unvermeidlich machen sich einige Modelle hinsichtlich bestimmter Klima-Variablen besser als andere, aber kein Modell zeichnet sich eindeutig als das ,insgesamt beste Modell‘ aus.

Dies liegt zweifellos daran, dass die Modellierer unterschiedliche Hypothesen hinsichtlich Parametrisierungen zugrunde legen, und die Modelle werden an die Variable ihres Interesses angepasst. Dies zeigt, dass die Anpassung die Grundprinzipien außer Kraft setzt und die Ergebnisse dominiert!

Meine Vermutung wird gestützt durch die nachfolgende Anmerkung in FAQ 9.1:

…Klimamodelle basieren in erheblichem Umfang (Hervorhebung von mir [=dem Autor]) auf verifizierbaren physikalischen Grundsätzen und sind in der Lage, bedeutende Aspekte von externen Forcings in der Vergangenheit zu reproduzieren.

Man würde denken, dass dieses Anpassen eine erhebliche Schwäche ist bei den gegenwärtigen Modellierungs-Bemühungen zusammen mit der Notwendigkeit, Energie-Austauschprozesse zu parametrisieren (Konvektion und Wolken), welche räumlich zu klein sind, um direkt modelliert zu werden. Anpassen ist der ,Elefant im Raum‘, der kaum einmal beachtet wird.

Die Autoren von Kapitel 9 räumen in Box 9.1 (Seite 750) ein:

…die Notwendigkeit der Modellanpassung könnte die Modell-Unsicherheit zunehmen lassen.

Verschlimmert wird die Lage durch die Anmerkung in diesem gleichen Abschnitt (Box 9.1, Seite 749):

Mit sehr wenigen Ausnahmen beschreiben die Modellierer nicht detailliert, wie sie ihre Modelle anpassen. Daher ist eine vollständige Liste von Widersprüchen zu Beobachtungen, an welche ein bestimmtes Modell angepasst wird, allgemein nicht verfügbar.

Und schließlich stellen die Autoren eindeutig in Frage, wie das Anpassen den Zweck der Modellierung beeinflusst (Box 9,1, Seite 750):

Die Erfordernis von Anpassungen wirft die Frage auf, ob Klimamodelle für Klimaprojektionen der Zukunft überhaupt brauchbar sind.

Ich denke, dass es wichtig ist anzumerken, dass sich vergraben im Kapitel 12 des AR 5 (Seite 1040) das folgende Statement findet:

Insgesamt gesehen gibt es derzeit kein allgemein anerkanntes und robustes formales Verfahren, um quantitative Schätzungen der Unsicherheit zu liefern bzgl. zukünftiger Änderungen aller Klimavariablen … „

Dies ist wichtig, weil es impliziert, dass die unten gezeigten quantitativen Korrelationen nominelle Werte sind ohne Verankerung in inhärenter Unsicherheit. Das heißt, falls die Unsicherheiten sehr groß sind, dann sind die Korrelationen selbst mit großen Unsicherheiten behaftet und sollten zurückhaltend aufgenommen werden.

Auch das folgende Zitat sowie die nachfolgende Illustration aus FAQ 9.1 gilt dem Thema Zuverlässigkeit:

Ein Beispiel von Änderungen der Modellgüte mit der Zeit wird in FAQ 9.1 gezeigt und illustriert die stattfindende, wenn auch mäßige Verbesserung (Hervorhebung von mir [=dem Autor]).

Allgemein sollte man eine hohe, nicht lineare Korrelation zwischen Temperatur und Niederschlag erwarten. In Wüsten regnet oder schneit es nicht viel, ebenso wie an den Polen (effektiv Kältewüsten). Warme Gebiete, also z. B. die Tropen, sind gekennzeichnet durch gewaltige Verdunstung aus den Ozeanen und Feuchtigkeitsanreicherung durch die Vegetation. Sie stellen also gewaltige niederschlagbare Mengen von Wasserdampf zur Verfügung. Daher bin ich kaum überrascht, dass die folgenden Graphiken eine höhere Korrelation zwischen Temperatur und deren räumlicher Verteilung zeigen als für Niederschlag und dessen räumlicher Verteilung. Bzgl. Temperatur werden Gebiete gezeigt, in denen die modellierte Temperatur höher ist als die gemessenen Temperaturen, dann muss es aber auch Gebiete geben, in denen es kühler als gemessen ist, um den Anpassungen an das globale Temperaturmittel zu genügen. Daher bin ich nicht vollständig überzeugt von Behauptungen hoher Korrelationen zwischen Temperaturen und der räumlichen Verteilung. Könnte es sein, dass die „Oberflächen-Temperaturen“ auch die Wassertemperatur der Ozeane enthalten, und weil die Ozeane über 70% der Erdoberfläche bedecken und nicht die Temperaturextreme des Festlands aufweisen, und dass daher die Temperaturverteilung stark durch Wassertemperaturen gewichtet sind? Das heißt, würden die Korrelations-Koeffizienten fast genauso hoch sein als wenn man ausschließlich Temperaturen auf dem Festland heranzieht?

Bildinschrift: FAQ 9.1, Abbildung 1: Fähigkeit der Modelle, die jährliche mittlere Temperatur und die Verteilung von Niederschlag zu simulieren, illustriert durch die Ergebnisse von drei jüngeren Phasen der CMIP-Modelle (CMIP2 um das Jahr 2000, CMIP3 aus dem Jahr 2005 und CMIP5, die jetzige Modellgeneration). Die Abbildung zeigt die Korrelation zwischen gemessener und modellierter Temperatur (oben) und des Niederschlags (unten). Größere Werte deuten auf eine bessere Korrespondenz zwischen modellierten und beobachteten räumlichen Verteilungen. Die schwarzen Symbole deuten auf Korrelations-Koeffizienten individueller Modelle, und die großen grünen Symbole zeigen den Median-Wert (d. h. die Hälfte der Modellergebnisse liegt über, die andere Hälfte unter diesem Wert. Die Verbesserung des Modellverhaltens wird deutlich durch die Zunahme der Korrelation bei aufeinanderfolgenden Modell-Generationen.

Man sollte beachten, dass die behaupteten Korrelations-Koeffizienten sowohl für CMIP3 als auch für CMIP5 implizieren, dass lediglich 65% des Niederschlags vorhergesagt werden können durch den Ort oder die räumliche Verteilung. Falls Verteilungen des Niederschlags so schlecht erklärt sind im Vergleich zur mittleren Temperatur, gewinne ich kein Vertrauen, dass regionale Temperaturverteilungen Korrelations-Koeffizienten aufweisen, die so hoch sind wie das globale Mittel.

Der AR 5 des IPCC steht hier.

*Intergovernmental Panel on Climate Change, Fifth Assessment Report: Working Group 1; Climate Change 2013: The Physical Science Basis: Chapter 9 – Evaluation of Climate Models

Link: https://wattsupwiththat.com/2017/09/27/frequently-asked-questions-9-1-a-critique-2/

Übersetzt durch Chris Frey EIKE




Windparks beeinträchtigen die Luftraumüberwachung

Bericht Sarah T. Harris (Korrespondentin) , Fort Drum, NY

Im vergangenen Jahr setzte sich der Bundesstaat New York ein ehrgeiziges Energieziel: Bis 2030 soll 50% seines Stroms aus erneuerbaren Quellen kommen. Das bedeutet, mehr Kapazitäten zu bauen und es gibt jetzt acht vorgeschlagene Projekte für Windparks von Nord St. Lawrence bis zu den nördlichen Oswego Grafschaften. Aber das Militär und Landtagsabgeordnete sagen, dass der Ausbau von noch mehr Windkraftanlagen die Flug-und Wetterradarsysteme unzulässig beeinträchtigen wird – was das Training der Soldaten und die Bereitschaft beeinflussen könnte.

Windturbinen auf dem Flugzeugradar erscheinen, „wie kleine flackernde Lichter in einer Reihe, in der sich diese Windkraftanlagen befinden“, erklärt Brian Ashley, Geschäftsführer der Fort Drum Regional Liaison Organization. (FDRLO –  Luftraum Überwachung und Trainingscenter)

Acht Windparks sind in der Nähe von Fort Drum Militärbasis in der Entwicklung.
Karte: Development Authority of the North Country

Gemäß Ashley, gibt es keine wirkliche technische Lösung dafür. Stattdessen blenden die Piloten und Fluglotsen die Stelle, wo das Flackern ist, nur elektronisch aus. Die bereits abgedeckten Stellen wurden wegen zwei bestehender Windparks in der Nähe von Fort Drum eingefügt und diese beeinflussen bereits die Trainings- und Wettererfassungssysteme störend. Und wenn die weiteren, geplanten Projekte im Luftraum von Fort Drum gebaut werden, der den Süden des Kantons bis zum Tug Hill Plateau und vom Lake Ontario bis in die westlichen Adirondacks abdeckt, wird es noch schlimmer werden.

„Wenn Sie eine signifikante Anzahl von Ausblendungen auf dem Radarschirm haben, dann haben Sie die Fähigkeit dieses Radars zerstört, für Training und für Luftraumüberwachung nützlich zu sein“.

In den Latest News von FDRLO gibt es eine Eingabe (hier.pdf)  an die zuständige Behörde.

[Fort Drum … fordert den Schutz der … Fähigkeiten und der Einsatzbereitschaft]

Es ist eine gesicherte Tatsache, dass die Windturbinen die Fähigkeiten der Radaranlagen von Fort Drum Wheeler Sack Army Airfield nachteilig beeinträchtigen, sowie das Wetter-Radar in Montague. Zwei Windparks stehen bereits in dieser Region: Maple Rige in Lewis County und Wolfe Island in Kanada, diese stören die Sichtverhältnisse des Radars und haben eine negative Auswirkung auf die Sicherheit der Flugoperationen der Hubschrauber und Flugzeuge, sowie auf das Wetterradar in Montague.

Fort Drum ist der größte lokale Arbeitgeber in New York State. Es erbringt jährlich eine Milliarde Dollar für Wirtschaft des Landes. Und sein Flugplatz ermöglicht es Soldaten, komplexe Schulungen durchzuführen und schnell umzusetzen.

„Fort Drum ist – und ich sage das nicht leichtfertig – ist die Premium Trainingsanlage in der nordöstlichen Region der Vereinigten Staaten“, sagte die Abgeordnete Frau Addie Jenne. Diese Basis einsatzfähig zu halten und das regionale Wetterradar akkurat, ist unerlässlich.

„Wir müssen selbstverständlich dafür sorgen, dass die Sicherheit unseres Landes – in Bezug sowohl auf das Wetter und als auch auf unsere nationale Verteidigung – wegen einer politischen Entscheidung nicht beeinträchtigt wird.“

 

Im Moment trifft sich Jenne mit Windprojekt-Anteilseignern in der Region. Sie will herauszufinden, welche der acht vorgeschlagenen Windprojekte die Fähigkeiten von Fort Drum am meisten beeinflussen würden. Und sie entwirft Gesetzes Regelungen, um zu verhindern, dass diese Projekte staatliche Subventionen erhalten.

„Ich bin nicht dabei, die industrielle Entwicklung von Windkraft in den nördlichen Bundesland für immer zu verbieten“, sagte Jenne, „aber viel lieber bevorzuge ich, dass unsere Truppen alles trainieren können, was unsere Regierung in den nächsten Jahren von ihnen verlangen könnte.“

 

Die Kongressabgeordnete Elise Stefanik äußerte  in einem Brief an den Stabschef der US Army , Gen. Mark Millea in letzter Woche, ihre Besorgnis über die kumulative Wirkung der Wind-Entwicklung auf Fort Drum.

Brian Ashley von der FDRLO sagt, dass er nicht gegen erneuerbare Energie ist. Es wäre ihm nur wichtig, dass diese Windparks woanders gebaut werden.

Die vorgeschlagenen Windkraft Projekte müssen durch einen umfangreichen Standortprozess gehen und von der Öffentlichen Dienstkommission genehmigt werden, bevor mit dem Bau begonnen werden kann.

Erschienen am 25.09.2017 auf North Country Public Radio

Übersetzt und zusammengestellt von Andreas Demmig

https://www.northcountrypublicradio.org/news/story/34722/20170925/how-more-wind-power-projects-could-mess-up-radar-at-fort-drum

 

Aktualisiert am 27.09.2017

Über dieses Thema wird auf North Country Public Radio weiter berichtet.

Neu ggü. obigem Beitrag ist die Information, dass in der betroffenen Ortschaft Clayton der Protest gegen die Windräder in einem Restaurant sogar mit der Menükarte ausgedrückt wird.

Photo: Payne Horning, WRVO News

Das Menü in Claytons Koffe Kove warnt alle Kunden vor den potentiellen Konsequenzen, dass der angekündigte Horse Creek Windpark die Region zerstören wird.

 

Neben dem Einspruch der Betreiber der Radarsysteme, hat sich der Protest der Bewohner dieser Region auch schon formiert.

Kann ein Gegner der Windkraft diese Projekte von seiner Stadt fernhalten?

Gary Snell, Sr. ist ein lautstarker Gegner von Avangrid Renewables (Investor) Plan, bis zu 40 Windanlagen in Hopkinton und Parishville zu errichten. Dieses von Wind-Befürwortern ramponierte Schild stand in seinem Vorgarten. Photo LAUREN ROSENTHAL / NCPR

 

In den örtlichen Online Nachrichten : North Country Now war 2011, 15. November u.a. zu lesen:

Die Kommission für wirtschaftliche Entwicklung des North Country plant 16 Projekte für die 7-Grafschaft-Region.

Die Schwerpunktprojekte konzentrieren sich auf Hightech- und traditionelle Fertigung, grüne Energieerzeugung, Kunst und Kultur, Tourismus und Landwirtschaft. Die Liste enthält u.a. :

….

Cleaner Greener

Essex County wird als Lead-Agentur im Namen der North Country Region dienen, um … einen umfassenden Energie-Nachhaltigkeitsplan zu entwickeln. Der Plan umfasst vorrangige Maßnahmen auf der Grundlage einer Treibhausgases (GHG) Bewertung …, um Treibhausgas-Reduktionen zu erreichen.

 …

Fazit: Hatten wir das in Deutschland nicht auch schon?




Die Aktion „Klarsicht“

Die Aktion der beiden Autoren nennt sich „Klarsicht“ und besteht aus einer inzwischen umfangreichen Reihe von gut aufgemachten Schriften zum Umweltschutz, zu Energietechnologien und zur Klimatologie. Die Autoren formulieren es folgendermaßen:

Wir – die Unterzeichner – beschäftigen uns seit vielen Jahren sowohl beruflich als auch privat mit Umweltschutz, Energietechnologien und Klimatologie. Das Ergebnis unserer Recherchen wollen wir nun einem breiten Publikum näherbrin- gen, in der Hoffnung, dass wir damit eine öffentliche Debatte anstoßen, um die panik- artige Reaktion auf den Klimawandel zu hinterfragen. Damit verbunden erhoffen wir uns auch eine Rückkehr zu einer vernünftigen Energiepolitik. Die Erkenntnisse der Wissenschaft zum Klimawandel finden nicht den notwendigen Niederschlag in den Medien. Diese Lücke wollen wir füllen. Wir können uns auf ein bundesweites Netzwerk von kompetenten Fachleuten stützen, die wir in die geplanten Veröffentlichungen auch einbinden werden. Wir haben uns in der Vergangenheit durch zahlreiche Veröffentlichungen, Vorträge und eine Buchveröffentlichung zu Wort gemeldet. Januar 2017, Steven Michelbach und Norbert Patzner, 97980 Bad Mergentheim“

Soweit die beiden Autoren von „Klarsicht“. EIKE unterstützt die Klarsicht-Aktion, macht aber gleichzeitig deutlich, dass es nicht in allen fachlichen Aussagen 100% mit „Klarsicht“ übereinstimmt. In Grundtendenz und Zielrichtung besteht freilich völlige Kongruenz, wobei insbesondere der Widerstand gegen die Windenergie hervorzuheben ist. Auf der Webseite der Vernunftkraft findet sich eine Zusammenstellung aller bisher erschienenen neun Klarsicht – Ausgaben sowie des Positionspapiers des Berliner Kreises der Union zur Klima- und Energiepolitik. Alle Schriften der Klarsicht-Reihe können unter dem angebenen Weblink als pdf heruntergeladen werden.

Noch eine abschließende Anmerkung: ein Musterbeispiel, wie stark Ideologie Hirne zu vernebeln vermag, bietet ein Interview, veröffentlich in „Klimaretter.info“, der EIKE-Bericht darüber (hier). In diesem Fall freilich nicht das Interview selber, sondern die Leserkommentare, die zu gefühlten 80% Gift und Galle spucken, aber nicht auf einen einzigen vom Interviewten (EIKE-Vizepräsident Michael Limburg) genannten Punkt sachlich einzugehen vermögen. Nüchterner Fakt ist, dass sich M. Limburg im Interview sachlich begründet über eine andere Energie- und Klimapolitik ausgesprochen hat.

Mit einer neuen Energie- und Klimapolitik braucht man selbstverständlich nicht einverstanden zu sein. Man sollte dann aber seine Gegenmeinung ebenfalls sachlich begründen. Dass sachliche Gegenbegründungen nirgendwo im Kommentarblog von Klimaretter.info auffindbar sind, sagt viel über die geistige Kultur der betreffenden Blogger aus. Zwei unmittelbar aufeinanderfolgende Kommentare belegen es mustergültig. So mahnt ein Kommentator das in Demokratien übliche Vorgehen an mit der Aufforderung

1) Warum nimmt du nicht zu einem einzigen der Inhalte Stellung und sagst, was daran falsch ist?

Die unmittelbare Antwort darauf

2) Wenn es keine Inhalte gibt, kann man dazu auch keine Stellung nehmen. Und gegen Fake-News Stellung zu beziehen ist nicht energieeffizient und damit nicht umweltfreundlich.

Besser als diese Antwort kann fehlendes Demokratieverständnis und leider auch geistige Demenz nicht demonstriert werden. Hat der Betreffende überhaupt eine halbwegs ordentliche Schule besucht? Was bleibt eigentlich noch, wenn man nicht mehr sachlich argumentiert und den Meinungsgegner nur noch diffamiert? Die logische Kette ist bekannt: Nach Diffamierung kommt erst die gewaltsame Bekämpfung (Beispiel Antifa gegen nicht genehme demokratische Partien) und dann die versuchte physische Vernichtung. Ob dieser sich abzeichnende Öko-Faschismus den angesprochenen Kommentatoren in Klimaretter.info bewusst ist? Es sieht nicht danach aus, mehr nach der Haltung „Eine öko-religiös begründete Sache rechtfertigt alles“.

Ein Lichtblick muss aber erwähnt werden: „Klimaretter.info“ hat das Interview veröffentlicht und alle(?) Kommentare, soweit den Spielregeln gehorchend, zugelassen. Dies ist wenigstens der Anfang eines Versuchs von demokratischer Streitkultur. Ob weitere folgen werden? Man hofft es, darf aber skeptisch sein.

 




Es reicht! Hört auf, Harvey und Irma auszuschlachten!

Irma war tatsächlich ein sehr starker Hurrikan der höchsten Kategorie 5, als er über die Leeward Islands zog. Die Windgeschwindigkeit von 185 mph [ca. fast 300 km/h], ermittelt mit einem Hurrikan-Flugzeug in einer Höhe von 10.000 Fuß [ca. 3000 m], war wirklich eine der höchsten jemals in atlantischen Hurrikanen. Wie aber steht Irma im Vergleich zu anderen starken atlantischen Hurrikanen da? Um diese Frage zu beantworten, müssen wir zunächst die Verfahren betrachten, mittels welcher die Stärke eines Hurrikans bestimmt wird, weil seit Anfang dieses Jahrhunderts ein anderes Verfahren angewendet wird.

Es gibt zwei Möglichkeiten, die Stärke eines Hurrikans zu bestimmen. Eine davon ist, die Windgeschwindigkeit mittels eines Flugzeuges zu messen. Die Air Force fliegt immer in Höhen um 10.000 Fuß, und empirische Beziehungen werden angewendet, um die Windgeschwindigkeit in 10.000 Fuß auf die Windgeschwindigkeit am Boden hochzurechnen. Die andere Methode ist, ein Barometer im Auge abzuwerfen und den Luftdruck zu messen. Da es eine direkte Relation zwischen Luftdruck [genauer: Luftdruckgradient, Anm. d. Übers.] und Windgeschwindigkeit gibt, kann man mit Kenntnis der einen Größe die andere Größe berechnen.

Historisch war der Kerndruck im Zentrum des Hurrikans der dominante Faktor bei der Bestimmung der Stärke eines Hurrikans. Nach Einführung der Saffir/Simpson-Hurrikan-Skala Anfang der siebziger Jahre wurden alle Hurrikane der Vergangenheit mittels ihres Kerndrucks in dieser Skala nach Stärke kategorisiert. Heute hat sich das geändert,und Hurrikane werden ausschließlich nach Windgeschwindigkeit kategorisiert. Darum war es möglich, Hurrikan Irma zum stärksten jemals im Atlantik beobachteten Hurrikan zu erklären mit der vom Flugzeug ermittelten Windgeschwindigkeit von 185 mph. Aber wie steht Irma hinsichtlich des Kerndrucks da?

Für alle, die mit der Größe Luftdruck nicht so vertraut sind: Eine der Standardeinheiten des Luftdrucks sind Millibar (mb). [In Europa ist die Einheit seit Jahren als Hektopascal hpa definiert. Da die Zahlenwerte beider Einheiten identisch sind, verwende ich in dieser Übersetzung im Folgenden die Bezeichnung hpa. Anm. d. Übers.] Der normale Luftdruck in den USA liegt gewöhnlich zwischen 1010 und 1030 hpa. Falls der Luftdruck in den Tropen unter 1000 hpa fällt, bedeutet dies allgemein, dass sich ein Hurrikan der Kategorie 1 entwickelt hat. Der Kerndruck in einem Hurrikan der Kategorie 3 liegt normalerweise um 950 hpa, und ein Hurrikan der Kategorie 5 liegt vor, wenn der Luftdruck unter 920 hPa fällt. Sinkt der Luftdruck gar unter 900 hPa, handelt es sich um einen Super-Hurrikan, der vergleichbar ist mit den stärksten Taifunen im Pazifik.

Wie steht nun Irma in dieser Hinsicht im Vergleich mit anderen starken Hurrikanen in der Vergangenheit da, wenn wir den Kerndruck zur Bestimmung der Stärke heranziehen anstatt die Windgeschwindigkeit? Der niedrigste Kerndruck von Irma betrug 914 hpa. Der tiefste Kerndruck jemals in einem atlantischen Hurrikan war 2005 im Hurrikan Wilma mit 882 hpa aufgetreten, als dieser die nordwestliche Karibik heimsuchte. Der niedrigste Kerndruck eines auf das [US-]Festland übergreifenden Hurrikans betrug 892 hpa, aufgetreten im Hurrikan von 1935, als dieser über die Florida Keys hinweg gezogen war. Es gab 10 Hurrikane mit einem Kerndruck unter 910 hpa, davon 5 sogar unter 900 hpa. In dieser Hinsicht schaffte es Irma nicht einmal in die Top 10 und war damit folglich nicht einmal annähernd der stärkste jemals im Atlantik aufgetretene Hurrikan.

Wenden wir uns jetzt dem Hurrikan Harvey zu. Harvey war als der regenreichste Hurrikan der Historie apostrophiert worden. Allerdings steht die Regenmenge von 50 Inches [ca. 1270 l/m²] nicht in Relation zur globalen Erwärmung. Der Grund für die hohe Regenmenge ist vielmehr, dass sich der Hurrikan drei Tage lang praktisch nicht von der Stelle bewegte, was unglücklicherweise gerade im Südosten von Texas der Fall war.

Die Regenmenge in einem tropischen Wettersystem ist nicht abhängig von der Windgeschwindigkeit, sondern von der Verlagerungsgeschwindigkeit. Bevor es ausgeklügelte numerische Modelle zur Simulation der Regenmenge in einem Wettersystem gab, verwendeten wir eine einfache empirische Gleichung, die gute Ergebnisse lieferte: Man berechne die Zuggeschwindigkeit und teile sie in 100 ein.

Verlagert sich ein tropisches Wettersystem mit 10 mph [ca. 16 km/h], erwarte man 10 Inches [254 l/m²]. Ein System mit einer Verlagerung von 5 mph [ca. 8 km/h] würde demnach 20 Inches [508 l/m²] bringen. Sollt die Verlagerungsgeschwindigkeit lediglich 2 mph betragen, erwarte man 50 Inches [1270 l/m²] Regen. Genau das war bei Harvey der Fall. Der Hurrikan bewegte sich 3 Tage lang mit etwa 2 mph und brachte in großen Gebieten vom südöstlichen Texas und dem südwestlichen Louisiana Regenmengen zwischen 40 und 50 Inches.

Es gibt zahlreiche Beispiele zum Stehen gekommener tropischer Systeme, wobei jedes Mal exzessive Regenmengen auftraten. Beispielsweise verharrte der Tropische Sturm Claudette 2 Tage an Ort und Stelle und brachte über 40 Inches [1016 l/m²] Regen in einem ausgedehnten Gebiet südlich der Innenstadt von Houston. Die 42 Inches [1069 l/m²] in Alvin innerhalb von nur 24 Stunden ist für diesen Zeitraum Rekordhalter in den USA. Ein Jahr zuvor brachte der Tropische Sturm Amelia 48 Inches [1220 l/m²] im zentralen Texas. Im Jahre 1967 erreichte der sich nur langsam bewegende Hurrikan Beulah das südliche Texas und brachte Regenmengen zwischen 30 und 40 Inches [762 bis 1016 l/m²] landeinwärts der Stadt Brownsville.

Falls es im Gebiet östlich der Bahamas ein Messgerät für Regenmengen gegeben hätte, wo der Hurrikan José vier Tage lang verharrte, dann bin ich sicher, dass dort über 60 Inches [über 1500 l/m²] Regen gemessen worden wären.

In den USA gibt es eine lange Historie verheerender Hurrikane. Im Folgenden sind einige der intensiven Hurrikane aufgelistet, zu welchen es zum Ende des 19. Jahrhunderts gekommen war, also lange, bevor es eine CO2-Zunahme gab:

Das aktivste Jahr auf das Festland übertretender Hurrikane war das Jahr 1886, als gleich 7 Hurrikane die Küste erreichten. Vier davon erreichten Texas, und zwei davon waren hoch kategorisiert. Der Hurrikan der Kategorie 4 im August 1886 zerstörte alles, was von der Stadt Indianola noch übrig geblieben war. Diese Stadt war Mitte der 1850-ger Jahre ein blühender Handelshafen an der Südküste der Matagorda Bay, bevor ein Kategorie-4-Hurrikan im Jahre 1875 die Stadt nahezu zerstörte. Man befand sich mitten im Wiederaufbau, als der Hurrikan 1886 zuschlug.

Im Jahre 1893 waren zwei Kategorie-4-Hurrikane aufgetreten. Der eine forderte in Louisiana 1800 Todesopfer auf einer der Küste vorgelagerten Insel. Der zweite forderte weitere 1800 Todesopfer, als eine 16 Fuß [ca. 4,90 m] hohe Flutwelle die Hilton Head Insel vor South Carolina zerstörte.

Der tödlichste Hurrikan in der US-Geschichte ereignete sich im Jahre 1900, als eine vom Sturm aufgeworfene Flutwelle über die Galveston Insel hinweg schwappte und 10.000 Menschen in den Tod riss.*

[*Die Flutwellen in einem Tropischen Wirbelsturm gehen nicht auf die Windgeschwindigkeit selbst zurück. Dazu ist die vom Orkan in einer Richtung überstrichene Meeresfläche zu klein. Ursache ist vielmehr der hydrostatisch durch den tiefen Luftdruck höhere Meeresspiegel im Auge des Sturmes. Anm. d. Übers.]

Der Hurrikan des Jahres 1900 war einer der Kategorie 4.

Schlussfolgernd lässt sich sagen, dass die Hurrikane Harvey und Irma typische starke atlantische Hurrikane waren. Beide entwickelten sich aus aus Afrika auf den Atlantik hinaus ziehende Störungen während des Höhepunktes der Hurrikan-Saison. Die Stärke von Irma, wie sie sich aus dem Kerndruck ergibt, war konsistent mit einer ganzen Reihe anderer Hurrikane in der Vergangenheit. Der starke Regen im Zuge von Harvey war die Folge des zum Stehen gekommenen Sturmes und nicht die Folge einer höheren atmosphärischen Feuchtigkeit in Assoziation mit globaler Erwärmung.

Es gibt nichts an diesen beiden Hurrikanen, was die Dringlichkeit sofortiger Maßnahmen zur Begrenzung der globalen Erwärmung rechtfertigen würde. Es ist traurig, dass jene, die diese Maßnahmen fordern und unterstützen, so brutal und rücksichtslos gegen die zerrissenen Gefühle hunderttausender Menschen in Texas, Louisiana und Florida sind, haben diese doch soeben alptraumhafte Verluste erlitten – und jetzt werden sie für die Hurrikane verantwortlich gemacht, weil sie nicht die Maßnahmen zur Reduktion von CO2 unterstützt haben.

Da wir gerade von CO2 sprechen, es gibt eine intensive Debatte über die Gründe der Erwärmung der Erde. Diese erwärmt sich seit über 150 Jahren, das ist unstrittig. Strittig ist die Ursache. Ist CO2 für das „Wärmste“ verantwortlich, oder sind es andere natürliche Zyklen? Solarexperten in Asien, dem Nahen Osten und Teilen von Europa sehen die Sonne als Ursache. Während der letzten dreieinhalb Jahre haben sie über 400 Studien veröffentlicht, die das CO2 als Ursache verwerfen und stattdessen natürliche Zyklen der Sonne anführen. Falls dies so ist, warum gibt es dann den intensiven Druck, Milliarden über Milliarden Dollar für grüne Energie aufzuwenden? [Von den verheerenden Umweltschäden ganz zu schweigen. Anm. d. Übers.]

Zu was will sie das „Wärmste“ also bringen? Zuerst und am dringlichsten fordern sie, dem Pariser Klima-Abkommen vom Dezember 2015 zu folgen, dem 194 Länder zugestimmt haben. Präsident Trump hat die USA aus diesem Abkommen zurückgezogen, und das „Wärmste“ schäumt vor Wut. Das ausdrückliche Ziel des Abkommens ist es, CO2 zu reduzieren und grüne Energie zu entwickeln.

Eines der Ziele des Abkommens ist die Einrichtung eines Green Climate Fund, dessen Gelder an Entwicklungsländer verteilt werden sollen, um diesen beim Übergang zu grüner Energie zu helfen. Es ist beabsichtigt, bis zum Jahr 2020 100 Milliarden Dollar in diesem Fund zu haben. Woher soll das Geld kommen? Etwa 45 Nationen waren als Geldgeber ausersehen, was bedeutet, dass es rund 150 Empfängernationen gibt, darunter auch China.

Auf dem Pariser Treffen versprachen die Gebernationen 10 Milliarden Dollar, wovon über 80% aus 6 Nationen kommen sollten: England, Deutschland, Frankreich, Schweden, Japan und die USA. Die USA versprachen den größten Betrag mit 3,5 Milliarden Dollar, die anderen 5 Länder jeweils zwischen 1 und 1,5 Milliarden Dollar. Bis heute haben die USA 1 Milliarden Dollar als Anzahlung an die UN überwiesen, die anderen 5 Nationen jeweils rund 0,5 Milliarden Dollar. Die UN hat 156 Mitarbeiter eingestellt, um den Plan zu überwachen. Jährliche Lohnkosten: 29 Millionen Dollar.

Und das ist erst der Anfang. Christiana Figueires, Leiterin der Pariser Konferenz, sagte kürzlich, dass der Plan während der nächsten 3 Jahre über 1,5 Billionen kosten würde, falls jede Nation dem Programm folgt.

Sollte Präsident Trump wirklich seine Entscheidung widerrufen und die USA erneut in das Paris-Abkommen einfügen, würden wir den UN unserem Versprechen folgend augenblicklich 2,5 Milliarden Dollar schulden. Da wäre es höchstwahrscheinlich besser, mit diesem Geld den 150.000 Menschen zu helfen, deren Wohnungen in SE-Texas im Zuge von Harvey weggespült worden sind.

Noch eine letzte Anmerkung. Was ist der wirkliche Grund für das Paris-Abkommen? Eine der aufschlussreichsten Bemerkungen, die ich gesehen habe, stammt von einem führenden UN-Funktionär. Ottmar Edenhofer sagte: „De facto verteilen wir den Wohlstand der Welt völlig neu. Man muss sich von der Illusion freimachen, dass internationale Klimapolitik Umweltpolitik ist“. Mit anderen Worten, es handelt sich um ein internationales Programm zur Umverteilung von Wohlstand. Wessen Wohlstand? Unser Wohlstand!

Link: https://wattsupwiththat.com/2017/09/25/enough-is-enough-stop-hyping-harvey-and-irma/

Übersetzt von Chris Frey EIKE