Report verknüpft Windtur­binen mit Gesundheits­problemen der Menschen

Der rapide Ausbau der Windenergie in den USA, zum größten Teil befeuert durch Subventionen der [US-]Bundesregierung sowie Vorschriften bzgl. Erneuerbarer der einzelnen US-Staaten, ging einher mit einer Flut von gesundheitlichen Beschwerden von Anwohnern von Oregon bis nach Massachusetts nahe den gigantischen, sich drehenden Turbinen.

In einem kürzlich erschienenen Bericht von GateHouse Media werden diese gesundheitlichen Probleme von Anwohnern und Landbesitzern untersucht. Das Ergebnis war ziemlich eindeutig: Ursache sind die Turbinen.

Der Bericht mit dem Titel „In the Shadow of Wind Farms” ist eine in die Tiefe gehende Untersuchung der Auswirkungen der Windindustrie vor allem auf ländliche Gemeinden, bei denen die Turbinen errichtet worden sind. Während der sechs Monate dauernden Untersuchung befragten die Autoren über 70 Familien, die in der Nähe von fast drei Dutzend Wind-Installationen wohnen. Sie sprachen auch mit 10 politischen Vertretern von Gemeinden und Staaten, durchforsteten hunderte Seiten von Aufzeichnungen über Windenergie-Projekte, begutachteten Gerichtsverfahren von sieben Verfahren mit Bezug zu Windenergie und inspizierten Mietverträge von mindestens acht Wind-Einrichtungen auf privatem Land.

Die Autoren durchkämmten auch öffentliche Dokumente und Berichte in den Medien, um die 400 Familien ausfindig zu machen, welche nahe industriellen Wind-Installationen wohnen und die sich über Flackerschatten, Lärm und Gesundheitsprobleme beklagt hatten, aber auch über irreführende Statements von Windunternehmen, welche Turbinen auf privatem Land errichten wollten.

Rapide wachsende, wohlhabende Industrie

Unter Verweis auf Zahlen der Energy Information Administration EIA beschreibt der Bericht das dramatische Wachstum der Windenergie in den USA während des vorigen Jahrzehnts. Waren es zunächst 300 Windpark-Standorte mit etwa 15.000 Turbinen, sind es jetzt über 1000 Installationen in 41 US-Staaten mit etwa 53.000 Turbinen.

Wurden die ersten Windparks noch in dünn besiedelten Gebieten errichtet wie etwa der Mojave-Wüste in Kalifornien, kann man heute tausende Turbinen in jeder Region des Landes finden – außer im Südosten, wo ungünstige Windbedingungen und fehlende staatliche Vorschriften (außer in North Carolina) das Wachstum der Industrie begrenzt haben.

An günstigen Standorten haben Windunternehmen den Gemeinden vielfältige Anreize versprochen, damit diese die Projekte genehmigen, zusätzlich zu den Steuernachlässen infolge dieser Multi-Millionen-Dollar-Installationen.

Vorteile für die Gemeinden

Einige Gemeinden erhalten feste jährliche Zahlungen anstelle von Steuernachlässen. In einem in dem Report genannten Beispiel, nämlich der Ortschaft Barber County in Kansas, erhält die Gemeinde 500.000 Dollar pro Jahr aus dem Flat Ridge Windprojekt plus zusätzliche 55.000 Dollar für jedes von dem Projekt erzeugte Megawatt Energie.

Windenergie-Unternehmen, die oft mit lokalen Einrichtungen zusammen arbeiten, fordern von Landbesitzern die Erlaubnis, Turbinen auf deren Land zu errichten. Landbesitzer, welche Verträge mit den Unternehmen unterzeichnen, können bis zu 14.000 Dollar pro Jahr und Turbine kassieren, wie aus dem Bericht hervorgeht.

Die Verträge führen oftmals zu Konflikten. Die Untersuchung der GateHouse Media fand heraus, dass die Unternehmen Landbesitzer davon überzeugen, ihre seit Generationen erhaltenen Eigentumsrechte abzutreten, und zwar auf der Grundlage von Versprechungen potentieller Profite mit minimalen potentiellen Problemen durch die Windturbinen. Die Verträge gestatten es den Landbesitzern in der Regel nicht, das Abkommen zu befristen, selbst wenn sie nach Entlastung verlangen von etwas, das sie unzumutbare Bedingungen nennen, verursacht durch die Turbinen.

Klagen über gesundheitliche Probleme

Die mit Abstand größte Quelle von Konflikten zwischen Landbesitzern und Windenergie-Unternehmen sind Klagen über die gesundheitlichen Auswirkungen, welche die sich drehenden Turbinen auf all jene haben, welche diesen täglich ausgesetzt sind.

Klagen kommen von Landbesitzern mit Turbinen auf ihrem Eigentum sowie von deren Nachbarn, wie die Untersuchung ergab. Unter den am häufigsten genannten Problemen sind Schlagschatten, erheblicher Lärm, Schlafstörungen und niederfrequente Vibrationen, welche bereits Dutzende Familien aus ihren Wohnungen vertrieben haben.

Im ländlich geprägten Mason County beispielsweise sagen Cary und Karen Shineldecker, dass sie unter Angstgefühlen leiden sowie unter Kopfschmerzen, Ohrendruck, Tinnitus, Herzrasen und Schlafstörungen, seit die Firma Lake Winds Energy ihre 476 Fuß hohen Windturbinen [ca. 145 Meter] rund um ihr Haus in betrieb genommen hat. Nach einem gescheiterten Kampf gegen den Windpark verkauften sie ihr Eigentum mit einem Verlust, der sie gerade noch vor dem Bankrott bewahrte.

Ein ganzer Chor ähnlicher Klagen über die Shirley Wind Farm in Brown County, Wisconsin, veranlasste die lokale Gesundheitsbehörde, die Turbinen zu einem Gesundheitsrisiko zu erklären. Dutzende Anwohner von Falmouth, Massachusetts, beklagten sich über Übelkeit, Kopfschmerzen, Migräne und Angstgefühle, nachdem die Firma Notus Clean Energy eine Windturbine in ihrer Gemeinde errichtet hatte. In Calhan, Colorado, erzählten vier Familien den Autoren, dass sie ihre Häuser verlassen hätten und weggezogen wären, um dem Golden West Wind Energy Center zu entkommen. Hunderte Menschen in der ganzen Nation haben ähnliche Klagen vorgebracht.

Obwohl die Windindustrie allgemein leugnet, dass es gesundheitliche Beeinträchtigungen bei all jenen gibt, die in der Nähe dieser Monster wohnen, kam GateHouse Media zu dem Ergebnis, dass Windunternehmen sich in sechs Fällen mit Parteien einigten, die sich im Zusammenhang mit den Turbinen über Beschwerden beklagt haben.

Eine Vielfalt von Klagen

Jay Lehr, Ph.D., Wissenschaftsdirektor des Heartland Institute, sagt, dass Windparks Gesundheitsprobleme verursachen und Energiekosten steigen lassen.

„Es war überfällig, dass die schlimmen Auswirkungen von Windturbinen auf die Gesundheit endlich zur Sprache kommen“, sagte Lehr. „Zusätzlich zu den gesundheitlichen Risiken ist Windenergie zu 100 Prozent abhängig von fossilen Treibstoffen als Backup, wenn der Wind nicht weht, einschließlich deren Kosten. Als Folge der viel weiter verbreiteten Windenergie in Europa zahlt man dort drei mal so viel für Strom wie in Amerika“.

Craig Rucker, Direktor des Committee for a Constructive Tomorrow CFACT sagt, dass Windparks auch für Todesfälle der wildlebenden Fauna verantwortlich sind.

„Wir wissen seit Langem, dass Windturbinen hunderttausende Vögel und Fledermäuse pro Jahr töten. Jetzt gibt es auch immer mehr Beweise, dass auch Menschen durch diese Installationen gefährdet werden. Und trotzdem fahren wir damit fort, diesen gefährlichen Unsinn zu subventionieren!“

Link: https://www.heartland.org/news-opinion/news/report-links-wind-turbines-to-human-health-problems

Die ganze Studie steht hier.

Übersetzt von Chris Frey EIKE




Klima-Alarmismus basiert auf Modellen (GCMs) und damit auf Nichts

Beim gegenwärtigen CO2-Niveau brauchen die Pflanzen alles davon, was sie bekommen können. Während der letzten Eiszeit war der Gehalt so gering, dass die Pflanzen und damit indirekt auch die Tiere kurz vor dem Eingehen standen. Diese CAGW-Doktrin der Klima-Alarmisten ist eine der unwissenschaftlichsten und lächerlichsten Doktrine, die je von einer großen Bewegung proklamiert worden sind – wobei sie so tun, als fuße die Doktrin auf der Basis der Wissenschaft in der Weltgeschichte.

Die Art und Weise der Konstruktion der Modelle vergewaltigt nahezu jeden Aspekt, der der Welt Vertrauen in dieselben einflößen könnte. Für keinen einzigen praktischen Zweck können sie reproduziert werden. Sie erzeugen erheblich differierende Ergebnisse je nach Wahl der Eingangsbedingungen, und sie sind so teuer, dass nur hoch finanzierte Forscher es sich leisten können, sie zu testen. Mike Jonas zufolge folgt deren Konstruktion folgendem allgemeinen Prozedere:

1) Alle bekannten (d. h. verstandenen) Faktoren wurden in die Klimamodelle gefüttert. Unbekannte Faktoren wurden geschätzt (was das IPCC ,Parametrisierung‘ nennt…).

2) Modellergebnisse werden dann verglichen mit tatsächlichen Beobachtungen, wobei sich herausstellte, dass die Erwärmung im 20. Jahrhundert nur etwa ein Drittel ausmachte.

3) Daraufhin wurden die Unbekannten in den Modellen so lange frisiert, bis sie passten.

4) Fazit: Etwa zwei Drittel der von den Modellen prophezeiten zukünftigen Erwärmung resultieren aus Faktoren, die noch gar nicht verstanden sind.

Warum GCM als Basis für Alarmismus falsch ist

Warum also sind GCMs als Grundlage für den Alarmismus so falsch? In der Antwort enthalten ist u. A. Folgendes:

(A) Die GCMs sind sehr unzuverlässig und sollten nicht als Grundlage für politische Entscheidungen herangezogen werden. Mike Jonas schreibt dazu:

„Die Modelle prophezeien allgemein ein sehr hohes Niveau zukünftiger Erwärmung und behaupten, dass die ausschließliche Ursache das CO2 ist. Die Realität ist aber natürlich, dass zwei Drittel dieser prophezeiten zukünftigen Erwärmung auf Raten beruht, und sie wissen nicht, ob sie richtig geraten haben, d. h. sie wissen nicht einmal, ob die erratenen Faktoren den Planeten überhaupt erwärmen. Sie könnten auch abkühlend wirken…

Falls immer noch jemand daran zweifelt, dass die Modelle unzuverlässig sind, dann kann vielleicht das IPCC höchstselbst so jemanden von diesem Tatbestand überzeugen. Die Arbeitsgruppe 1 des IPCC (WG 1) bewertet die physikalisch-wissenschaftlichen Aspekte des Klimasystems und des Klimawandels. Im Jahre 2007 sagte die WG1: „wir sollten erkennen, dass wir es mit einem gekoppelten, nicht linearen und chaotischen System zu tun haben, weshalb die langfristige Vorhersage zukünftiger Klimazustände nicht möglich ist“.

(B) Die in die GCMs eingehenden Daten der globalen mittleren Temperatur sind von den Klima-Alarmisten bis zu einem Ausmaß manipuliert worden, dass die Daten nicht mehr repräsentativ und damit wertlos sind. Einem neuen Report zufolge sind die von den Alarmisten herangezogenen Datensätze kein valides Abbild der Realität einschließlich der von ihnen wiederholt aufgestellten Behauptungen der höchsten Temperaturen jemals. Der neue Forschungsbericht belegt, dass die von IPCC und EPA verwendeten Datensätze nicht ausreichend glaubwürdig sind, um für politische Zwecke zu Rate gezogen werden zu können.

Weiter aus dem Report: „Die Größenordnung ihrer Adjustierungen historischer Daten, so dass deren zyklische Natur eliminiert wurde, sind absolut inkonsistent mit veröffentlichten und glaubwürdigen US- und anderen Temperaturdaten. Folglich ist es unmöglich, aus den drei veröffentlichten Datensätzen abzuleiten, dass die letzten Jahre die wärmsten jemals waren – trotz der immer neuen Behauptungen einer Rekorde brechenden Erwärmung“.

(C) Die GCMs haben grundsätzlich viel wärmere Ergebnisse hervorgebracht als von Satelliten gemessen. Diese Satelliten-Temperaturmessungen sind eine der wenigen Unterlagen, die bislang nicht seitens der Alarmisten willkürlich manipuliert worden sind.

(D) Gekoppelte, nicht lineare und chaotische Systeme können nicht sinnvoll modelliert werden.

Der von den Alarmisten verwendete Verkehrt-Herum-Ansatz [bottom-up approach] auf der Grundlage von Wettermodellen ist inhärent ungeeignet für diesen Zweck und wurde niemals validiert. Genau wie Wettermodelle verlieren sie ihre Validität innerhalb weniger Wochen, obwohl die Alarmisten uns glauben machen wollen, dass deren Ergebnisse auch in 100 Jahren noch valide sind. Und die Klima-GCMs sind noch viel weniger valide als die Wettervorhersage-Modelle, weil sie so vereinfacht werden müssen, dass man sie überhaupt mit Computern rechnen kann. Derartiger Blödsinn ist kaum zu glauben und sollte nicht angestellt werden.

Meine vorgeschlagene Alternative

Was also sollte meiner Ansicht nach an die Stelle der teuren und nutzlosen Klima-GCMs treten? In einem Satz: ausgewogene ökonometrische Studien auf der Grundlage angemessener simultaner Gleichungen. Ökonometrie wurde lange von Industrien und Akademikern angewendet, mit sichtlichen Erfolgen. Sie weist nicht die Probleme auf, die bei der Porträtierung eines chaotischen Systems mittels linearer Gleichungen auftreten. Sie ist im Vergleich mit Klima-GCMs sehr billig und sogar dann noch empfehlenswert, wenn sie nicht von Alarmisten benutzt wird. Es sagt dem Leser, welche natürlichen Faktoren mit Temperaturänderungen korreliert sind in dem Zeitraum, aus dem die Daten stammen.

Eine der wenigen ökonometrischen Studien, die bis heute geschrieben worden sind, besagt, dass CO2 keine signifikanten Auswirkungen auf die Temperatur hat. Dies bedeutet nicht, dass man in einem Labor irgendwelche Auswirkungen findet, aber in der realen Welt und über die betrachteten Zeiträume sind Auswirkungen nicht feststellbar. Außerdem geht aus dem Report hervor, welche natürlichen Vorgänge wie viel Einfluss ausüben. Dies geht aus den verwendeten Daten hervor und nicht aus dem, was die „Wissenschaftler“ glauben, wie sich das Klima verhält. Dies erklärt, warum Temperaturvariationen vollständig erklärt werden können durch die Auswirkungen natürlicher Phänomene, ohne vom Menschen verursachte Auswirkungen bemühen zu müssen.

Die gesamte CAGW-Hypothese der Klima-Alarmisten ist nichts weiter als eine widerlegte Hypothese – trotz der schätzungsweise bisher aufgewendeten 100 Milliarden Dollar für GCM-Modelle und andere Forschungen sowie etwa 1,5 Billionen Dollar, die auf der Grundlage der Modelle bislang ausgegeben worden sind. Dies ist zweifellos die schlimmste, auf Betrug basierende Wissenschaft zu einem grundlegenden politischen Komplex in der Weltgeschichte. Lieferanten von Windmühlen und Solarpaneelen haben sich viele Billionen Dollar in die Taschen gestopft auf der Grundlage betrügerischer und nutzloser GCM-Modelle – unter tatkräftiger Mithilfe von Medien, Regierungen und der Akademia (welche nur zu oft reich belohnt worden sind wegen ihrer irreführenden und nutzlosen Modelle) [hier].

Link: http://www.carlineconomics.com/archives/4151

Übersetzt von Chris Frey EIKE




Die Lösung des EEG-Problems wurde von der EU gestartet – Energie (in Deutschland) immer teurer zu machen, bis sie niemand mehr „benötigt“

Die Reform: Den Preis drastisch erhöhen, und zwar verlässlich

Was NGOs [4] [7], andere Länder und in deren Schlepptau unsere Umweltministerin laufend fordern:
Die Bundesregierung: [3]
Ein wirksamer CO2-Preis muss steigen
… Bundesumweltministerin Barbara Hendricks sprach sich gemeinsam mit ihren Kollegen aus Frankreich, dem Vereinigten Königreich, Schweden und den Niederlanden dafür aus, den CO2-Ausstoß mithilfe eines „wirksamen Preises“ zu senken.
Der CO2-Preis sei ein effektives Mittel, um den Ausstieg der Weltwirtschaft aus fossilen Brennstoffen voranzutreiben, weil er etwa die Stromgewinnung aus Kohle teurer mache, so Hendricks. Derzeit gibt es in der EU zwar einen Emissionshandel, der CO2-Preis ist aber so gering, dass er kaum Auswirkungen zeigt.
Die Ministerinnen und Minister unterstrichen, dass die Bepreisung von CO2-Emissionen verlässlich sein sollte. Das Preisniveau muss im Laufe der Zeit so erhöht werden, dass das Ziel des Pariser Übereinkommens erreicht wird, die Erderwärmung auf deutlich unter zwei Grad zu begrenzen
.
In Deutschland jedoch noch nicht umgesetzt werden konnte, hat die EU nun mit Unterstützung Deutschlands (als Zahlmeister) und Frankreichs (als einer der Profiteure) dankenswerter Weise übernommen:
KLIMARETTER.INFO Dienstag, 06. Februar 2018: [1]
Neuer Emissionshandel beschlossene Sache
Die Abgeordneten im Europäischen Parlament haben die Reform des EU-Emissionshandels verabschiedet, die damit praktisch in trockenen Tüchern ist. Sie wird den Preis pro Tonne CO2 deutlich erhöhen – allerdings nicht auf die magische Grenze von 30 Euro, die als echter Anreiz für klimafreundliche Investitionen gilt.
Innerhalb des kommenden Jahrzehnts soll sich der CO2-Preis im EU-Emissionshandel ungefähr verdreifachen. Das Europäische Parlament hat die Reform des Emissionshandels verabschiedet, an der es gemeinsam mit dem Ministerrat seit Jahren arbeitet. Die Regelungen betreffen die Zeit von 2021 bis 2030. Damit ist die Gesetzesänderung quasi in trockenen Tüchern.

Bei solchen Summen musste die EU und manche Nachbarn einfach gierig werden

Betrachtet man die (künftigen) Summen des Zertifikatehandels, wird klar, warum die EU-Bürokratie – und Länder, welche daran partizipieren – mehr als „gierig“ danach sind. Alleine mit der Emission von Deutschland sprudeln bald viele Milliarden Euros jährlich. In der Tabelle sind nur die Daten der Stromgewinnung hinterlegt. Mit der geplanten Ausweitung auf alle Emissionsbereiche vervielfachen sich diese Werte.

Tabelle 1 CO2-Daten und Zertifikatekosten Deutschland auf Basis 2015. Quelle CO2-Daten: [5], Tabelle 3

Die „Denkfabrik“ Agora zeigt, wie man sich die „ideale“ Zertifikatepreis-Entwicklung vorstellt. Es ist das gleiche Modell, wie es die Kirche einst zur Finanzierung des Petersdomes erfunden hatte. Verspreche einen imaginären, nicht konkret messbaren Vorteil (weniger CO2 = ideale Welttemperatur) und bepreise ihn. Die gläubige Anhängerschar wird das Geld hoffnungsvoll im Kasten klingeln lassen.

Bild [4]

Und weil es „viel Ehre“ bringt, fordern Unternehmen (natürlich nicht selbst) noch etwas draufzulegen

Viel ist noch nicht genug. Nachdem in unserer Gesellschaft auch Firmen und Institutionen nach „Ökokarma“ gieren, um öffentliche Aufmerksamkeit zu erhalten (und damit werben zu können), soll die Politik nach deren Pfeife tanzen und das CO2-Zertifikatesystem um Sektoren erweitern:
[7] UnternehmensGrün (Mitgliederliste):
Die unterzeichnenden Unternehmen und Verbände unterstützen hierzu den offenen Brief … der u.a. folgende Leitplanken für einen Passus im Koalitionsvertrag formuliert:
… Eine Konkretisierung und
Ausweitung einer CO2-Bepreisung auf alle Sektoren (Strom, Wärme, Verkehr), die konform zum Europäischen Emissionshandel ist …
… Aufbauend auf dem EU-ETS und nationalen CO
2-Bepreisungen eine Initiative zu beschließen, die wirksame CO2-Preise in allen Sektoren auf europäischer Ebene einführt.

Unser Parlament kann man auflösen –gemacht wird, was die EU vorgibt

Dass unsere Parteien nichts vom Wählerwillen halten und Regieren als nicht mehr zeitgemäß betrachten, zeigt der Koalitionsvertrag. Eindeutig steht darin, dass man eine eigenständige Politik aufgegeben hat, da EU-Recht ohne Diskussion 1:1 umgesetzt wird.
GroKo Vertrag [10]: 6465 EU-Recht setzen wir 1:1 um
Daran anschließend erzählen und beweihräuchern sich die Koalitionäre, wie sie in Zukunft schaffen werden, was sie in der Vergangenheit nicht erreicht haben:
GroKo Vertrag [10]: … Wir werden zeigen, dass anspruchsvoller Klimaschutz, wirtschaftliche Prosperität und sozialer Ausgleich erfolgreich vereinbar sind. Mit dem weiteren Ausbau der erneuerbaren Energien und dem bereits weit fortgeschrittenen Ausstieg aus der Kernenergie haben wir wichtige Grundlagen für die Zukunft gelegt. Wir werden nun ein neues integriertes Energiesystem schaffen aus Erneuerbaren, Energieeffizienz, einem beschleunigten Ausbau der Stromnetze, einer schrittweisen Reduzierung der Stromerzeugung aus fossilen Energieträgern und einer forcierten Nutzung der Digitalisierung. Klima- und Umweltverträglichkeit, Versorgungssicherheit und Bezahlbarkeit sind die Eckpfeiler dieser Energiepolitik.
… Den EU-Emissionshandel wollen wir als Leitinstrument weiter stärken. Unser Ziel ist ein CO2-Bepreisungssytem, das nach Möglichkeit global ausgerichtet ist, jedenfalls aber die G20-Staaten umfasst …

Das eigene Volk kennt man nicht mehr

Bezahlbarkeit ist ein relativer Begriff. Deutschland hat in Europa inzwischen den Spitzenplatz beim Strompreis für den privaten Verbraucher erreicht [6]. Es stört nicht, schließlich hat der Untertan kein Anrecht auf billige Energie [8].
Und deshalb kommt der private Stromverbraucher – der eigentlich „das Volk“ repräsentiert, im Vertrag gar nicht mehr vor. Nur die NGOs und Interessensverbände dürfen sich in diesem „Geldregen“ weiter tummeln und Vorschläge machen, wie man diesen ausweiten kann. Gut, es wird auch daran gedacht, eine Folgenabschätzung zu starten. Allerdings mit unwichtigem Ergebnis, denn die Ziele dürfen dadurch nicht gefährdet werden.
GroKo Vertrag [10]: … „Wir werden eine Kommission „Wachstum, Strukturwandel und Beschäftigung“ unter Einbeziehung der unterschiedlichen Akteure aus Politik, Wirtschaft, Umweltverbänden, Gewerkschaften sowie betroffenen Ländern und Regionen einsetzen, die auf Basis des Aktionsprogramms Klimaschutz 2020 und des Klimaschutzplans 2050 bis Ende 2018 ein Aktionsprogramm mit folgenden Elementen erarbeiten soll:
– Maßnahmen, um die Lücke zur Erreichung des 40 Prozent-Reduktionsziels bis 2020 so weit wie möglich zu reduzieren,
– Maßnahmen, die das 2030-Ziel für den Energiesektor zuverlässig erreichen, einschließlich einer umfassenden Folgenabschätzung,
– einen Plan zur schrittweisen Reduzierung und Beendigung der Kohleverstromung, einschließlich eines Abschlussdatums und der notwendigen rechtlichen, wirtschaftlichen, sozialen und strukturpolitischen Begleitmaßnahmen und
– die finanzielle Absicherung für den notwendigen Strukturwandel in den betroffenen Regionen und einen Fonds für Strukturwandel aus Mitteln des Bundes“.

Fazit

Wenn es nicht irgendwann oppositionellen Parteien gelingt, diesen CO2-hysterisch begründeten Umverteilungswahnsinn zu stoppen, leiden folgende Generationen bald wirklich. Nicht am sich vielleicht leicht erwärmenden Klima, sondern vor allem am immer schneller dahinschmelzenden, privat noch verfügbarem, monetären Budget.
Dann gehen auch die Visionen „großer Denker“ in Erfüllung, denen dies (selbst wie verbeamtet und damit wenig betroffen) für das gemeine Volk vorschwebt:
[9] H. P. Gensichen, Gründungskurator der Deutschen Bundesstiftung Umwelt, in: Der Klimawandel: Brennpunkt globaler, intergenerationeller und ökologischer Gerechtigkeit Armut wird uns retten:
These 5 (Arme leben zukunftsfähig): Die Seligkeit der Armen und Randexistenzen – ArmSeligkeit – holt die Zukunft des Reiches Gottes in die gesellschaftliche Gegenwart. Das gegenwärtige Leben der Armen ist zukunftsfähig und zukunftsträchtig.
These 10 (Ein gemeinsamer Wohlstand): Südliche Theorie der Befreiung aus der Armut und Nördliche Theorie der Befreiung zur Armut und aus dem Reichtum heraus sind verwandt, allerdings über Kreuz. Eine akzeptierte und gestaltete Süd-Nord-Annäherung der Entwicklungsniveaus drückt diese Verwandtschaft aus: Eine dortige Befreiung aus der Armut und eine hiesige Befreiung in die Armut haben
ein gemeinsames Ziel: Einen globalen Wohlstand etwa auf dem Niveau von Chile bzw. Slowenien.

Quellen

[1] KLIMARETTER.INFO Dienstag, 06. Februar 2018: Neuer Emissionshandel beschlossene Sache

[2] ECOKompass Erneuerbare Energie 16.01.2015: Studien: Atom- und Kohlestrom sind schmutzig, aber nicht billig

[3] Die Bundesregierung 12.12.2017: Pariser Gipfel „One Planet Summit“ CO2-Preis muss steigen

[4] Agora Dr. Patrick Graichen BERLIN, 13. JANUAR 2016:: Elf Eckpunkte für einen Kohlekonsens Konzept zur schrittweisen Dekarbonisierung des deutschen Stromsektors

[5] arepo consult: Kurzanalyse der nationalen Treibhausgasemissionen fürdasJahr2016 (Kurzstudie für die Bundestagsfraktion Bündnis90/DieGrünen)

[6] EIKE 30.01.2018: Deutschland hat in Europa einen neuen Spitzenplatz erklommen – beim Strompreis

[7] UnternehmensGrün, 9. November 2017: In: Nachhaltige Wirtschaftspolitik, Pressemitteilungen Mit dem CO2-Preis im Koalitionsvertrag kommt auch der Kohleausstieg

[8] Basler Zeitung 29.01.2018: Das dicke Ende der Energiewende, Forscher, deren Arbeit vom Bund finanziert wird, fordern Umerziehungsprogramme und staatliche Agenten.

[9] Die deutschen Bischöfe Kommission für gesellschaftliche und soziale Fragen Kommission Weltkirche, Nr. 29, September 2006, Mit einem Geleitwort des Vorsitzenden der Deutschen Bischofskonferenz: Der Klimawandel: Brennpunkt globaler, intergenerationeller und ökologischer Gerechtigkeit Ein Expertentext zur Herausforderung des globalen Klimawandels.

[10] Entwurf KoaV, Stand 07.02.2018: Ein neuer Aufbruch für Europa Eine neue Dynamik für Deutschland Ein neuer Zusammenhalt für unser Land Koalitionsvertrag zwischen CDU, CSU und SPD




Und plötzlich wird die Zukunft glücklicher

Bisher verließ man sich auf falsche Annahmen

War es bisher ein Sakrileg, dass Extremereignisse mit dem Klimawandel zunehmen müssen [3] und ein Beleg dafür das Wissen: Früher wären die Klimaveränderungen noch nie so schnell gewesen [4], haben Wissenschaftler des AWI nun herausgefunden, dass diese bisher unumstößlichen „Wahrheiten“ schlichtweg auf falschen Annahmen beruhen:
AWI 05.02.2018 Pressemeitteilung: [2] Klimaschwankungen in Vergangenheit und Zukunft
Bislang ging man davon aus, dass die Temperaturen während der letzten Eiszeit extrem schwankten, und unsere gegenwärtige Warmzeit in der Regel nur sehr kleine Temperaturausschläge zeigte …
Das Team… hat durch einen Vergleich der grönländischen Daten mit denen aus Sedimenten verschiedener Meeresgebieten der Welt sowie aus Eisbohrkernen der Antarktis zeigen können, dass das Phänomen starker Temperaturschwankungen während einer Eiszeit keineswegs global gleichförmig auftrat, sondern regional unterschiedlich ausgeprägt war. In den Tropen etwa waren zum Höhepunkt der letzten Eiszeit die Temperaturschwankungen dreimal stärker ausgeprägt als heute, während die Eiskerne auf 70-fach höhere Schwankungen in Grönland hinweisen.
„Die Eisbohrkerne aus Grönland sind ohne Zweifel ein wichtiger Baustein, um das Klima vergangener Zeiten zu verstehen.
Gleichzeitig belegt unsere Studie, dass die für Grönland ermittelten Schlussfolgerungen nicht immer repräsentativ für die ganze Welt sind“,

Jungforscher*innen schauen einmal über „den Tellerrand“ …

Wenn es stimmt, was die Jungforscher*innen [7] beim AWI herausgefunden haben, muss man sich schon fragen, was die vielen „Experten“ in Deutschland und rund um die Welt eigentlich an wirklichem „Erkenntnisgewinn“ generieren, beziehungsweise, ob diese nicht vorwiegend reihum voneinander abschreiben (was wohl so sein dürfte). Um darauf zu kommen, Klimarekonstruktionen global zu betrachten, muss man wirklich nicht überragend intelligent sein. Zudem wird es von vielen klimawandel-kritischen Forschern längst durchgeführt, siehe die weltumspannende Recherche zur mittelalterlichen Warmzeit von „kaltesonne“ [5].

AWI: [2] …Die Leistung von Erstautorin Kira Rehfeld und ihren Kollegen besteht darin, dass sie erstmals Daten aus verschiedenen Klimaarchiven und von insgesamt 99 unterschiedlichen Orten zusammengebracht und verglichen haben.
Dass es zur Eiszeit stärkere Schwankungen gegeben hat, liegt daran, dass der Temperaturunterschied zwischen den vereisten Polargebieten und den Tropen damals stärker ausgeprägt war, was zu einem dynamischeren Austausch von warmen und kalten Luftmassen führte.

… und schon muss man (wieder) „gesichertes Wissen“ als unsicher verwerfen

AWI: [2] … „Wenn wir dieser Idee weiter folgen, kommen wir zu dem Schluss, dass die Schwankungen langfristig mit der Erderwärmung weiter abnehmen“, sagt Rehfeld – einfach deshalb, weil der Temperaturunterschied zwischen dem sich erwärmenden Norden und den Tropen geringer wird …

Sind die Klimamodelle auch bei diesem Parameter falsch programmiert?

Liest man bis zum Schluss weiter, fragt man sich nicht, sondern erkennt (wieder), warum die Klimamodelle so massiv versagen. Das Klima ist einfach noch viel zu wenig verstanden – und es fehlen nach wie vor verlässliche Daten zur Kalibrierung -, um mit Simulationen glaubhafte Zukunftsprojektionen durchführen zu können:
AWI: [2] … Klimamodellierer hatten den Mechanismus geringerer Variabilität unter wärmeren Klimabedingungen bereits im Jahr 2014 vorgeschlagen. Rehfeld, Laepple und Kollegen ist es mit ihrer Analyse nun erstmals gelungen, diesen Zusammenhang mit weltweiten Klimadaten aus der Vergangenheit zu untermauern.

Forscht man weiter, könnte man in den kommenden Jahren (vielleicht) Genaueres zum Klima sagen

Lautet der Extrakt. Dummer Weise wird seit über 20 Jahren für die nicht gesicherten – angeblich trotzdem über alle Zweifel erhabenen [8] – Theorien das Geld bereits zum Fenster hinaus geworfen, ohne Hoffnung, dass sich daran schnell etwas ändern könnte.
AWI: [2] Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.

Aber es keimt damit eine Hoffnung: Während sich beim AWI ebenfalls die Klimahysterie-Unterstützer tummeln [6] [8], scheint es dort einen Nachwuchs zu geben [7], welcher eigene Gedanken entwickelt und auch verfolgt.
Es bleibt abzuwarten, welche Forscherfraktion beim Kampf um Fördermittel überlebt. Unter Frau Hendricks mit ihrer fast manischen und durch keine Fakten verrückbaren Klimahysterie [8] war das eindeutig (und falls die GroKo kommt, wird es wohl auch so bleiben).

Stimmen die Ergebnisse des 2k-Projektes damit nicht?

Vor einigen Jahren wurde ein großes, weltweites Projekt zur Erstellung eines „richtigen“ Temperatur-Proxikataloges durchgeführt, bei dem der Autor schon mit wenig Aufwand gravierende Mängel entdecken konnte.
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES2k
Was Herrn Rahmstorf vom PIK nicht davon abhält, diese Projekt zu loben, vor allem die (hirnrissige) Auswertung davon, welche angeblich den Hockeystick bestätigen soll (was immer der Fall ist, wenn man Statistik falsch anwendet):
Rahmstorf: [10]Vorige Woche haben wir hier die neue Klimarekonstruktion des PAGES 2k-Projekts besprochen, die einmal mehr den Hockeyschläger-Verlauf der Klimageschichte der letzten tausend Jahre bestätigt hat.
Die Auswertung des AWI würde die Zweifel des Autors an der Datenqualität nun auch aus anderen Gründen bestätigen.

Anmerkung: Der Autor dankt „kaltesonne“ für den Hinweis zur AWI-Pressemeldung

Quellen

[1] SPON 12.02.2018: Satellitenmessungen Meeresspiegel steigt immer schneller

[2] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft

[3] FOCUS 22.09.2017: Extremwetter werden zunehmen – schuld daran sind wir selbst
Tagesschau 5. August 2017: 50 Mal mehr Extremwetter-Tote bis 2100?
Umweltbundesamt: Wird das Klima extremer? Sind die sich häufenden Überschwemmungen ein Indiz dafür?

[4] Buch: Mut zur Nachhaltigkeit: … Die im Vergleich zur Klimageschichte extrem schnelle Erwärmung, die derzeit beobachtet wird .

[5] kaltesonne: Das Projekt Kartographie der Mittelalterlichen Wärmeperiode: Online-Atlas einer noch immer unverstandenen Hitzephase

[6] EIKE: Die immer neu aufsteigenden und untergehenden Inseln wie zum Beispiel Tuvalu

[7] AWI: ECUS Bestimmung der Klimavariabilität durch die Quantifizierung von Proxyunsicherheit und die Synthese von Informationen zwischen Klimaarchiven.

[8] AWI 11. Mai 2017: PRESSEMITTEILUNG Alfred-Wegener-Institut: Eine unumkehrbare Ozeanerwärmung bedroht das Filchner-Ronne-Schelfeis
AWI-Klimaforscher entschlüsseln Antriebsprozesse eines irreversiblen Wärmeeinstroms unter das Schelfeis, der schon in wenigen Jahrzehnten einsetzen könnte.

[8] EIKE 01.01.2017: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann

[9] EIKE 08.03.2017: In einer Zeit, die immer mehr von Unsicherheit und Ängsten geprägt ist, macht Klimaschutz Mut
EIKE 14.09.2016: Frau Hendricks glaubt im Klimawahn, Klimapäpstin geworden zu sein und den Irrglauben ihrer Bürger verdammen zu dürfen Zu ihrem Gastbeitrag „Weit verbreiteter Irrglaube“ im Handelsblatt

[10] SciLogs 23. Mai 2013 von Stefan Rahmstorf in Klimadaten: Paläoklima: Die Hockeyschläger-Debatte




Überzogene Behaup­tungen bzgl. Temperatur-Rekorden

„Fast niemals wird in diesen alarmistischen Pressemeldungen erwähnt, dass die angebliche Änderung lediglich um ein paar hundertstel Grad von den Messungen zuvor abweicht. Niemals wird erwähnt, dass die Fehlerbandbreite bei diesen Messungen viel größer ist als die angebliche Zunahme. Niemals auch wird erwähnt, dass ein wenig mehr Wärme viel besser wäre als eine kältere Welt mit weniger urbarem Land und kürzeren Wachstumsphasen. Und mit Sicherheit werden niemals die gewaltigen Defizite unseres Wissens über das System erwähnt, welches die Temperaturen der Erde bestimmt … sondern immer werden die Menschen und fossile Treibstoffe für irgendwelche Änderungen verantwortlich gemacht.

Der folgende Beitrag Von Dr. Tim Ball und Tom Harris spricht all diese hoch relevanten, aber oft absichtlich ignorierten Realitäten an“.

—————————-

Nach dem Abklingen allen Geschreis hinsichtlich der Nachricht, dass das Jahr 2017 hinsichtlich der Temperatur eines der wärmsten jemals auf der Erde gewesen ist, ist es an der Zeit, darüber noch einmal in Ruhe und angemessen nachzudenken.

Bedeutet die entsprechende Verlautbarung der NOAA, dass nämlich 2017 das drittwärmste Jahr seit 1880 war, irgendetwas?

Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit.

Obwohl die Los Angeles Times das Jahr 2017 als ein „Top-3-Hitzejahr für den Planeten Erde“ bezeichnete, sind weder die NASA- noch die NOAA-Rekorde in irgendeiner Weise signifikant. Es ist trivial, dass die wärmsten Jahre auf natürliche Weise während der jüngsten Jahre mit einem Erwärmungstrend auftreten. Und Gott sei Dank befinden wir uns in einem graduellen Erwärmungstrend seit dem Tiefpunkt der Kleinen Eiszeit zum Ende des 17. Jahrhunderts! Damals war die Themse mit meterdickem Eis überzogen, wie das Gemälde „The Great Frost“ von Jan Grifier 1683 illustriert.

Wie auch immer, jüngste Änderungen waren sogar noch zu gering, um selbst von den meisten Thermometern noch erfasst zu werden. Noch wichtiger ist, dass die Änderungen fast durchweg geringer sind als die Schätzungen der Regierung bzgl. Unsicherheiten in den Messungen hergeben. Tatsächlich fehlen uns Daten, um die heutigen Temperaturen angemessen und wissenschaftlich mit den Temperaturen der Vergangenheit zu vergleichen.

Ursache hierfür ist, dass bis Ende der sechziger Jahre die Temperaturdaten mit Quecksilber-Thermometern erfasst worden sind, welche sich an Wetterstationen zumeist in den USA, Europa, Teile der ehemaligen Sowjetunion, Chinas, Japan, UK und Ostaustralien befanden. In fast allen übrigen Gebieten der Welt gab es nur sehr wenige Messpunkte. Und aus keinem der Ozeangebiete der Erde, welche 70% der Erdoberfläche bedecken, gibt es mehr als höchstens gelegentlich einmal eine Messung, tausende Kilometer entfernt von der nächsten Messung.

Die an den so spärlichen Messpunkten gesammelten Daten hatten im besten Falle eine Genauigkeit von ±0,5°C. In den meisten Fällen lag die Genauigkeit sogar nur um ±1°C. Die Mittelung so weniger Daten, um globale Bedingungen zu bestimmen, kann nichts Bedeutsames hervorbringen. Die Darstellung der globalen mittleren Temperatur auf Zehntel- oder sogar Hundertstel Grad genau vergewaltigt eindeutig den gesunden Menschenverstand.

Heute werden Temperaturdaten an Wetterstationen mittels Präzisions-Thermoelementen gemessen. Aber mit Beginn in den siebziger Jahren fanden immer weniger am Boden gemessene Temperaturdaten Eingang in die Plots von NOAA und NASA. Ursprünglich hatte man nämlich gedacht, dass Satelliten-Monitoring die Daten besser erfassen kann.

Aber leider haben die Satelliten die gewünschte Erwärmung in keiner Weise gezeigt, weshalb Bürokraten die meisten der kälteren Messpunkte ausgesondert haben, um die gewünschte Erwärmung doch noch zu bekommen.

Dass die Satelliten die von den Computermodellen prophezeite Erwärmung, welche so entscheidend für Klima-Studien und Energiepolitik war, nicht zeigten, war den Bürokraten ein Dorn im Auge. Also schlossen diese die kälteren ländlichen Stationen – also die am weitesten von wärmeren Stadtgebieten entfernt liegenden Stationen – und konnte so doch noch die gewünschte Erwärmung vorweisen, ausschließlich für politische Zwecke.

Heutzutage gibt es praktisch keine Daten aus etwa 85% der Erdoberfläche. Tatsächlich werden heute weniger Stationen betrieben als im Jahre 1960.

Berechnungen von NOAA und NASA nach etwa 1980 sind bedeutungslos

Dies bedeutet, dass Temperatur-Berechnungen von NOAA und NASA nach dem Jahr 1980 bedeutungslos sind. Kombiniert man diesen Umstand mit den Problemen früherer Daten, ergibt sich eine unvermeidliche Schlussfolgerung: Es ist unmöglich festzustellen, wie die so genannte mittlere globale Temperatur über die vergangenen eineinhalb Jahrhunderte hinweg variiert hat.

Die Daten sind daher nutzlos, um als Input für Computermodelle zu dienen. Und doch bilden diese die Grundlage der politischen Empfehlungen des IPCC, und sie werden oftmals herangezogen, um die Eliminierung fossiler Treibstoffe zu rechtfertigen und diese durch erneuerbare Energie zu ersetzen.

Aber mit dem Fehlen geeigneter Daten von der Erdoberfläche fängt das Problem erst an. Die Computermodelle, auf welchen die Klima-Angst fußt, sind mathematische Konstruktionen, welche den Input von Daten über der Oberfläche erfordern, ebenso wie solche an der Oberfläche. Die Modelle unterteilen die Atmosphäre in übereinander gestapelte Würfel, idealerweise mit den Verhältnissen von Wind, Feuchtigkeit, Wolkenbedeckung und Temperatur in verschiedenen geographischen Breiten. Aber gegenwärtig gibt es über der Oberfläche sogar noch weniger Daten als von der Oberfläche, und definitiv gibt es aus höheren Schichten keine historischen Daten.

Viele Menschen glauben, dass der Planet gleichmäßig von Satelliten-Beobachtungen erfasst wird; Daten, welche global über 24 Stunden an 7 Tagen der Woche gemessen werden. Dies soll weitaus genauer sein, als irgendetwas an Wetterstationen Gemessenes. Aber die Satelliten können keine Daten aus den Polargebieten erfassen, also aus Gebieten, welche das IPCC, die NOAA und die NASA als so entscheidend für das Verständnis der globalen Erwärmung hinaus posaunen. Außerdem begannen Temperaturaufzeichnungen via Satellit erst im Jahre 1979, und 30 Jahre mit Wetterdaten sind erforderlich, um auf einer Klimagraphik nur einen einzigen Datenpunkt zu erzeugen.

Folglich sind die Satelliten-Aufzeichnungen viel zu kurz, um brauchbare Schlussfolgerungen hinsichtlich Klimawandel ziehen zu können.

Tatsächlich weisen alle Daten große Unzulänglichkeiten auf – Temperatur, Land- und Meereis, Gletscher, Meeresspiegel, Extremwetter, Ozean-pH und so weiter –, so dass es unmöglich ist zu sagen, wie sich das heutige Klima von dem der Vergangenheit unterscheidet. Angesichts des Fehlens so grundlegender Daten haben die von den Klimaaktivisten ausgegebenen Prophezeiungen keinerlei Bezug zur realen Welt.

Der britische Professor Hubert Lamb wird oftmals als der Begründer der modernen Klimatologie angesehen. In seiner umfassenden Abhandlung aus dem Jahr 1972 mit dem Titel Climate: Past, Present and Future zeigt er eindeutig, dass man Klimawandel unmöglich verstehen kann ohne große Mengen genauer Wetterdaten über lange Zeiträume. Lamb schreibt auch, dass die Finanzierung der Verbesserung der Datengrundlage verschwindend gering war im Vergleich zu den Geldern, welche für Computermodelle und Theoretisierungen ausgegeben worden sind. Er warnte, dass dieser Umstand zu wilden und gehaltlosen Theorien und Behauptungen führen wird, während sich Prognosen nicht verbessern. Und genau das ist ja auch geschehen.

Jede einzelne Prophezeiung seitens der vom IPCC verwendeten Computermodelle hat sich ohne eine einzige Ausnahme als falsch erwiesen.

Tatsächlich lagen die ersten ihrer Prognosen für den 1. IPCC-Zustandsbericht so meilenweit von der Realität entfernt, dass das Gremium diese Prophezeiungen „Projektionen“ zu nennen begann. Mit ihnen wurden niedrige, mittlere und hohe „Vertrauens“-Intervalle für zukünftige Prophezeiungen angeboten. Dennoch haben Journalisten, Politiker und Andere diese als absolut zuverlässige Prognosen für zukünftiges Wetter und Klima ausgegeben.

IPCC-Mitglieder scheinen zu folgern, dass – sofern nur die Bandbreite für Vorhersagen groß genug ist – diese schon stimmen werden. Aber selbst das war zu optimistisch. Alle drei vom IPCC prophezeiten Bandbreiten haben sich als falsch herausgestellt.

Der neue EPA-Chef Scott Pruitt hat recht, wenn er von dem Recht der Öffentlichkeit auf eine offene und umfassende öffentliche Debatte spricht – unter Wissenschaftlern über die Gründe und Konsequenzen des Klimawandels. In einem Fernsehinterview vom 6. Februar erklärte Mr. Pruitt:

„Es gibt viele sehr wichtige Fragen bzgl. des Themas Klima, welche sich den Menschen nicht richtig erschließen. Und das ist einer der Gründe, warum ich von einer ehrlichen, offenen, transparenten Debatte spreche über das, was wir wissen und was wir nicht wissen. Damit kann sich die amerikanische Bevölkerung informieren und anfangen, eigene Entscheidungen unter Berücksichtigung dieser Dinge zu treffen“.

Am 3. Januar erklärte Pruitt vor dem Senate Environment and Public Works Committee, dass man über „ein rotes und ein blaues Team“, also eine von der EPA gesponserte Debatte nachdenkt zwischen Klimawissenschaftlern mit unterschiedlichen Standpunkten. Es ist von entscheidender Bedeutung, dass es zu einer solchen Debatte kommt.

Die meisten der den Klima-Befürchtungen zugrunde liegenden Hypothesen sind entweder zweifelhaft oder schlicht und ergreifend falsch.

Der Öffentlichkeit muss genau dieser Punkt vor Augen geführt werden! Die Kampagne, welche Amerika, Kanada, Europa und den Rest der Welt vom Verbrauch reichlicher und bezahlbarer Kohle und anderer fossiler Treibstoffe wegführen soll – hin zu teuren, unzuverlässigen und land-intensiven Alternativen, um das sich ewig ändernde Klima der Erde vermeintlich zu kontrollieren – wird sich dann als das herausstellen, was sie wirklich ist: der größte und schädlichste Betrug aller Zeiten.

—————————-

Dr. Tim Ball ist Umweltberater und ehemaliger Professor der Klimatologie an der University of Winnipeg in Manitoba. Tom Harris ist Direktor der in Ottawa ansässigen Denkfabrik International Climate Science Coalition.

Link: https://www.iceagenow.info/overheated-claims-temperature-records/

Übersetzt von Chris Frey EIKE