Aus dem Rundbrief der GWPF vom 8. Dezember 2017

1) UK beginnt nach einer erfolgreichen Kampagne mit dem Abbau von Windparks im Lake District

Ben Webster

Ein Dutzend Windturbinen, jede rund 42 Meter hoch, am Rande des Lake District sind im nächsten Sommer zum Abbau vorgesehen, und zwar nach einer Entscheidung, die dazu führen könnte, dass noch viel weitere Windparks abgebaut werden, um das Landschaftsbild wiederherzustellen.

Der Gemeinderat des South Lakeland District hat eine Eingabe des Windpark-Betreibers abgelehnt, die Turbinen weitere zehn Jahre betreiben zu können bis zum Jahr 2027. Der Genehmigung der ursprünglichen Planung zufolge müssen die Turbinen bis zum 26. August nächsten Jahres entfernt werden.
Die Entscheidung des Gemeinderates folgt auf eine Kampagne der Friends of the Lake District (FLD) und der Open Spaces Society (OSS), welche argumentieren, dass die Turbinen die Landschaft im Lake District National Park erheblich verschandeln.

Der Abstand zur dem Nationalpark am nächsten stehenden Windturbine beträgt 800 Meter. Laura Fiske vom Planungsstab der FLD sagte, dass die Entscheidung einen Präzedenzfall schafft, welcher es einfacher macht, Anträgen anderer Windparkbetreiber zu widerstehen, die ihre visuell aufdringlichen Turbinen weiterlaufen lassen wollen – und deren Genehmigungen demnächst auslaufen.

„Diese Entscheidung ist ein Sieg für alle lokalen Gemeinden, welche im Schatten dieser Entwicklung liegen, die ihnen einfach in den neunziger Jahren von der Regierung aufgezwungen worden ist“, sagte sie. „Diese Entscheidung reflektiert die unermüdlichen Bemühungen der Friends, dass ihre Stimme gehört wird“.

Kate Ashbrook, Generalsekretärin der OSS sagte: „Wir sind gegen die Turbinen, weil sie eine ernste Beeinträchtigung einer eindrucksvollen Naturlandschaft darstellen. Sie sind aufdringlich sichtbar aus vielen Richtungen und besonders vom Lake District National Park aus.

Außerdem verbrauchen die Turbinen eine große öffentliche Landfläche, in welcher die Öffentlichkeit das Recht hat umherzugehen. Das Moor wird auch von vielen öffentlichen Fußwegen durchzogen.

Jetzt müssen wir sicherstellen, dass jede Spur der Turbinen entfernt wird, wenn die gegenwärtige Bewilligung im nächsten Jahr ausläuft. Es muss alles getan werden, um diese wunderbare Landschaft zu ihrer früheren Großartigkeit zurückzuführen“.

Full story
https://www.thegwpf.com/britain-starts-dismantling-wind-farms-after-successful-lake-district-campaign/
——————————————–
2)EU-Mitgliedsstaaten geben gesetzlich bindende Ziele bzgl. erneuerbarer Energie auf

EurActiv

Während der letzten zehn Jahre waren die EU-Mitgliedsstaaten verpflichtet, nationale Ziele bzgl. erneuerbarer Energie zu erreichen. Ab 2020 werden sie von dieser Last befreit sein.

Die Ziele bis 2020 wurden im Jahre 2008 gesetzt, als die Stimmung der EU-Gewaltigen noch sehr viel anders war. Das war vor der Wirtschaftskrise und der Vertrauenskrise der EU.

Bis zum Jahr 2014, dem zweiten Jahr unter EU-Kommissionspräsident José Manuel Barroso, hat sich der Zeitgeist geändert. Unter Generalsekretärin Catherine Day wurde ein neuer, weniger aufdringlicher Schwerpunkt gesetzt. Außerdem wurde den nationalen Regierungen mehr Handlungsspielraum eingeräumt. Und so wurden dann nach der Jahrtausendwende neue Ziele eingebracht, die weit weniger ächtend waren.

Bzgl. Erneuerbarer hat die Kommission einen Anteil von 27% bis zum Jahr 2030 gesetzt, das sind 20% mehr als im Jahre 2020. Aber bindend wird dies nur auf EU-Ebene sein. Individuelle EU-Länder werden nicht bestraft werden, falls sie das Ziel verfehlen, gibt es doch keine bindenden nationalen Ziele in dem Entwurf.

Umweltgruppen haben darauf hingewiesen, dass es ohne die nationalen Ziele keinen gesetzlichen Weg gibt sicherzustellen, dass die EU ihr Ziel erreicht. Die Kommission kann einen Mitgliedsstaat vor Gericht bringen, falls es das Ziel verfehlt, aber sie kann nicht sich selbst vor Gericht bringen.

Um Bedenken hinsichtlich der weniger strengen Vorschriften zu zerstreuen, entwickelte die Kommission das Konzept der ,Energy Governance‘ [etwa: Energie-Steuerung] – ein Rahmenwerk, dass Eckpunkte sowie Regeln festsetzen kann, um jedermann auf Linie zu halten und die verschiedenen Gesetzgebungen bzgl. Energie auf einen Nenner zu bringen. Es ist ein Rahmen-Gesetz, welches die Regeln für eine ganzes Bündel von Gesetzen vorgeben soll.

Diese Energy-Governance-Vorschrift, von der Juncker-Kommission im vorigen Jahr auf den Weg gebracht, wird dem Europaparlament am Donnerstag [?] und den Mitgliedsstaaten am 18. Dezember zur Abstimmung vorgelegt. Die Vorschrift ist ein Teil eines umfassenderen Pakets bzgl. sauberer Energie.

Die Verhandlungen bzgl. einer dritten Version dieses Erneuerbaren-Paketes haben offiziell begonnen.

Full story
https://www.euractiv.com/section/energy/news/can-energy-governance-replace-binding-targets
——————————————–
3) Investoren in grüne Energie sind die großen Verlierer der massiven Steuerreformen von Präsident Trump

John Dizard, Financial Times

Falls man einem globalen Unternehmen angehört, welches während der letzten Jahre erheblich in die Erzeugung erneuerbarer Energie in den USA investiert haben, dann sieht es jetzt so aus, als ob diese Anteile wie ein Vogel daherkommen, der in eine Windturbine geraten ist.

Irgendjemand muss der Verlierer der massiven Steuerreformen sein, welche fast mit Sicherheit durch den Kongress kommen wird, und es stellt sich heraus, dass man plötzlich von allen möglichen Rotorblättern getroffen werden wird.


Viel Papier wurde beschrieben, um zu erklären, wie das voraussichtliche Billionen-Defizit immer größer wird, ebenso das Glück der ohnehin schon reichen Profiteure der im Eiltempo durchgedrückten bisherigen Steuernachlässe. Nicht so große Aufmerksamkeit wurde den verblüfften Verlierern zuteil, von denen die Meisten während der letzten Jahre oder sogar Jahrzehnte mit der US-Politik konform gingen.

So lange sich die meisten Investoren erinnern können, wurden massive Investitionen in den USA sehr wohlwollend aufgenommen. Investitionen konnten abgeschrieben werden, erneuerbare Energie wurde bevorzugt, und weder Demokraten noch Republikaner noch der Kongress haben nachträgliche Änderungen der Steuergesetze ins Spiel gebracht. Aber diese Zeiten sind vorbei.

Die notorisch klamme Haushalts-Arithmetik hat erfordert, dass Gewinner wie beispielsweise die Erben kommerzieller Guthaben von Immobilien mittels steigender Besteuerung Anderer einen Ausgleich erhalten müssen. Bei der Entscheidung, wer für die Zukunft der Kinder von Trump aufkommen soll, entschied der Kongress, dass global agierende Investoren dem BEAT unterworfen werden müssen.

BEAT ist das Steuerreform-Akronym und steht für Base Erosion Anti-Abuse Tax. Diese ist ein Weg für das Finanzamt, um die Möglichkeiten großer multinationaler Unternehmen zu reduzieren, ihre Einkommen über die Grenze hinweg in Länder mit einem deutlich niedrigeren Steuersatz zu transferieren. Denn schließlich – wie viele Ausländer werden an der nächsten Wahl teilnehmen?

Falls Sie oder Ihre Körperschaften BEAT unterworfen sind, wird die Steuerbehörde das „Grund“-Einkommen berechnen, auf dessen Grundlage man besteuert wird mittels Hinzufügung absetzbarer grenzüberschreitender Zahlungen [cross-border payments]. Die am stärksten betroffenen, Steuern zahlenden Körperschaften sind diejenigen, deren Mutterkonzerne Geld in amerikanische Operationen stecken. Es gibt sich überlappende Provisionen, um diese Transfers in Niedrigsteuer-Länder zu verhindern.

Man erwarte nicht, dass reiche Amerikaner oder kapitalintensive US-Unternehmen ihren politischen Einfluss in Ihrem Sinne geltend machen. Sie sind zum größten teil ziemlich glücklich mit ihren neuen niedrigen Steuerraten und ihre Möglichkeiten, neue Kapitalausgaben zu schützen mittels sofortiger Abschreibungen.
Full Story/ (Zahlschranke)
Übersetzt von Chris Frey EIKE




Einige der ermuti­gendsten Graphiken über den Zustand der Mensch­heit, die man jemals sehen wird

Diese Graphik ist ziemlich erstaunlich. Niemals zuvor hat sich die Welt so verändert wie von 1990 bis 2015:

[Illiteracy = Analphabetentum]
Hier noch eine Graphik:

Es gibt viele Daten, die man auf dieser Website erkunden kann: https://ourworldindata.org/.
Im Einzelnen fand ich die folgenden Graphiken interessant, besonders diejenige bzgl. Kernkraft:




Link: https://wattsupwiththat.com/2017/12/08/some-of-the-most-encouraging-graphs-about-the-human-condition-youll-ever-see/
Übersetzt von Chris Frey EIKE




Behauptung: Eingeben von Phantasie-Faktoren lässt Klima­modell-Ergebnisse noch gefähr­licher aussehen

Graphik: Seite 6, Fehlerfortpflanzung und die Zuverlässigkeit globaler Temperatur-Projektionen von Pat Frank. Quelle

Studie: Die genauesten Klimamodelle prophezeien die alarmierendsten Konsequenzen

Chris Mooney, 6. Dezember 2017

Die Klimawandel-Simulationen, welche die gegenwärtigen planetaren Bedingungen am besten abbilden, sind auch diejenigen Simulationen, die die düstersten Aussichten bzgl. einer vom Menschen getriebenen Erwärmung prophezeien. Dies geht aus einer vor ein paar Tagen veröffentlichten Statistik-Studie hervor.

Die Autoren Patrick Brown und Ken Caldeira von der Carnegie Institution for Science in Stanford in Kalifornien untersuchten in ihrer Studie die hoch gepuschten Klimawandel-Simulationen oder „Modelle“, welche Forscher heranziehen, um die Zukunft des Planeten zu projizieren auf der Grundlage der physikalischen Gleichungen, die das Verhalten von Atmosphäre und Ozeanen steuern.

Dann nahmen die Forscher diejenigen Modelle unter die Lupe, welche die gegenwärtigen Bedingungen hoch in der Atmosphäre am besten abbildeten, und schauten nach, was sie für die Zukunft prophezeiten. Diese Modelle prophezeiten allgemein ein höheres Niveau von Erwärmung als die Modelle, welche diese Ausgangsbedingungen nicht so gut erfassen.

Mehr: https://www.washingtonpost.com/news/energy-environment/wp/2017/12/06/the-most-accurate-climate-change-models-predict-the-most-alarming-consequences-study-claims/
Abstract der Studie:

Stärkere zukünftige globale Erwärmung, abgeleitet aus dem gegenwärtigen Energie-Budget der Erde

Patrick T. Brown & Ken Caldeira
Nature 552, 45–50 (07 December 2017)
doi:10.1038/nature24672

Klimamodelle bieten die grundlegenden Elemente für die Projektion der globalen Erwärmung im verbleibenden 21. Jahrhundert, aber die modellierten Schätzungen variieren um einen Faktor von etwa zwei selbst bei gleichen Strahlungsantriebs-Szenarien. Vergleiche der Modelle untereinander zwischen gegenwärtig zu beobachtenden Eigenschaften des Klimasystems und die simulierte Größenordnung der zukünftigen Erwärmung haben das Potential, die Projektionen zu stützen. Hiermit zeigen wir, dass es robuste Relationen über Modellgrenzen hinweg gibt zwischen der globalen räumlichen Verteilung des Energiehaushaltes an der Obergrenze der Atmosphäre und der Größenordnung der projizierten globalen Erwärmung. Vergleichen wir die Modellprojektionen mit Beobachtungen, erhalten wir mehr Elemente und eine engere Bandbreite einer zukünftigen globalen Erwärmung über die wesentlichen Strahlungsantriebs-Szenarien hinweg allgemein. Im Einzelnen zeigt sich aber, dass die an Beobachtungen ausgerichtete Erwärmungs-Projektion zum Ende des 21. Jahrhunderts beim stärksten Strahlungsantriebs-Szenario eine um 15% (0,5°C) stärkere Erwärmung ergibt, einhergehend mit einer Reduktion der Standardabweichung um etwa ein Drittel (-1,2°C) relativ zu den Projektionen der Roh-Modelle, welche das IPCC verwendet. Unsere Ergebnisse zeigen, dass das Erreichen irgendeines Stabilisierungs-Zieles der globalen Temperatur stärkere Reduktionen von Treibhausgas-Emissionen erfordert als zuvor berechnet.

Mehr (Zahlschranke): https://www.nature.com/articles/nature24672

Zu erzwingen, dass das Modell besser zu den Beobachtungen passt, ist potentiell ein lohnendes Unterfangen, um die Auswirkungen von Modellfehlern zu erkunden. Was mir aber Kopfzerbrechen bereitet, ist der offensichtliche Versuch, vorzeitige Schlussfolgerungen der realen Welt durch dieses willkürliche Anpassungsverfahren zu ziehen.

Man betrachte noch einmal die Graphik oben aus der Studie von Pat Frank mit dem Titel [übersetzt] „Fehlerfortpflanzung und die Zuverlässigkeit von Projektionen der globalen Lufttemperatur“. Der Antrieb durch Wolken ist eine Hauptkomponente im Klimasystem, welche Klimamodelle eindeutig sehr falsch beurteilen. Die Erzeugung des erwarteten Ergebnisses mittels Nachhersage trotz großer Fehler ist kein Beweis, dass Wissenschaftler das Klimasystem der Erde korrekt modellieren.

Manchmal haben die Wissenschaftler Glück, aber die Wahrscheinlichkeit, mit ein paar willkürlichen Korrekturen die Modelle zu verbessern ohne jedes Verständnis dafür, warum die Modelle das Klima so falsch darstellen, ist genauso groß wie die Wahrscheinlichkeit eines Volltreffers im Lotto. Die Verkündung der Realwelt-Implikationen aufgrund eines willkürlichen Anpassungsverfahrens ist so, als ob man verkündet, dass jedermann ein Gewinnlos einer Lotterie hat, bevor die Gewinnen gezogen worden sind – nicht unmöglich, aber sehr unwahrscheinlich.

Korrektur: Meine Beschreibung klang so, als ob ich impliziert hätte, dass Caldeira und Brown die Phantasie-Faktoren selbst hinzugefügt hätten. Dies ist falsch. Sie haben bevorzugt Modelle gewichtet, welche mit Phantasie-Faktoren anderer Personen gefüttert worden waren – Modelle, welche scheinbar besser waren bei der Nachhersage des Energie-Ungleichgewichtes an der TOA, was via Interferenz bedeutet, dass sie Wolken weniger falsch beurteilen als andere Modelle.

Die Veränderlichkeit von Wolken ist ziemlich komplex, und weil die Modelle nicht in der Lage sind, diesen Änderungen ihrer kleinräumigen Größenordnung wegen nicht in vollem Umfang Rechnung zu tragen, neigen die Programme stattdessen dazu, auf Statistik basierende Hypothesen einzubeziehen über das Verhalten von Wolken. Das nennt man „Parametrisierung“.

Aber die Forscher haben nicht viel Vertrauen, dass diese Parametrisierungen richtig sind. „Was man hier sieht, ist das Verhalten von etwas, das ich als das schwächste Glied im Modell betrachte“, sagte Winton.

An diesem Punkt kommt die Studie von Brown und Caldeira ins Spiel. Darin werden Modelle untersucht, die mittels Vorteilen dieser Programmierung und anderer Faktoren besser zu sein scheinen hinsichtlich der Repräsentation des gegenwärtigen Verhaltens von Wolken. Allerdings sagten Winton und zwei andere Wissenschaftler, die von der Post befragt worden sind, dass sie anerkennen, was die Studie versucht, aber nicht vollständig davon überzeugt sind. …

Mehr: Washington Post (Same link as above)

Link: https://wattsupwiththat.com/2017/12/06/claim-adding-fudge-factors-makes-climate-models-scarier/
Übersetzt von Chris Frey EIKE




Die Angst vor globaler Abkühlung in den siebziger Jahren (und wie die Angst vor globaler Erwärmung ohne jene nicht hätte geschehen können)

Vor 45 Jahren verfassten zwei Geologen einen Brief an den Präsidenten der USA mit der Warnung, dass der steinige Abstieg in die nächste Eiszeit schon begonnen haben könnte.

Den Brief schrieben die beiden Geologen George Kukla und Robert Matthews an Richard Nixon. Darin äußerten sie ihre Bedenken, dass das jüngste schlechte Wetter ein Hinweis darauf sein könnte, dass die gegenwärtige Zwischeneiszeit zu Ende geht. Dieser Brief half einer Reihe von Ereignissen auf die Beine, welche das Profil von Klimaängsten in den USA und global aufkommen ließ. Quelle: Reeves & Gemmill.

Das Jahr 1972 steht in den Annalen der Meteorologie an führender Stelle hinsichtlich von Extremwetterereignissen auf der ganzen Welt. Gegen Ende jenes Jahres, genauer am 3. Dezember 1972, warnten die beiden Geologen Präsident Nixon, dass…

eine globale Verschlechterung des Klimas um eine Größenordnung stärker als jedwede Änderung bisher seit der zivilisierten Menschheit eine sehr reale Möglichkeit ist und tatsächlich sehr bald auftreten könnte.

[Interessant! Mit „Klimaverschlechterung“ ist hier natürlich Abkühlung gemeint. Wie sich die Zeiten ändern! Heute wird der Begriff „Klimaverschlechterung“ mit Erwärmung gleichgesetzt. Anm. d. Übers.]

Wenn Geologen ,sehr bald‘ sagen, ist man gut beraten zu zögern. Aber Kukla und Matthews beeilten sich, jedweden Verdacht zu zerstreuen, dass sie nur Zeiträume in geologisch betrachteten Jahrtausenden im Sinn hätten. „Die gegenwärtig stattfindende Abkühlung auf der Nordhemisphäre“, fuhren sie fort zu erklären, „könnte der Beginn dieser erwarteten Verschiebung sein“. Mit anderen Worten, es sah in jeder Hinsicht so aus, als ob das stabile milde Klima des jüngsten Jahrtausends bereits beendet wäre.

Es ist schwierig, in der Historie der Nachkriegs-Klimaängste ein einzelnes Dokument aufzufinden, das diese Ängste so sehr instrumentalisiert. Es würde eine Reihe von Ereignissen auslösen, welche zum ersten koordinierten Programm im Bereich Klimaforschung in den USA und dann in den UN führten. Auch wurde der Weg bereitet, auf dem danach die Angst vor der globalen Erwärmung in die Welt posaunt wurde mit Forderungen nach einer globalen Reaktion.

Heute ist diese Angst vor der globalen Abkühlung mit dem allmählichen Verschwinden aus der Erinnerung verbreitet falsch verstanden. Dies gilt besonders in der Relation mit der nachfolgenden Angst vor der globalen Erwärmung. Skeptiker der Erwärmung werden oftmals über diese Ängste sprechen und betonen, wie Meteorologen vom Abkühlungs-Alarm auf einen Erwärmungs-Alarm umschwenkten. Allerdings gab es nur sehr wenige Wissenschaftler, die hinter dem Abkühlungs-Alarm standen und dann diesen Schwenk mit vollzogen.

Auf der anderen Seite der gegenwärtigen Debatte spielen die Erwärmungs-Alarmisten die Abkühlungs-Angst oft herunter als eine von den Medien aufgebauschte Sache (siehe z. B. hier). Das stimmt aber auch nicht. Tatsächlich wurde die Angst vor globaler Abkühlung von Wissenschaftlern aufgrund wissenschaftlicher Beweise vorangetrieben. Natürlich hat die Presse ihrem normalen Job des Aufbauschens von Ängsten gefrönt, aber es wurde oft auch eine Maßzahl der Vorsicht eingestreut. Aus wissenschaftlicher Sicht war das Hauptproblem hinsichtlich der Berichterstattung in den Medien, dass die meteorologische Spekulation über die Rückkehr einer Kleinen Eiszeit vermengt wurde mit den Warnungen der Geologen vor einer Großen Eiszeit.

Jetzt ist die Zeit gekommen, dieses Knäuel zu entwirren und der Abkühlungs-Angst den ihr gebührenden Platz in der Historie zuzuweisen. Die folgende Zusammenfassung beginnt mit thematischen Einführungen in den Zusammenhang, in welchem die Angst vor Abkühlung aufgekommen war. Sie endet mit der Verdeutlichung, wie die Abkühlungs-Angst den Weg bereitete für einen einfachen Übergang zu einer Erwärmungs-Angst. Ausführlicher und mit Referenzen findet sich dies in den ersten Kapiteln des Buches Searching for the Catastrophe Signal.

Bis 1961 stimmten Wissenschaftler der Klimahistorie weitgehend darin überein, dass die Erwärmung im 20. Jahrhundert um das Jahr 1940 zu Ende gegangen war. Eine Reihe sehr kalter Winter Anfang der sechziger Jahre ließ Befürchtungen aufkommen, dass in ganz Europa ein Abkühlungstrend eingesetzt habe. Dies führte dazu, dass Einige vor einer Rückkehr Europas in die Verhältnisse der Kleinen Eiszeit warnten, welche Auswirkungen verschieden starker Prägung in Europa während der voran gegangenen vier Jahrhunderte zur Folge hatte.

New York Times, 25. Januar 1961


Die Wetterextreme der Jahre 1972 und 1973

Im Jahre 1972 brach Klimawandel in die öffentliche Wahrnehmung ein wie niemals zuvor. Die führenden Beweise für einen Abkühlungstrend waren nicht nur einem starken El Nino geschuldet, sondern auch anderen Wetterextremen, welche nicht direkt mit diesem Phänomen im Zusammenhang stehen. Die Extreme bezogen sich sowohl auf Niederschlagsmengen als auch auf Temperaturen. In einigen Gebieten kam es zu außerordentlich starken Regenfällen mit Überschwemmungen, während die Auswirkungen einer ins nunmehr dritte Jahr gehenden Dürre südlich der Sahara via Medien mit all ihren Schrecken in die Wohnzimmer des wohlhabenden Nordens gesendet wurde. Es wurde schon immer über die Rodung von Wäldern und Überweidung gesprochen, welche lokale Dürren verursachte oder verschlimmerte, aber während der siebziger Jahre wurden Dürren und alle anderen Formen von Wetterextremen der Spekulation über eine natürliche Klimaverschiebung in Richtung einer Abkühlung zugeordnet.

Kaum Interesse an menschlichem Einfluss

Seit Ende der sechziger Jahre warnte der US-Klimatologe Reid Bryson vor dem Abkühlungseffekt durch Staub, welcher unablässig in die Troposphäre geblasen wurde durch die Industrie und besonders die Landwirtschaft. Diese und andere menschliche Einwirkungen auf globale Abkühlung erregten etwas Interesse, aber während der gesamten siebziger Jahre galten die Bedenken hinsichtlich globaler Klimaänderungen fast ausschließlich natürlichen Ursachen.

Bevölkerungsexplosion, Ausbeutung von Ressourcen und die US-Energiekrise

Seit Ende der sechziger Jahre fanden Bedenken über die Fähigkeit der ausreichenden Erzeugung von Nahrungsmitteln für Jedermann Eingang in die Bedenken hinsichtlich der Bevölkerungsexplosion während der Nachkriegszeit. Die damit einher gehende exponentielle Zunahme der Nachfrage nach nicht erneuerbaren natürlichen Ressourcen führte zu Bedenken über die vollständige Ausbeutung dieser Ressourcen, vor allem Energie-Ressourcen. Im Jahre 1973 traf das arabische Ölembargo die USA und einige ihrer Alliierten und löste die ,US-Energiekrise‘ aus, welche sich bis Ende der siebziger Jahre hinzog als zumeist sozial konstruiertes Phänomen, aber allzeit gegenwärtig war. Gleichzeitig weckte eine Reihe extremer Winter in Nordamerika Bedenken hinsichtlich einer ausreichenden Energieversorgung, vor allem hinsichtlich einer Verknappung von Heizöl. All diese Faktoren trugen zu einer in der Öffentlichkeit vorherrschenden Furcht bzgl. Nahrungsmittel- und Energiesicherheit bei, die man durch einen Klima-Abkühlungstrend sich verschlechtern sah.

Wir sollten hier anmerken, dass die US-Energiekrise im Jahre 1979 vor einem nachfolgenden Zusammenbruch ihren Höhepunkt erreichte. Das ist wichtig, weil es zusammenfiel mit der Transition vom Abkühlungs- zum Erwärmungs-Alarm. Im Jahre 1979 kam es zur Iranischen Revolution, was zu einer erneuten Vervierfachung des Ölpreises führte. Auch der Unfall im Kernkraftwerk Three Mile Island fiel in jenes Jahr. Dieser stellte einen Wendepunkt für die Kernkraftindustrie dar. Es stimmt zwar, dass die Ausweitung der Stromerzeugung mittels Kernkraft während der sechziger Jahre bereits zum Zeitpunkt des Ölembargos zurückzugehen begann infolge Kostenexplosion und Verzögerungen bei der Konstruktion. Allerdings brachte der Reaktor-Notfall in Pennsylvania die Bedenken der Öffentlichkeit hinsichtlich ihrer allgemeinen Sicherheit auf solche Höhen, dass es nach einem Sieg der Anti-Kernkraft-Bewegung aussah*. Und auch im Jahre 1979 gab es Klimatologen, die unverdrossen einen in den Aufzeichnungen offensichtlich hervortretenden Abkühlungstrend propagierten. Aber dann war alles vorbei. Die Energie-Klimaängste lösten sich rapide in Luft auf, nachdem Präsident Jimmy Carter keine zweite Amtszeit antreten konnte, die Ölpreise gefallen waren und das Klima Anzeichen zu zeigen begann, denen zufolge vier Jahrzehnte Abkühlung vorüber sein könnten.

[*Jener Zeitpunkt fiel in meinen Aufenthalt in den USA. Ich wohnte im Osten von Pennsylvania nahe der Stadt Allentown in einem typisch amerikanischen Kaff namens Brodheadsville {Google Streetview findet es}, etwa 50 km von dem Reaktor entfernt. Ich habe erst durch Nachrichten von Bekannten zu Hause in Deutschland davon erfahren, und man war dort höchst besorgt über mein Wohlergehen. In der lokalen Zeitung, dem Pocono Record, war das Ganze jedoch niemals Schlagzeile, und auch die Leute und Nachbarn, die ich fragte, waren im Grunde längst nicht so besorgt wie über andere Gegebenheiten ihres Alltags. Auch in der Grundschule in Brodheadsville {Polk Elementary; heißt heute vielleicht anders} war das kein Thema. Anm. d. Übers.]

Eine Revolution der Quartär-Geologie [Quaternary Geology]

Der eine große wissenschaftliche Fortschritt, welcher zur Abkühlungs-Furcht der siebziger Jahre beigetragen hatte, war eine Revolution der Quartär-Geologie. Bis Ende der sechziger Jahre glaubte man allgemein, dass es in jüngerer Zeit vier Vereisungen gegeben hatte, wobei jedoch deren Timing weitgehend unbekannt war infolge unzulänglicher Datierungs-Verfahren. Als das neue Verfahren zur Datierung eingeführt war, zeigte sich, dass es seit der letzten geometrischen Umkehr vor etwa 700.000 Jahren nicht weniger als 8 Kalt-/Warm-Zyklen gegeben hatte. Auch zeigte sich, dass kalt die Norm war. Tatsächlich wird die gesamte Periode des Quartärs (d. h. die letzten 2,5 Millionen Jahre) am besten beschrieben als eine Eiszeit, unterbrochen von kurzen ,interglazialen‘ Warm-,Epochen‘. Diese Zwischeneiszeiten traten regelmäßig wie ein Uhrwerk in einem 10.000-Jahre-Zyklus auf, und aus den Aufzeichnungen ging eindeutig hervor, dass dieser Zyklus im Begriff war, seine Phase zu wechseln. Das heißt, die gegenwärtige Epoche – also das ,Holozän‘, die 10.000 Jahre mit einem warm-stabilen Klima, welches eine auf Landwirtschaft basierende Zivilisation hervorbrachte – war im Begriff zu Ende zu gehen.

Quartär-Geologen trieben eine Abkühlungs-Angst voran

Die Erkenntnis, dass wir am Ende einer Warnzeit stehen, war selbst nicht alarmierend, gingen doch rapide Klimaänderungen in geologischem Maßstab mit 1°C pro Jahrtausend vonstatten. Ein derartig gradueller Trend wäre kaum erkennbar inmitten all der lokalen und globalen Fluktuationen im Zeitmaßstab von Jahrzehnten und Jahrhunderten. Falls der Ausgang aus Warmzeiten der Vergangenheit verbunden gewesen wäre mit größeren Fluktuationen in diesen Zeitmaßstäben, würde dies unbemerkt bleiben, weil die Proxy-Indikatoren für Temperatur nicht die notwendige Auflösung enthalten, um derartige Änderungen auszumachen. Allerdings behaupteten schon bald einige Geologen, bis auf ein Jahrhundert genau auflösen zu können, wodurch Beweise klimatischer Instabilität zutage traten, als vorangegangene Interglazial-Perioden ,zusammenbrachen‘. Dem dänischen Geologen Willi Dansgaard zufolge ,sind die Bedingungen für ein Katastrophen-Ereignis heute gegenwärtig‘, falls die ferne Vergangenheit etwas ist, nach dem man sich richten kann. Dieses Zitat stammt aus der Schlussfolgerung einer Studie, welche Anfang 1972 auf einer Konferenz der Brown University vorgestellt worden war. Auf dieser Konferenz, die aufgrund der neuen Beweise einberufen worden war, stand nur eine einzige Frage im Vordergrund:

Die gegenwärtige Zwischeneiszeit – wie und wann wird sie zu Ende gehen?

Nach der Konferenz stimmten die 46 Teilnehmer einem Statement zu, das auch eine Warnung hinsichtlich einer unmittelbar bevorstehenden Energie-/Nahrungsmittel-/Klimakrise enthielt:

Im Zuge der Menschen, sich globale Ressourcen zunutze zu machen und eine ausreichende Versorgung mit Nahrungsmitteln sicherzustellen, stellt der globale klimatische Wandel eine Umweltgefahr erster Ordnung dar, welche gut verstanden sein muss vor den ersten globalen Anzeichen eines sich verschlechternden Klimas.

Noch im gleichen Jahr wurde dieses Statement in Science veröffentlicht, und danach sandten die Organisatoren der Konferenz, Kukla und Matthews, ihren Brief an das Weiße Haus.

Befeuerung der Abkühlungs-Angst für Förderung der Klimaforschung: Ein Klimaprogramm der USA

Während der sechziger Jahre leisteten Atmosphärenwissenschaftler in den USA und anderswo Lobbyarbeit, um Gelder für koordinierte Klimaforschung locker zu machen. Ende der sechziger Jahre wurde das Global Atmospheric Research Program (GARP) ins Leben gerufen, um Atmosphären-Forschung mittels neuer Technologien zu koordinieren, vor allem Satelliten. Obwohl der Zuständigkeitsbereich des Programms auch Klimaforschung umfasste, wurde der Schwerpunkt auf Verständnis und Vorhersage des Wetters gelegt. Daher fuhren die Wissenschafts-Administratoren mit ihrer Lobbyarbeit fort mit dem speziellen Blickwinkel auf Klimaforschung. Einer dieser Administratoren war der Gründungsdirektor der NOAA Robert White, welcher dem Gremium ,The Present Interglazial‘ vorsaß. Dieses Gremium wurde ad hoc eingerichtet als Reaktion auf den Brief der Geologen an den Präsidenten.

Der Bericht dieses Gremiums wurde im Jahre 1974 veröffentlicht als nichts Geringeres als einen Vorschlag für ein nationales Klimaprogramm. Seitdem erleben wir einen allgemeinen Schub der allgemeinen geophysikalischen Forschung (Atmosphäre und Ozeane), was die Bedenken hinsichtlich Nahrungsmittel/Energie/Klima in der Zukunft befeuerte. Bis 1979 war dieser Schub recht erfolgreich, nachdem man Ende 1978 einem Nationalen Klimagesetz [National Climate Act] zugestimmt hatte. Obwohl die Förderung moderat blieb, wurde eine wichtige bürokratische Infrastruktur eingerichtet einschließlich eines National Climate Program Office (unter der NOAA) und einem über-institutionellen National Climate Program Policy Board. Nicht lange nach dessen Gründung änderten sich die vorgeblichen Bedenken des Policy Board von Abkühlung zu Erwärmung. Es war dieses Gremium, in dem im Jahre 1986 ein weiterer schicksalhafter Brief angesprochen wurde, diesmal vom Exekutiv-Direktor des UN-Umweltprogramms. Der Brief von Mustafa Tolba wurde dem Bericht der Kohlendioxid-Konferenz in Villach im Jahre 1985 beigefügt. Dort hatte man einen ,wissenschaftlichen Konsens‘ erzielt, dem zufolge es an der Zeit sei, eine Politik gegen die Erwärmungs-Bedrohung zu beschließen. Bei der nachfolgenden Debatte in diesem Klimapolitik-Gremium (und auch anderswo in der US-Regierung) wurde schließlich beschlossen, dass weitere Abschätzungen von einem intergovernmental panel kommen müssen, was danach zum Intergovernmental Panel on Climate Change (IPCC) wurde.

Befeuerung der Abkühlungs-Angst für Förderung der Klimaforschung: Ein Klimaprogramm der Vereinten Nationen

Zur gleichen Zeit, als Schritte zur Implementierung eines eigenen nationalen US-Klimaprogramms durchgeführt wurden, setzten sich die USA auch bei den UN und deren World Meteorological Organization (WMO) für ein Welt-Klimaprogramm ein. Die formalen Ursprünge dieser Lobbyarbeit kann man einer Rede von Henry Kissinger vor der UN-Vollversammlung im April 1974 entnehmen.

In jener Rede forderte Kissinger die Welt auf zusammenzukommen, um gemeinsame Probleme zu lösen. Im Einzelnen erwähnte er, dass man die Wissenschaft bemühen sollte, um Probleme zu lösen, welche die Wissenschaft herbeizuführen half. Seiner Liste von Beispielen fügte er eines hinzu, das nicht von der Wissenschaft geschaffen, sondern vollständig ,natürlicher‘ Natur war. Dieses Beispiel war die Bedrohung durch Klimawandel, welcher Auswirkungen auf die globale Ernährungslage und die Bevölkerungspolitik haben würde. Unter Verweis auf Kissingers Rede drängten die USA darauf, dass sich die WMO (und die ICSU) ,dringend dieses Problems annehmen und Leitlinien für sofortige internationale Maßnahmen erarbeiten müsste‘.

Während der siebziger Jahre war Robert White auch Leiter der US-Delegation zur WMO. Dies bedeutete, dass er während des Jahres 1974 nicht nur Bemühungen koordinierte, ein nationales Klimaprogramm in den USA durchzudrücken, sondern auch, dass er gleichzeitig mit Kissingers Forderung bei der WMO in Genf vorstellig wurde.

Als White formell den US-Vorschlag bei der WMO einbrachte, machte die WMO alles andere als die Abkühlungs-Bedrohung zu ignorieren. Allerdings richtete man als Reaktion auf die Forderung der USA ein Experten-Gremium bzgl. Klimawandel ein. Damit begann eine Reihe von Ereignissen, welche die WMO dazu brachten, das Thema Klima in die Schlagzeilen zu bringen. Was jetzt folgt, wird kurz umrissen.

Von Abkühlung zu Erwärmung bei der WMO

Im Jahre 1976 erließ das Experten-Gremium bzgl. Klimawandel der WMO ein ,autoritatives Statement‘, welches Bedenken hinsichtlich eines langzeitlichen Abkühlungstrends herunterspielte und stattdessen die Betonung auf kurzfristige Fluktuationen richtete, einschließlich jener, welche anthropogene Ursachen haben könnten. Dieses Gremium organisierte dann die erste Welt-Klimakonferenz, auf der ein Welt-Klimaprogramm auf den Weg gebracht werden sollte. Auf dieser Welt-Klimakonferenz im Jahre 1979 wurden viele Bedenken hinsichtlich einer Erwärmungs-Bedrohung durch Kohlendioxid erhoben, und das Statement der Konferenz enthielt auch einen Appell an alle Nationen, dass sie sich ,dem Problem des vom Menschen verursachten Klimawandels stellen und diesen verhindern‘ sollten. Allerdings weigerten sich die Verantwortlichen der Komponente Forschung im Welt-Klimaprogramm, das Thema Kohlendioxid direkt anzusprechen. Der Executive Council der WMO stellte sich jedes Mal hinter diese Haltung, sobald das Gremium darauf aufmerksam wurde. Die Abneigung der WMO, das Thema direkt anzusprechen, ließ Tolba vom UN-Umweltprogramm die Dinge selbst in die Hand nehmen. Im Jahre 1983 gab er in Auftrag, dass die erste internationale Studie diesen Punkt im Einzelnen ansprechen sollte (SCOPE 29). Nach dessen Fertigstellung berief er das berühmte Treffen in Villach im Jahre 1985 ein, wo der Schub in Richtung Klimavertrag seinen Anfang nahm. Das Vorantreiben des von Tolba und Anderen in Villach erzielten ,wissenschaftlichen Konsens“ sorgte für das Aufkommen vieler Diskussionen im internationalen Maßstab. Wichtig hierbei ist, dass jener Konsens vom US Climate Policy Board und dem US-Außenministerium ernst genommen wurde, und es gab dort viele Debatten hinsichtlich dessen, was man darauf tun sollte. Als das Thema beim World Meteorological Congress im Jahre 1987 eingebracht wurde, war es die Haltung der USA, dass man eine weitere Zustandsbeschreibung des Problems durch ein internationales Gremium vornehmen sollte. Es gab breite Zustimmung hierzu, und so wurde das IPCC aus der Taufe gehoben.

Unter dem Strich: Aus all dem geht klar hervor, dass die Abkühlungs-Angst – zu Recht in Verbindung gebracht mit Nahrungsmittel- und Energiekrise – die Grundlage schuf für das Lostreten der Erwärmungs-Angst, und es schuf auch die institutionellen Plattformen, aufgrund welcher das Lostreten jener Angst inszeniert wurde.

Link: https://wattsupwiththat.com/2017/12/05/the-1970s-global-cooling-scare-and-how-the-warming-scare-could-not-have-happened-without-it/
Übersetzt von Chris Frey EIKE




Der Winter zeigt der Klima­erwärmung die kalte Schulter- Abküh­lung seit 30 Jahren

Der Deutsche Wetterdienst hat den letzten Winter nun wie folgt in sein Archiv eingereiht: Dezember 2016 +2,2°C Januar2017 -2,2°C Februar 2017 +2,9°C, Winter 2017: +1,0°C. Der jetzt beginnende Winter wird beim DWD dann als Winter 2018 geführt.
Zunächst ein Rückblick über einen längeren Zeitraum in Deutschland.

Grafik 1: Auch ohne die polynome Trendlinie sieht man den Temperaturverlauf recht gut. Wie bei allen Monaten zeigt auch die Jahreszeit Winter das Absinken der Temperaturen in ein Kältetal hinein, das kurz vor der Jahrhundertmitte seinen Tiefpunkt erreichte. Anschließend ein erneuter Anstieg auf das heutige höhere Niveau.


Dabei täuscht jede Trendlinie eine Gleichmäßigkeit vor, die so nicht gegeben ist. Das jüngste Plateau wurde durch einen Temperatursprung in den Jahren 1985 bis 1990 erreicht, wobei 10 Jahre davor der Sprung durch einen Ausreißer bereits angedeutet wurde. Wir stellen uns nun die Frage: Wie haben sich die Wintertemperaturen seit dem Erreichen des jüngsten Wärmeplateaus entwickelt?
Die letzten 30 Winter
Sie beginnen mit dem Winter 1987/88 und enden mit 2016/17. Verkürzt schreibt man auch nur Winter 1988 bis 2017. Die Betrachtungseinheit 30 Jahre nehmen wir deswegen, weil 30 Jahre eine Klimaeinheit sind.

Grafik 2: Innerhalb des letzten Wärmeplateaus, also innerhalb der letzten 30 Jahre, zeigt der Winter in Deutschland eine leichte Tendenz zur Abkühlung. Abkühlung ist das Gegenteil von Erwärmung.


Nun wissen wir aber, dass die Wetterstationen des Deutschen Wetterdienstes zumeist dort stehen, wo die Menschen leben und arbeiten. Und just an diesen Orten trägt der Mensch Zusatzwärme in das Wettergeschehen ein, welche von den Thermometern miterfasst werden. Auch ist der Winterdienst immer besser organisiert und ein Neuschnee schnell weggeräumt, weggefahren oder weggesalzen. Im Kopf des Bürgers bleibt dann ein schneearmer Winter haften und in die Wohn- und Aufenthaltsräume der Menschen dringt die Winterkälte eh nicht vor. Das mag einer der Gründe sein, warum die Klimalüge über die Jahreszeit Winter von den Deutschen nicht als Lüge erkannt wird. Und nach Beweisgrafiken wird eh nie gefragt.
Der Winter außerhalt der Städte und Ansiedlungen.
Wie sieht der Winter in Deutschland nun in der freien Fläche, das sind immerhin gute 85% der Gesamtfläche unseres Staates aus? Um diese Frage zu beantworten, müssen wir Wetterstationen in kleinen Ansiedlungen betrachten. Wir nennen sie wärmeinselarme Stationen.
Wärmeinselarme Stationen
Beginnen wollen wir mit 30 Jahren Winter in Amtsberg-Dittersdorf am Fuße des Erzgebirges.

Grafik 3: Die Trendlinie ist viel stärker negativ als bei den mehr oder weniger stark wärmeinselbehafteten DWD-Stationen in Grafik 2. Es wurde richtig kälter im Erzgebirge während der letzten 30 Jahre.


Grafik 4: In dem kleinen Ort Neugersdorf im Landkreis Görlitz in der Oberlausitz wurden die Winter während der letzten 30 Jahre deutlich kälter.


Interessant dürfte für die Leser auch die Vorzeigestation des Deutschen Wetterdienstes sein, der Hohenpeißenberg im Alpenvorland, 45 km nördlich der Zugspitze gelegen.

Grafik 5: Die Trendlinie der Winter der Klimastation Hohenpeißenberg ist nicht ganz so fallend wie in Amtsberg, aber immer noch deutlicher fallend als bei der Grafik 2 von DWD-Deutschland. Der letzte Winter war im Süden relativ mild. Das zeigt auch die nächste Grafik


Deutschlands höchster Berg
Die Zugspitze mit 2962 m hat ab November wegen der Kälte im tiefen Minusbereich kaum mehr Besucher, so dass die menschengemachte Zusatzerwärmung durch die massenhaften Touristenströme wegfällt. Im Winter ist die Zugspitze eine wärmeinselarme Wetterstation. Und die Wetterhütte beim DWD-Gebäude stand vor 30 Jahren auch schon genauso dort wie heute und geheizt wurde wohl auch im gleichen Umfang. Damit sind die Messwerte ab November vergleichbar.

Grafik 6: Der letzte Winter war auf der Zugspitze sogar wärmer als der Winter 1988. Trotzdem ist die Trendlinie deutlich fallend. Es wird kälter auf Deutschlands höchstem Berg.


Winter in Westdeutschland

Grafik 7: Winter in drei sehr unterschiedlichen Regionen Westdeutschlands. Während an der stark wärmeinselbelasteten Station Frankfurt/Main (Flughafenausbau, massive Verkehrszunahme) die winterliche Abkühlung ausblieb, wurden die Winter im milden Rheinland (Düsseldorf) und in der feucht-kühlen Eifel merklich kälter.


Diese Falschaussage muss endlich entlarvt werden:
Am ersten April des Jahres 2000, also vor fast 2 Jahrzehnten, war bei SPIEGEL ONLINE folgende Meldung zu lesen: „…Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben, sagt der Wissenschaftler Mojib Latif vom Hamburger Max-Planck-Institut für Meteorologie…“ Und weiter: „Durch den Einfluss des Menschen werden die Temperaturen bei uns mit einer Wahrscheinlichkeit von 95 Prozent noch weiter steigen“.
Wir fordern die Leser auf, selbst aktiv zu werden und bei Ihrer Heimatwetterwarte die Daten der letzten 30 zu verlangen. Unter „Wetterkontor“ sind die Winterdaten ausgewählter Stationen seit 1990 sogar frei verfügbar.
Ist Deutschland eine Ausnahme bei der Jahreszeit Winter?
Antwort: Nein. Auch in anderen Regionen kühlten sich die Winter in den vergangenen Jahrzehnten ab, oder die Temperaturen blieben gleich. Dale-Enterprise liegt gute 150 Kilometer südwestlich der Hauptstadt Washington und zeigt eine ähnliche Winterabkühlung in den letzten 30 Jahren wie die meisten deutschen Stationen. Lediglich das boomende Washington erwärmte sich WI- bedingt. Obwohl sich die Einzeljahre deutlich von den deutschen Stationen unterscheiden, -der letzte Winter war warm in Virginia -, ist die Trendlinie fallend. Wie es weitergeht weiß niemand, da CO2 wohl wirkungslos ist. Und solange die Station am selben Fleck auf dem Gelände der dortigen isoliert stehenden Farm verbleibt, kann man auch zukünftig diese Station für vergleichende Beobachtungen heranziehen. Mit dem letzten Satz hat Mojib Latif schon Recht. Unter dem Einfluss des Menschen steigen die Temperaturen. Aber eben nicht unter dem Einfluss von Kohlendioxid, sondern unter dem Einfluss des Wärmeinseleffektes der Städte und Gemeinden.

Grafik 8: Ländliche Winter- Abkühlung in Virginia/USA, städtische, wärmeinselbedingte Erwärmung in Washington.


In Zentralengland kühlte sich der Winter während der vergangenen 30 Jahre geringfügig ab; Ähnliches zeigt sich auch in Sapporo/Nordjapan sowie in Östersund/Mittelschweden, und in Oimjakon/Ostsibirien stagnieren die Wintertemperaturen seit 40 Jahren:



Grafiken 9 bis 12: Auch in England, Nordjapan, Mittelschweden und in Ostsibirien blieb die Winter-Erwärmung aus.


Kurz zum Sommer: Natürlich gehen wir darauf im Sommer ein. Aber hier nur vorneweg:

Grafik 13 zeigt, dass sich während der vergangenen 30 Jahre die Winter- und Sommertemperaturen gegensätzlich verhielten, was ebenfalls gegen die CO2- Erwärmungstheorie und für die Tatsache spricht, dass geänderte Großwetterlagenhäufigkeiten sowie die sommerliche Sonnenscheindauer die dominierenden Einflussgrößen auf das Klimaverhalten der Jahreszeiten in Deutschland sind. All das bewirkt, dass die Wärmeinseleffekte im Sommer wesentlich wirksamer sind als im Winter. Mehr Sonne auf Beton hat zur Folge, dass auch nachts die Städte und Gemeinden nicht abkühlen. Die Frischluftschneisen sind bei den deutschen Städten eh schon zum großen Teil zugebaut.


Ergebnis: Die behauptete globale Erwärmung der Erde mittels Kohlendioxid ist eine wissenschaftliche Irrlehre. Der Mensch wirkt am Klima jedoch mit durch die ständige Vergrößerung der Wärmeinseln, in denen auch die Messstationen stehen. Im Grunde handelt um eine Verwechslung der anthropogenen Ursachen.
Im Winter sind trotz Heizungen die Wärmeinseleffekte nicht so hoch wie im Sommer. Die deutschen Stationen zeigen seit 30 Jahren eine leichte Winterabkühlung. Besonders in der freien Fläche, also auch in den Wäldern werden die Winter wieder kälter. Dieser vom Deutschen Wetterdienst ermittelte Tatbestand wird ignoriert und das Gegenteil behauptet. Für die Deutschen ist diese Wintererwärmungslüge plausibel, da die Menschen nicht mehr in den kalten Wohnungen der Nachkriegszeit leben.
Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt des menschlichen Handelns gestellt werden und nicht das Geschäftsmodell Klimaschutz. Wer will, dass auch Großstädte im Winter wieder kälter werden, der braucht nur weniger zu heizen, die Städte verkleinern und eine Abschaffung des Winterdienstes verlangen, damit der Schnee wieder liegen bleibt.
Tricks der Erwärmungsfraktion:
Hier sollen zum Schluss noch ein paar Tricks erklärt sein wie die Medien und selbst ernannten Klimaexperten die kälter werdenden Winter den Deutschen verheimlichen.
-Bei den Falschmeldungen über angeblich wärmer werdende Winter in der Gegenwart werden niemals Temperaturgrafiken gezeigt, auch keine aus den viel wärmeren Städten.
-Falls doch Grafiken gezeigt werden, dann werden nur Grafiken der CO2-Konzentrationszunahme gezeigt, aber keine Temperaturgrafiken.
-Falls doch Temperatur-Grafiken, dann lässt man die Trendlinien im Kältetal vor 1970 beginnen und verschweigt zudem den wachsenden Wärmeinseleffekt, denn Deutschland von damals ist ohne WI-Korrektur mit heute nicht vergleichbar. Der grüne BaWü-Umweltminister Untersteller nimmt stets das kalte 1931 als direktes Vergleichsjahr.
– Die Medien berichten isolierte Schreckensmeldungen, die entweder falsch, nicht überprüfbar oder auch durch andere Ursachen bedingt sein könnten wie: Permafrostboden taut auf, Eisbären sterben aus oder die Gletscherschmelze in den Alpen und auf Grönland. Ja, die Gletscher zogen sich in den vergangenen Jahrzehnten zurück, weil die sommerliche Sonnenscheindauer zunahm und die Luftverschmutzung ihre Albedo verringerte. Allerdings erreichte der Rückzug bei weitem nicht das Ausmaß der Wärmeperioden von vor 7.000, 2.000 und 1.000 Jahren, als es teils wärmer als heuer war und die Waldgrenze höher lag, wovon eingeschlossene Baumstämme im tauenden Gletschereis zeugen.
-Angeblich sind die Inuit (Eskimos) in ihrer Existenz bedroht durch die Wintererwärmung, die es natürlich auch im Norden überhaupt nicht gibt. Vorübergehend wärmer wurden in der Arktis besonders die Sommer, was auf die erhöhte Sonnenaktivität des späten 20. Jahrhunderts zurückzuführen ist und nun endet- im Sommer 2017 hatte das Arktiseis eine deutlich größere Ausdehnung, als in den Vorjahren.
-Angeblich blühen die Apfelbäume immer früher, in einer NABU-Zeitschrift wurde für die Zukunft gar der Februar prophezeit. Fakt: Im Ostalbkreis blühen die Apfelbäume in der freien Fläche, also außerhalb der Ortschaften erst ab Anfang Mai. Oft warten sie die Eisheiligen ab. In den größeren Gemeinden und Städten ist die Erstblüte oft schon Ende April.
Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher
Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher