Klimachaos-Behaup­tungen lösen weiter­hin Betroffen­heit aus

Die Vorwürfe lesen sich phasenweise, als ob sie von einem Monty Python Comedy Team und ein paar Jurastudenten im ersten Semester geschrieben worden sind. Die beklagten Unternehmen sollen „konspiriert“ haben, um gefährliche Treibstoffe herzustellen, heißt es in der Klageschrift, und sie sollen dabei „dem Drehbuch von Big Tobacco“ gefolgt sein, während sie „Leugner-Gruppen“ finanzieren, damit diese die „etablierte“ Klimawissenschaft in Frage stellen, die „beispiellosen“ Risiken der vom Menschen verursachten globalen Erwärmung „herunterspielen“ sowie „unbegründete Angriffe gegen die Integrität“ führender „Konsens“-Wissenschaftler führen.

Und weiter: „Farbige Personen“ und andere „sozial verwundbare“ Individuen werden am stärksten betroffen sein. (Dabei dürften diese Personen viel mehr durch die Klimapolitik geschädigt werden, treibt diese doch die Preise von Energie und Nahrungsmitteln hoch).

Die Anwälte von Oakland greifen scharf den Astrophysiker Wei Hock „Willie“ Soon an, weil er die unverzeihliche Sünde begangen hat zu fragen, ob nicht die Sonne irgendetwas mit Klimawandel zu tun hat. Sie bekamen nicht einmal seinen Ph.D. richtig hin. Sie nennen ihn „Raumfahrt-Ingenieur“ und behaupteten, dass er persönlich der Empfänger von 1,2 Millionen Dollar sei, die in Wirklichkeit an die Harvard University geflossen sind (dies geht eindeutig aus vielen, leicht zugänglichen Dokumenten hervor).

Sie erwähnen nicht einmal ansatzweise die Milliarden Dollars der Steuerzahler, welche Jahr für Jahr unter Forscher und Aktivisten aufgeteilt worden sind, welche die alarmistischen Standpunkte bzgl. globale Erwärmung und erneuerbare Energie vorantreiben.

Oakland und seine Mitstreiter erwarten, dass der Gerichtshof ihre Behauptungen eins zu eins akzeptiert als „etablierte“ Wissenschaft. Es bestehe ihnen zufolge kein Bedarf, Beweise aus der realen Welt als Stützung dieser Behauptungen zu präsentieren. Sie betonen allen Ernstes besonders, dass steigende Meeresspiegel und die daraus folgende „unmittelbare Bedrohung durch katastrophale Flutwellen“, welche von Computermodellen „projiziert“ werden, jetzt via fossile Treibstoffe der primäre oder alleinige Treiber des Klimawandels sind, welche die Sonne, kosmische Strahlen, Meeresströme und andere mächtige Naturkräfte ersetzt haben, welche „zuvor“ für Klimawandel verantwortlich waren.

In ihrer Klage gegen fünf große Ölunternehmen ignorieren sie die Tatsache, dass die Unternehmen nur sehr wenig des Treibstoffes verbrennen, den sie erzeugen. Es sind die Stadtregierungen der Kläger und deren Wähler, welche nur zu glücklich waren, seit über einem Jahrhundert Öl und Erdgas zu verbrennen, um ihre Autos zu fahren, um zu heizen, kühlen, beleuchten sowie ihre Büros und Wohnungen zu erleuchten und zu elektrifizieren – und überhaupt erst ihre Industrie, ihre Kommunikation, Gesundheit und Lebensstandards ermöglichten.

In dem Prozess sind sie es, die das Pflanzen düngende CO2 erzeugt haben, welches vermeintlich die Ursache der beispiellosen globalen Erwärmung sein soll, die Ursache schmelzender Eiskappen und steigender Meeresspiegel. Kohlenwasserstoffe befeuern auch die unabdingbaren Stromgeneratoren der Wind- und Solareinrichtungen in Kalifornien – und liefern Rohmaterialien für Stoffe, Plastik, Gemälde, Pharmaprodukte und zahlreiche andere Erzeugnisse, welche die Kläger jeden Tag nutzen.

Genauso problematisch für die Kläger ist, dass die „etablierte Konsens“-Wissenschaft, die sich wie ein roter Faden durch die gesamte Klageschrift und die Aussagen vor Gericht zieht, immer unsicherer und immer hitziger debattiert wird. Der Wissenschaftler am Heartland Institute Joe Bast weist darauf hin, dass selbst das IPCC höchstselbst inzwischen zahlreiche Zweifel und Unsicherheiten einräumt hinsichtlich der Rate des Meeresspiegel-Anstiegs, der Rolle von CO2, den Ursachen und der Dauer des „Stillstands“ der globalen Erwärmung, welcher inzwischen schon 23 Jahre andauert. Tatsächlich ist die Temperaturspitze des starken El Nino 2015/16 weitgehend wieder verschwunden, und Ozean und Atmosphäre kühlen sich wieder fortgesetzt ab.

Die Ölunternehmen haben sich entschlossen, gar nicht so viel Klimawissenschaft in dem Verfahren heranzuziehen. Allerdings haben Lord Christopher Monckton, Will Happer, Richard Lindzen und deren Kollegen Fragen angesprochen über Gleichgewichts-Klimasensitivität [auf Deutsch beim EIKE hier] und damit zusammenhängende Dinge, und zwar in Sachverständigen-Gutachten für das Gericht.

Die Behauptung von Oakland, der zufolge die Ölunternehmen „konspirierten“, um „die Wissenschaft“ zu globaler Erwärmung und Klimawandel zu verstecken und falsch darzustellen, steht auf sehr dünnem Eis. In einigen Berichten heißt es, dass Richter Alsup diese Behauptungen zurückwies oder urteilte, dass die Kläger keinen Beweis dafür erbringen konnten, dass es eine Konspiration gab. In jedem Falle wird es eine Entscheidung zu all dem geben, die verlierende Partei wird Revision einlegen, und der ganze Fall wird wahrscheinlich vor dem obersten US-Gerichtshof landen.

Inzwischen verursachen Klimachaos-Behauptungen in einigen Kreisen weiterhin Betroffenheit. Zu viel Geld, Macht, Prestige, Kontrolle und Wohlstands-Umverteilung steht auf dem Spiel, so dass kaum ein anderer Weg denkbar ist.

Tatsächlich nutzen Viele in dem Klima-industriellen Komplex im Wert von 1,5 Billionen Dollar pro Jahr diesen Fall (und gleichermaßen dehnbare Mantras von „Nachhaltigkeit“), um den Kapitalismus freier Märkte durch eine totalitäre Eine-Welt-Regierung zu ersetzen; fossile Energie und Kernkraft (welche zur Zeit 85% der verbrauchten Energie in den USA und global ausmachen) durch teure, Land fressende Wind-, Solar- und Bioenergie zu ersetzen sowie die Hoffnungen und Träume armer Menschen auf der ganzen Welt durch eine Politik zu zerschlagen, die es nur in sehr geringem Umfang gestattet, dass sich deren Lebensstandard verbessert.

Tatsächlich versteigen sich die Klimawandel-Chaoten dazu, nicht nur Kohlendioxid und Methan für eine runaway-globale Erwärmung verantwortlich zu machen, sondern auch Asthma-Inhalatoren und Fleischdiäten. Die Folgen hiervon sind nicht nur steigender Meeresspiegel, wärmeres und kälteres Wetter, nassere und trockenere Zeiten, Waldbrände, nicht existierendes Massenaussterben und anderen oftmals erwähnte Pseudo-Kataklysmen. Auch kleiner werdende Tiere, eine immer schlimmere Drogenkrise sind enthalten, ebenso wie die endlose Litanei oftmals erheiternder Beschwerden und Katastrophen, gelistet in The Warmlist und deren video counterpart.

Die „Lösung“ besteht nicht darin, die fossile Treibstoffe einfach im Boden zu lassen. Sie besteht auch in der Akzeptanz ausgeprägter Änderungen des Lebensstils sowie des Verzehrs klimafreundlicher Insekten (gilt nicht für die herrschenden Eliten, sondern nur für uns Normalverbraucher).

Und die wirklichen Auswirkungen der Furcht vor dem Klima-Kataklysmus sind nicht nur immer höhere Preise für immer weniger, unzuverlässigeren, das Netz destabilisierenden „grünen“ Strom. Darunter sind auch die Notwendigkeit Abenteurer zu retten, welche versuchen, über das vermeintlich schmelzende Eis in Arktis und Antarktis zu segeln, mit Motorschlitten zu fahren oder zu wandern – nur um dann gerettet werden zu müssen, weil sie gestrandet sind, Frostbeulen davontragen und ihre Schiffe in rapide gefrierendem Eis festsitzen.

Was also sollen die strammen Statthalter der Klimakatastrophe tun, wenn Temperaturen und Meeresspiegel es ablehnen, den Reden Al Gores sowie „Projektionen“ von Computermodellen und „Szenarien“ zu folgen? Oder wenn Vorhersagen über immer mehr Hurrikane eine rekordlange Zeit von 12 Jahren folgt, ohne dass irgendein Sturm der Kategorie 3 bis 5 auf das US-Festland übergreift?

Eine Strategie besteht darin, Diskussionen mit allen abzulehnen, welche die düsteren Hypothesen, Daten oder Schlussfolgerungen hinterfragen. Eine andere Strategie ist es, Originaldaten zu „homogenisieren“, zu „korrigieren“ und zu manipulieren, damit die Temperaturen der Dust Bowl-Ära [= die dreißiger Jahre im vorigen Jahrhundert in den USA, Anm. d. Übers.] nicht so warm daherkommen – und damit die langen und bitterkalten Winter der letzten Jahre nicht so kalt erscheinen. Zu diesem Zweck wurden Aufzeichnungen lokaler Temperatur-Messpunkte um bis zu 1,7 Grad Celsius adjustiert (hier).

Was die zahlreichen Artikel und Studien betrifft, welche bei WattsUpWithThat.com, DrRoySpencer.com, ClimateDepot.com, ClimateChangeReconsidered.org und anderen Sites veröffentlicht werden, welche sich auf Klimastudien und Forschungen auf der Grundlage von beweisen konzentrieren und welche Behauptungen wie jene in Frage stellen, auf welche sich die Klage von Oakland stützt – die immer häufiger ergriffene Strategie besteht darin, Algorithmen und andere Taktiken anzuwenden, um entsprechende Arbeiten ganz an das Ende von Suchmaschinen-Anfragen zu stellen. Lange Listen alarmistischer Behauptungen, Artikel und Perspektiven erscheinen zuerst, es sei denn, ein Student oder ein anderer Forscher gibt sehr spezifische Suchbegriffe ein. Selbst die großen Schwachpunkte von Windenergie [auf Deutsch beim EIKE hier] sind schwer zu finden, wenn man nicht ganz genau weiß, wonach man sucht.

Google, Facebook, You Tube und andere Such- und Sozialmedien scheinen sich zu Schiedsrichtern aufgeschwungen zu haben, zu welchen Fakten und Realitäten wir Zugang haben dürfen, was unsere Kinder lernen sollen. Sie helfen dabei, Wissenschaftler zu stigmatisieren und zu schikanieren, deren Forschungen oder Standpunkte nicht zu akzeptierten linken Perspektiven passen. Sie haben sogar professionelle Werbeträger engagiert, um die Reden politischer Gegner zu kontrollieren.

Und all das seitens der Champions der freien Rede, von Toleranz, Diversität und Inklusion. Nicht vergessen:

Es geht nicht darum, ob sich unser Planet erwärmt oder ob sich Wetter und Klima ändern. Es geht darum, welche Ursachen diese Fluktuationen haben, wie viel davon auf fossile Treibstoffe und wie viel auf natürliche Kräfte zurückgeht, und darum, ob irgendwelche kommenden Änderungen genauso katastrophal sind, wie es durch natürliche Kräfte in der Vergangenheit schon oft vorgekommen ist (man stelle sich einmal vor, wie es unseren Städten, Bauernhöfen und der Menschheit gehen würde, falls es zu einer weiteren Pleistozän-Eiszeit kommen sollte).

All dies unterstreicht wieder einmal, warum Amerika und die ganze Klimawissenschaft ein „Red Teams“ braucht, mehr Klima-Bildung auf der Grundlage von Beweisen und eine Umkehr der willkürlichen, von Obamas EPA in den Raum gestellten Behauptung, wonach Kohlendioxid-Emissionen irgendwie das menschliche Wohlergehen und den Wohlstand gefährden.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy and environmental policy.
Link: https://www.iceagenow.info/climate-chaos-claims-continue-causing-consternation/
Übersetzt von Chris Frey EIKE




Signalanalyse – Randbedingungen für die Klimaforschung

Obere Grenzfrequenz

Die obere Grenzfrequenz – auch Nyquist-Frequenz genannt – ist in der Messtechnik wohlbekannt und besagt, dass ein analoges Signal mit der höchsten enthaltenen Frequenz fmax nur dann digital rekonstruiert werden kann, wenn es mit einer Frequenz größer als 2*fmaxabgetastet wurde.
Ein Sinussignal der Frequenz 50 Hz kann also nur dann nachgewiesen werden, wenn es mit mehr als 100 Hz abgetastet wird.
Umgekehrt gilt: Ein Signal der (Perioden-)Dauer x kann nur dann nachgewiesen werden, wenn die Messreihe eine zeitliche Auflösung von besser als x/2 hat. Für den Nachweis eines Sinussignals der Frequenz 50 Hz (d.h. der Periodendauer 0,02 s) muss die Abtastschrittweite kürzer als 0,01 s sein. Angewendet auf Zeiträume, die für die Klimaforschung wichtig sind: Um eine Variation von Größen wie Temperatur oder Meeresspiegel über einen Zeitraum von beispielsweise 30 Jahren zu erfassen, müssen Messreihen eine zeitliche Auflösung von weniger als 15 Jahren aufweisen.
Ist die zeitliche Auflösung (also die Abtastschrittweite) einer Messreihe schlechter als die halbe Dauer eines Ereignisses, so ist dieses Ereignis in der digitalen Aufzeichnung prinzipiell nicht rekonstruierbar. Beispiel: Sinussignal der Periodendauer 100 (Einheit beliebig, z.B. Millisekunde, Sekunde oder Jahrzent).
Periode=100; Dauer=600; Abtastintervall=1:

 
Bei einer Abtastschrittweite von einem Viertel der Periodendauer ist das Signal gut rekonstruierbar:
Periode=100; Dauer=600; Abtastintervall=25:

 
Auch mit einer Abtastschrittweite von einem Drittel der Periodendauer ist die Periodizität gut nachweisbar:
Periode=100; Dauer=600; Abtastintervall=33:

Bei einer Abtastschrittweite minimal kürzer als die Hälfte der Periodendauer sind zwar die Amplituden stark verfälscht, ein Nachweis der Periodendauer gelingt dennoch.
Periode=100; Dauer=600; Abtastintervall=49:

Bei einer gröberen Abtastung ist die Periodendauer nicht mehr nachweisbar. In dem abgetasteten Signal können sogar Schein-Frequenzen auftreten. Bei einer Abtastschrittweite von 2/3 der Periodendauer wird eine doppelt so große Periode (also halbe Frequenz) wie im ursprünglichen Signal „nachgewiesen“:
Periode=100; Dauer=600; Abtastintervall=67:

 
Bei einer Abtastung mit der Schrittweite von ¾ der Signalperiode entsteht eine Schein-Periode der 3-fachen Dauer:
Periode=100; Dauer=600; Abtastintervall=75:

 
Dieser Effekt wird „Aliasing“ genannt.
Fassen wir zusammen:
Phänomene (d.h. Signale) einer bestimmten Dauer bzw. Periodizität können nur dann nachgewiesen werden, wenn deren Messung mit einer zeitlichen Auflösung von weniger als der halben Dauer erfolgt.
Paradebeispiele für die Verletzung dieses Prinzips sind die Publikation „A Reconstruction of Regional and Global Temperature for the Past 11,300 Years“ von Marcott et al. und deren Diskussion im Blog von Prof. Rahmstorf.
In der Arbeit wurde der regionale und globale Temperaturverlauf während des Holozäns untersucht. Dieser wurde anhand von Sedimentschichtungen bestimmt. Der Leitautor Marcott bemerkte hierzu:

„We showed that no temperature variability is preserved in our reconstruction at cycles shorter than 300 years, 50% is preserved at 1000-year time scales, and nearly all is preserved at 2000-year periods and longer“

Daraus ist zu schließen, dass die Abtastrate gröber als 150 Jahre war, in 50% der Fälle sogar zwischen als 500 und 1000 Jahren lag. Dies ist bemerkenswert, vergleichen die Autoren diesen rekonstruierten Temperaturverlauf doch mit dem Temperaturverlauf einiger Jahrzehnte des 20. Jahrhunderts, dessen zeitliche Auflösung typischerweise bei einem Monat liegt. Dazu schreibt Prof. Rahmstorf:

Entscheidend ist vielmehr, dass der rasche Anstieg im 20. Jahrhundert im ganzen Holozän einmalig ist.

Diese Behauptung ist wissenschaftlich nicht haltbar, da aufgrund der geringen zeitlichen Auflösung der Sedimentdaten ein potentieller abrupter Temperaturanstieg analog zum 20. Jahrhundert prinzipiell nicht nachweisbar ist. Sedimentdaten sind für eine solche Analyse ungeeignet.
Eine Grafik wie in Abb. 1 von Rahmstorfs Diskussion stellt wegen massiv unterschiedlicher zeitlicher Auflösung keinen seriösen Vergleich zweier Messreihen dar und dient eigentlich nur zur Stimmungsmache.
 
Merke:
Immer dann, wenn behauptet wird, dass augenblickliche Veränderungen oder Trends einmalig in der Geschichte seien, sollte man sehr genau hinschauen, mit welchen historischen Aufzeichnungen verglichen wird und ob ein solcher Vergleich überhaupt statthaft ist. Nicht immer werden Publikationen bzw. deren Schlussfolgerungen wissenschaftlichen Standards gerecht.
 

Untere Grenzfrequenz

Die untere Grenzfrequenz basiert auf der Gesamtdauer einer Messreihe. Eine solche Messreihe der Dauer T kann prinzipiell keine periodischen Vorgänge (bzw. Oszillationen) erfassen, deren Periodendauer größer ist als T. Dies bedeutet, dass zumindest eine volle Periode eines zyklischen Vorgangs in der Messreihe enthalten sein muss, um diesen zu erfassen. Wird eine Analyse über einen kürzeren Zeitraum durchgeführt, so wird diese Periode nicht zu erkennen sein. Beispiel: Sinussignal der Periodendauer 100 (Einheit beliebig, z.B. Millisekunde, Sekunde oder Jahrzehnt). Wird ein Signal der Periodendauer T hinreichend lange gemessen, d.h. die Messdauer beträgt mindestens T, so lässt sich die Periode nachweisen:

 
Ist die gesamte Messdauer kürzer, so lässt sich die Periodizität nicht rekonstruieren. Bei zu kurzer Messdauer können aus periodischen Vorgängen Schein-Trends ermittelt werden, die zu absurden Schlussfolgerungen führen. Erfolgt die Messung entlang des absteigenden Astes eines solchen Sinussignals, so ergibt sich – rein zufällig –  ein negativer Trend:

 
Bei einer Messung entlang des aufsteigenden Astes, wird – bei identischem Signal – ein positiver Trend ermittelt:

 
Es ist unschwer zu erkennen, dass die Ermittlung von Langzeittrends aus zu kurzen Messkampagnen zu unsinnigen Ergebnissen führt. Seit Ende der Kleinen Eiszeit ist ein Anstieg der globalen Temperatur zu verzeichnen. Dieser ist überlagert durch multidekadische Oszillationen mit Periodendauern von 50-70 Jahren (u.a. die Atlantische Multidekaden-Oszillation = AMO):

 
Quelle: http://woodfortrees.org/plot/best/mean:12/plot/esrl-amo/mean:12
Übertragen auf unser fiktives Beispiel erhalten wir folgende Grafik:

 
Erfasst die Messkampagne nur den absteigenden Ast der Oszillation (rote Teilkurve), so wird fälschlicherweise ein – wenn auch abgeschwächter – negativer Trend des gesamten Signals ermittelt. Bei Messung über den ansteigenden Ast (grüne Teilkurve) hinweg wird ein viel zu großer positiver Trend ermittelt.
Die Satellitenaufzeichnungen begannen 1979 bzw. 1980, dauern also bisher ca. 38 Jahre an. Dies ist etwa die halbe Periodendauer der Atlantischen Multidekaden-Oszillation. Zufälligerweise umfasst die Messdauer den ansteigenden Ast von AMO. Der seit Ende der Kleinen Eiszeit andauernde globale Temperaturanstieg wird in diesem Zeitraum durch diese ansteigende Phase verstärkt. Den daraus resultierenden Trend beispielsweise auf das Jahr 2100 zu extrapolieren, ist offensichtlich absurd. Aus der Analyse der Satellitendaten können multidekadische Oszillationen, deren Periode größer ist als 38 Jahre, prinzipiell nicht nachgewiesen und damit für Trendrechnungen auch nicht berücksichtigt werden.
Dass solche Analysen dennoch – entgegen der Prinzipien der Signalanalyse – durchgeführt werden, sieht man beispielsweise an der Publikation „Climate-change–driven accelerated sea-level rise detected in the altimeter era“ von Nerem et al.
Die Autoren unternehmen genau diese diskutierte Analyse für den Anstieg des Meeresspiegels, dessen Trend durch die ansteigende AMO-Phase verstärkt wurde. Dabei analysierten sie Satellitendaten, die bis 1993 zurückreichen, also über einen Zeitraum von lediglich 25 Jahren. Die daraus abgeleitete Prognose zum Meeresspiegelanstieg für das Jahr 2100 hält daher wissenschaftlichen Standards nicht stand. Ein anderes Beispiel für eine ungenügend lange Messdauer sind die Satellitenaufzeichnungen des arktischen Meereises, die ebenfalls seit 1979 stattfinden. Während der bisher 38-jährigen Analyse zeigte sich durchaus ein signifikanter Rückgang der eisbedeckten Fläche. Eine Extrapolation dieses negativen Trends in die Zukunft verbietet sich aber aus dem gleichen Grund.
Der Beitrag erschien zuerst bei Die Kalte Sonne hier




Wetter, Witterung, Klima: Das Hemd sitzt näher als der Rock

Dr. Dirk Beckerhoff
==============
Die Erkenntnis wächst, dass Durchschnittswerte zur weltweit gemessenen Temperatur der bodennahen Luft, zum weltweiten Auftreten von Extremwettern oder zu globalen Niederschlagsmengen nicht zur Ableitung und Begründung praktischer Politik geeignet sind.
Der Glaube an eine vom Menschen via CO2 verursachte und umfassend schädliche „Globale Erderwärmung“ kollidiert mehr und mehr mit den von Durchschnitten zwar verschleierten aber praktisch entscheidenden tatsächlichen Befunden.
In der Klima- (besser: Wetter-/Witterungs-) Wirklichkeit gibt es keine vieljährigen und weltweiten Durchschnitte, die für irgend ein Klima und dessen Trend repräsentativ sein können. Hier regieren ausschließlich Tatsachen:
Tatsächliche Temperatur, tatsächliche Großwetterereignisse, tatsächliche Luftqualität.
Und im Verein mit diesen Tatsachen gewinnen die lokalen Interessens- und Bewußtseinslagen die Oberhand. Sie lassen die durchschnitts-basierten und daher abgehobenen Weltrettungs-Orientierungen verblassen. Das Hemd sitzt näher als der Rock.
Die Diesel-Misere führt es vor Augen:
Je nach „Stimmungslage“ werden die Feindbilder gewechselt.
Das noch gestern bis zum Exzeß verteufelte anthropogene CO2 ist plötzlich „unmodern“.
Nun gelten alle Aufmerksamkeit und aller Kampf dem neuen „Unheilsbringer“, dem Stickstoffdioxyd (NO2). Zwar ist NO2 in den tatsächlichen Konzentrationen für den Menschen ebenso harmlos wie das anthropogene CO2 für das „Klima“  (vgl. dazu: [3] ).
Aber die Manipulation der Diesel-Messwerte fordert Rache. Der neue Feind heißt NO2.
Ähnliche Bewußtseins-Verschiebungen haben die kalten Spätwintermonate hervorgebracht:
Inzwischen kann man in unseren Breiten ungestraft in aller Öffentlichkeit fordern: „Bitte etwas mehr Erderwärmung!“ – und erhält herzlichen Zuspruch.
Schließlich sprechen sich auch die z. T. höchst fragwürdigen und als ungerecht empfundenen Inhalte des Pariser-Klimaschutz-Abkommen herum. Zum Beispiel ist es China im „Abkommen“ erlaubt worden, bis 2030 mehr als 300 neue Kohlekraftwerke in Betrieb zu nehmen [4] ! Und in Deutschland stehen gerade mal 20 Kohlekraftwerke auf der Abschaltliste.
F a z i t :
Meteorologie und Klimaforschung nehmen im Zusammenspiel von Wissenschaft und Politik keine Sonderstellung ein. Auch hier korrigieren ideologisch getriebene Übertreiber und quasi-religiöse Phantasten ihren Kurs wieder und wieder nach den „Realitäten“auf den aktuellen Stimmungs- und Interessens-Märkten.
Q u e l l e n :
[1]  https://www.eike-klima-energie.eu/2018/04/01/wetter-witterung-klima-verwirrung-fuer-alle-zeiten/
[2]  (a) https://www.eike-klima-energie.eu/2015/08/18/abkehr-vom-klima-zurueck-zum-wetter/
      (b) https://www.eike-klima-energie.eu/2013/12/04/klima-konkurs-der-modelle/
[3]  https://www.sat1.de/tv/fruehstuecksfernsehen/video/ist-die-diesel-debatte-sinnlos-clip
[4]  http://www.achgut.com/artikel/heute_bei_g20_die_substanzlose_klimashow
 




Das Märzen­veilchen blüht dieses Jahr erst im April – Wo ist die Klima­erwärmung?

Somit habe ich einen guten Erinnerungsvergleich. Eine Klimaerwärmung – gäbe es sie überhaupt – hätte zwangsläufig zu einer Verfrühung der Josefsveilchenblüte der letzten 60 Jahre führen müssen. Stellen wir uns die Frage: Wann haben diese auch Duftveilchen genannten blauen Frühlingsboten 2018 geblüht?
Als Vergleich wähle ich in meinem Heimatort jedes Jahr zwei Standorte, in meinem Garten am Ortsrand, und knapp außerhalb des Ortsrandes an einem stark geneigten Südhang.
(siehe Abbildung oben!)
Ergebnis: Am 30.März, also am Karfreitag erschienen blaue Knospen und vereinzelte Blüten, es kann somit keinesfalls in den letzten 60 Jahren wärmer geworden sein, denn auch letztes Jahr, im angeblich wärmsten März aller Zeiten in Deutschland, war die Blüte dieses Strauches auch erst am 24. März und nicht am 19. März.
Zur Geschichte: Dieses blaue Frühlings-Anzeige-Blümlein heißt seit 300 Jahren so, weil es seit 300 Jahren den März kennzeichnet. März ist, wenn die Märzenveilchen blühen. Wäre es vor 300 Jahren kälter gewesen als momentan, dann hätten es unsere Vorfahren Aprilveilchen oder Osterveilchen getauft. Das ist aber nicht so. Es blüht seit 300 Jahren, wenn der März kommt, mal früher oder später und deshalb wird es im Volksmund so genannt.
Und dieses Jahr 2018: Dieses Jahr ist es eindeutig ein Aprilveilchen. Nicht einmal Osterveilchen wäre gerechtfertigt. Denn außerhalb meines Gartens in der freien Landschaft blüht das blaue Veilchen noch später.
Was bestimmt den Blütenbeginn dieses und anderer Frühjahrsanzeiger ?
Nicht nur der Monat März allein ist entscheidend, sondern auch die Temperaturen des Februars wirken mit. Der Februar entscheidet, wie tief der Boden gefroren ist und die Erstblüher wie das Märzveilchen beziehen ihre Nahrungsgrundlage aus dem Wurzelstock.
Wir werfen einen Blick auf die Summe beider Monate und nennen Februar und März zusammen die Vorfrühlingsmonate, sie bestimmen in der Hauptsache den Blütentermin des Märzenveilchens.

Grafik 2: Der zusammengefasste Temperaturverlauf der beiden Vorfrühlingsmonate Februar/März zeigt noch vor der Jahrhundertmitte eine deutliche Abkühlung. Erst zwischen 1982 und 1988 wurde durch einen Temperatursprung das heutige Niveau erreicht. Derzeit befinden wir uns wieder auf dem Niveau wie zur Kaiserzeit des deutschen Reiches. Doch die Messstationen standen damals an ganz anderen, noch kälteren Stationen.


Ein etwas zeitigeres Anzeichen für den Erstfrühling ist der Laubaustrieb der Wilden Stachelbeere, welcher in Weimar seit 1990 am selben, unverändert gebliebenen Standort beobachtet wird. Da er im Mittel schon in den ersten Märztagen erfolgt, sind für ihn die Temperaturverhältnisse der Hochwintermonate Januar und Februar maßgebend:

Grafik 3: Auch der Laubaustrieb der Wilden Stachelbeere hat sich an einem unverändert gebliebenen Standort im Weimarer Schlosspark leicht verspätet, weil der Hochwinter (Januar und Februar) etwas abkühlte.


Wegen der Wärmeinseleffekte betrachten wir die letzten 30 Jahre, auch in diesem kürzeren Zeitraum wurde viel in Deutschland gebaut und der Mensch trägt mit nahezu allen seinen Maßnahmen zusätzlich Wärme in die Landschaft ein. Das gilt auch für Windkraftanlagen und Solarkollektoren. Eine Wärmeinselwärme, die sich stetig fortsetzt und sich in die freie Fläche wärmend reinfrisst. Umso erstaunlicher ist die Grafik für Deutschland.
Vorfrühling in den letzten 30 Jahren: Deutliche Abkühlung in Deutschland.

Grafik 4: Die beiden Vorfrühlingsmonate Februar und März wurden in den letzten 30 Jahren kälter, dabei stehen die Messstationen des Deutschen Wetterdienstes vielfach in ausgesprochenen Wärmeinseln. In der freien Fläche ist die Abkühlung noch stärker als die Trendlinie vorgibt. Deshalb beginnt der Frühling in den Wohnorten später wie 1988 – siehe Trendlinie – auf den Wiesen außerhalb der Städte deutlich später.


Vorfrühlingsverlauf auf dem Lande in den letzten 30 Jahren
Die Wetterstationen des Deutschen Wetterdienstes sind zwar gleichmäßig über Deutschland verteilt, sie stehen aber vorwiegend dort, wo der Mensch lebt und arbeitet, wo also zusätzlich Wärme erzeugt wird. Und kalte Tage im Vorfrühling werden einfach rausgeheizt, die Zeit des Frierens und das Warten auf wärmere Tage gehört aufgrund unseres Wohlstandes der Vergangenheit an.
Auf dem Lande und in der freien Landschaft ist es somit nicht nur kälter, sondern die Trendlinienschere geht immer weiter auseinander. Für Deutschland als Ganzes beträgt die Abkühlung der beiden Vorfühlingsmonate laut Trendlinie der Grafik 3 deutlich über ein Grad in den letzten 30 Jahren. Für das Land, wir wählen die Wetterstation in Neugersdorf in der Oberlausitz ist die Abkühlung der beiden Vorfrühlingsmonate deutlich stärker. Die armen Leute in der Oberlausitz. Ihr Frühling kommt immer später.

Grafik 5: Die beiden Vorfrühlingsmonate Februar/März zeigen in der Oberlausitz eine sehr deutliche Abkühlung. Laut Trendlinie 2 Grad. Logischerweise verspäten sich in Sachsen östlich der Elbe seit 30 Jahren alle Frühlingsblüher.


Ein vorsichtiger Ausblick Richtung April – bessert sich dieser bislang zu kalte Frühling noch?

Grafik 6: Wegen des tendenziell wärmeren (und sonnenscheinreicheren) Aprils hat sich der Vollfrühlingsbeginn im Gegensatz zum Erstfrühlingsbeginn leicht beschleunigt; der Erstfrühling wurde also etwas kürzer. Die Prognose für den Einzug des Erstfrühlings (Beginn der Apfelblüte) in Weimar am 25. April 2018, das wäre ein mittelspäter Beginn, ist noch sehr unsicher und setzt einen zu warmen April voraus.


Fazit: Dieser Frühling 2018 ist in der freien Fläche stark verspätet im Vergleich zu den letzten 300 Jahren, denn das Märzenveilchen blüht diesmal im April. Entscheidend für das Blühverhalten der Bodenblüher und Gehölze sind die Temperaturen der Monate Februar und März. Wir nennen sie Vorfrühling. Das Märzenveilchen immer am gleichen Standort beobachtet, zeigt die Wahrheit und nicht die aufgewärmten Computerszenarien der Treibhausanhänger.
Zusammenfassung
1) Das Frühjahr 2018 ist vor allem in der freien Fläche stark verspätet. Viele Märzenblüher blühen erst im April.
3) Nur in den Wärmeinseln der menschlichen Ansiedlungen wurde es weniger kälter. Da die Menschen dort wohnen und arbeiten, an kalten Tagen die Heizung aufdrehen, bekommen sie die tatsächliche Klimaabkühlung der beiden Vorfrühlingsmonate nicht mit.
Gesamtergebnis: Eine CO2-gemachte Klimaerwärmung gibt es nicht oder sie ist so unbedeutend, dass die Abkühlungsfaktoren bei weitem überwiegen. Das zeigen nicht nur die Grafiken des Artikels, sondern auch die eigentlichen Märzenblüher. Außer Märzenveilchen sind das noch Huflattiche, Anemonen, Scharbockskraut und Forsythien. Ihre Blütezeit rückt immer mehr in den April. Auch die Krötenwanderung findet inzwischen im April statt. Vor 30 Jahren war diese noch drei Wochen früher.
Es wird Zeit, dass endlich wieder Natur- und Umweltschutz in den Mittelpunkt des politischen Handelns gerückt werden und nicht die 10 oder noch mehr Gebote der Klimakirche mit bestens verdienenden Klimapäpsten und ihren computererzeugten Lügengeschichten.
Josef Kowatsch, Naturbeobachter und unabhängiger, weil unbezahlter Klimaforscher
Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher




Oh je – Analyse von GHCN-Klima­stationen zeigt, dass es keine statis­tische Erwärmung – oder Abkühlung – gibt

Man muss diese Studie buchstäblich als eine Begutachtung der Daten auf statistischer Grundlage verstehen. Ich habe eine Statistik entwickelt, um die Daten zu quantifizieren, einzuordnen und zu kategorisieren. Meine Statistik enthält keine Ecken und Kanten, sondern ist einfach die Gesamtänderung der Temperatur zwischen den ersten und den letzten 10 Jahren des Zeitraumes 1900 bis 2011 für jede Station.

Hier folgt zunächst eine Auflistung der Länder, welche die geringste bzw. die stärkste Gesamtänderung zeigen sowie die Anzahl der Stationen pro Land:

Dies ist ein altmodisches Histogramm, welches die Stationen in der Reihenfolge hinsichtlich der Gesamt-Temperatur listet. Diese zeigt die Daten in einer Glockenkurve. Die zugrunde liegende Verteilung ist sehr ähnlich einer Normalverteilung. Das bedeutet, dass die Anwendung normaler Verfahren sehr vernünftige Abschätzungen ergeben wird. Für einen Statistiker ist dies bedeutsam. Allerdings braucht man kein Hintergrundwissen in Statistik, um das Folgende zu verstehen.

Der Wert der Mittellinie liegt zwischen -0,5° und +0,5°. Die Anzahl der insgesamt eine Abkühlung zeigenden Stationen macht 40% aus. Etwas weniger als 60% zeigen eine Erwärmung. Die absolute Änderung ist an 74,6% aller Stationen statistisch nicht signifikant.

Die folgende Graphik zeigt eine normalisierte Darstellung jeder Kategorie: Keine signifikante Änderung, signifikante Erwärmung und signifikante Abkühlung. Der Graph zeigt gleitende Mittel über 10 Jahre. Jeder Plot ist so normalisiert worden, dass das Mittel des Zeitraumes 1900 bis 1910 Null beträgt.

Obwohl die Steigung jedes Plots signifikant unterschiedlich ist, ist der Verlauf der Kurven nahezu identisch. Eine Zufallssammlung individueller Stationsdaten zeigt, dass die Bedingungen für jede Station innerhalb der Bandbreite wahr bleiben. Zum Beispiel zeigt die dänische Grönland-Station, dass das Mittel der Jahre 1990 bis 2000 gleich ist dem Mittel von 1930 bis 1940.

Kurzfristige Änderungen wie etwa die Erwärmung bis in die dreißiger Jahre, sind bei einer Mehrheit der Stationen eindeutig erkennbar. Andere Beispiele hiervon sind der Temperatursprung der vierziger Jahre, die Abkühlung nach 1950 und der Temperatursprung zum Ende der neunziger Jahre.

Langfristige Änderungen variieren signifikant.

Aus dieser Analyse lässt sich eine ganze Reihe von Schlussfolgerungen ablesen:

Es gibt keinen statistisch signifikanten Unterschied zwischen Nordamerika und Europa. Die eine signifikante Abkühlung zeigenden Stationen machen nur 8% der Gesamtzahl aus. Bei dieser Statistik wäre die erwartete Anzahl von 17 eine Abkühlung zeigenden Stationen nur eine. Die Anzahl der eine signifikante Erwärmung zeigenden Stationen wäre 3. Vom Standpunkt der Stichprobenmenge aus sind 17 keine ausreichend große Stichprobe, um genaue Schätzungen zu erhalten.

Kurzfristige Änderungen, welche Stationen von Kanada über die USA bis Europa erkennbar sind, sind möglicherweise hemisphärische Änderungen. Allerdings gibt es keinen Hinweis darauf, dass diese Änderungen global sind, gibt es doch keine Anzeichen ähnlicher Änderungen in Australien. Tatsächlich unterscheidet sich die Gesamtverteilung in Australien offensichtlich von dem, was wir hier sehen.

Die Beweise zeigen eindeutig, dass die große Variation an den Gesamt-Temperaturtrends entweder regionalen oder lokalen Faktoren geschuldet ist. Wie in der Datentabelle oben gezeigt stammen alle Extreme dieser Variation aus den USA. Wie schon erwähnt reicht die Stichprobenmenge aus Europa einfach nicht aus, um genaue Schätzungen von Bedingungen mit kleiner Prozentzahl zu erhalten.

Weiter zeigt sich eindeutig, dass die meisten Differenzen der Gesamt-Temperaturänderung lokalen Faktoren geschuldet sind. In den USA erkennt man, dass extreme Erwärmung allgemein auf Gebiete mit starker Zunahme der Bevölkerung, Wachstum oder hohem Entwicklungsniveau beschränkt sind. Große Städte wie San Diego, Washington DC und Phoenix folgen dem verlauf signifikanter Änderung. Das gilt auch für Flughäfen. Allerdings folgen Städte wie New Orleans, St. Louis, El Paso und Charleston der Verteilung ohne signifikante Änderung.

Schlussfolgerung: Der Fall globale Erwärmung auf der Grundlage der verfügbaren langzeitlichen Daten ist sehr schwach. Es gibt Hinweise, dass eine hemisphärische Verteilung existiert. Weitere Beweise zeigen, dass es sich um eine zyklische Verteilung handelt, die in lokalisierten Temperaturspitzen während der dreißiger und der neunziger Jahre zum Ausdruck kommt. Allerdings scheinen Veränderungen der lokalen Umstände an den Stationen infolge menschlicher Entwicklungen der wichtigste Faktor zu sein, welcher die Gesamt-Temperaturänderungen beeinflusst. Extreme Erwärmungstrends sind fast mit Sicherheit auf vom Menschen vorgenommene lokale Änderungen zurückzuführen.

Unklar bis zu diesem Punkt ist die Bedeutung geringerer, vom Menschen induzierter Änderungen. Um dies abzuschätzen, bedarf es der Untersuchung individueller Stationsorte, um eine signifikante Stichprobe von Stationen zu erhalten, die keine Änderung zeigen. Unglücklicherweise hat man sich in den USA, in Kanada und Europa nicht einmal ansatzweise dieser Art von Informationen verschrieben wie in Australien. Ich muss zugeben, dass die Australier exzellente Arbeit geleistet haben, um Stationsinformationen verfügbar zu machen. Mit den aktuellen Koordinaten der tatsächlichen Teststationen war dies einfach. Ich schaute einfach bei Google Maps und war in der Lage, den Aufstellort und die Umgebung zu begutachten.

Mark Fife holds a BS in mathematics and has worked as a Quality Engineer in manufacturing for the past 30 years.
Link: https://wattsupwiththat.com/2018/04/01/uh-oh-analysis-of-ghcn-climate-stations-shows-there-is-no-statistically-significant-warming-or-cooling/
Übersetzt von Chris Frey EIKE