Wasser­knappheit? Wie die F.A.Z. ihren Ruf selbst zerstört

Noch fließt Wasser aus dem Hahn“ lautete die Überschrift eines „F+“-Artikels der FAZ-Journalistin Mechthild Harting, der am 07.08.2019 an prominenter Stelle in der Online-Ausgabe der FAZ erschien. Wobei die Dachzeile „Klimawandel“ dem Leser sofort suggeriert, dass es sich auch hierbei schwerpunktmäßig um eine Folge des Klimawandels handelt. Denn dieser, so wird der FAZ-Redakteur Joachim Müller-Jung nicht müde zu betonen, bedroht nicht nur unsere Existenz, sondern sogar unseren Planeten als Ganzes.

Gefährdet der Klimawandel die Wasserversorgung der Metropolregion?

Liest man in die als „Lockspeise“ freigegebenen Zeilen hinein, so steht dort allerdings etwas ganz anderes: Grund für die befürchtete Wasserknappheit sind nämlich offenkundig andere Ursachen. Die Rhein-Main-Region wächst und damit eben auch ihr Bedarf an Wasser. Doch schon bevor das erwähnt wird, beginnt der zweite Satz schon wieder mit den Worten: „Mit Blick auf den Klimawandel…“ Erst danach wird darauf hingewiesen, dass die Zahl der Einwohner allein in den letzten fünf Jahren um rund 130.000 gewachsen ist und auch für die nächsten Jahre kräftiger Zuzug erwartet wird. Wenn dann noch hintereinander zwei trockene Sommer drohen, müsse man sich Sorgen um die Trinkwasserversorgung machen.

Oder liegt es eher an der Übernutzung der Wasservorräte?

Weiter unten erfährt man dann, dass die Trinkwasserversorgung der Region letztmals in den 90er Jahren an ihre Grenzen stieß, als starkes Bevölkerungswachstum und gleichzeitig mehrere trockene Sommer zusammenfielen. Seither war alles im Lot, selbst im extrem niederschlagsarmen Jahr 2003, als in Deutschland nur knapp über 600 mm/a Niederschlag fielen (statt der im Mittel üblichen 800 mm/a). Die jetzt geäußerten Befürchtungen haben daher damit zu tun, dass die Bevölkerung und damit ihr Verbrauch stark zugelegt haben. Dennoch wurde in diesem Zusammenhang der Klimawandel als Ursache für Wasserverknappung in den Vordergrund gerückt.

Die weitere Lektüre hinter der Bezahlschranke kann man sich nach dieser Einleitung schenken. Getreu der üblichen journalistischen Vorgehensweise, dass das Wesentliche eines Beitrags ganz vorne steht und man die hinteren Abschnitte je nach Platzbedarf getrost „abschneiden“ kann, braucht man sich den Rest nicht mehr anzutun und kann dadurch Geld sparen. Konfrontieren wir einfach das offensichtliche Hauptargument „Klimawandel“ mit den nachprüfbaren Fakten.

Der Klimatrend bringt….mehr Regen und mehr Wasser!

Die FAZ-Autorin Mechthild Harting ist offenkundig von der Korrektheit jedweder Klage, die von interessierter Seite mit dem Argument „Folge des Klimawandels“ vorgetragen wird, so überzeugt, dass sie die Pflicht jedes Journalisten – die sorgfältige, kritische und erforderlichenfalls investigative Überprüfung der Fakten – nicht mehr wahrnimmt. Hätte sie sich beispielsweise beim Umweltbundesamt umgesehen, so hätte sie sofort feststellen können, dass die Niederschläge in Deutschland in den Jahren seit 1881 keinesfalls zurückgegangen sind. Im Gegenteil, sie haben sogar deutlich zugelegt, wie die Trendlinie in Bild 2 zeigt.

Bild 2. Seit 1881 hat die durchschnittliche jährliche Niederschlagsmenge um rund 9 % zugenommen und liegt jetzt bei etwa 800 mm/a (Grafik: UBA)

Ein einziger Blick hätte also genügt, um das „Klimawandel“-Argument als vorgeschoben zu erkennen. Das Klima wird in Deutschland seit 138 Jahren immer regnerischer. Was wir mit dem trockenen Jahr 2018 und den beiden Hitzewellen 2019 aktuell haben, ist dagegen Wetter. Und Wetter ist nun einmal instabil, chaotisch und nicht langfristig vorhersehbar. Das hat man schon in biblischen Zeiten erkannt, nachzulesen im Gleichnis von den sieben fetten und den sieben mageren Jahren. Klima ist dagegen der langfristige statistische Trend über Zeiträume von mindestens 30 Jahren. Beides sollte nicht verwechselt werden. Ist das jetzt nur ein nebensächlicher Lapsus der Redaktion oder steckt mehr dahinter?

Auf dem Weg zum „Neuen Deutschland“ der Rhein-Main-Region?

Wer die FAZ regelmäßig liest, kann erkennen, dass sich in der Redaktion seit Jahren schleichend eine Tendenz ausgebreitet hat, die man als Meinungsjournalismus bezeichnen kann. Auch im „Neuen Deutschland“ der DDR durften in keinem nennenswerten Beitrag Hinweise auf die Überlegenheit und die Erfolge der kommunistischen Staatsdoktrin fehlen. Fakten, die diesem Weltbild nicht entsprachen, wurden entweder negiert oder so hingebogen, dass es zur vorgefassten Meinung passte.

Mit Blick auf das Klima ist bei der FAZ die gleiche Art von Meinungsjournalismus zu beobachten. Die Klimaentwicklung wird unter Wissenschaftlern durchaus unterschiedlich beurteilt, seitens der Redaktion werden aber fast nur solche Aussagen aufgegriffen, die in das aktuell vorherrschende Stimmungsbild passen. Man kann mit Fug und Recht von „Klima-Populismus“ der FAZ sprechen. Dass die Gegenargumente von teils namhaften Wissenschaftlern kommen, wird ignoriert. Stattdessen kommen sogar „Fridays for Future“ Youngster als Artikelautoren zu Wort.

Die anhand des hier besprochenen Artikels aufgezeigte ideologisch verfälschte Darstellung ist deshalb kein Lapsus, sondern hat Methode. Sie entspricht einer politisch-ideologischen Agenda der Blattmacher, die ihre Journalisten in dieser Richtung „motivieren“. Anders ausgedrückt: Die FAZ wandelt sich zusehends zu einem Agitprop-Organ der Verkünder der Klimaapokalypse. Und stuft so entstandene Beiträge zugleich als so wertvoll ein, dass man dafür eine Bezahlung erwartet.

Fred F. Mueller




Die Infantilisierung Deutschlands

Am 3.8.2109 um 15:26 meldete ZDF-heute Erhellendes über einen nobelpreiswürdigen Ansatz von Alexander Dobrindt, als ehemaligem Verkehrsminister der GroKo und Vorsitzenden der CSU-Landesgruppe: Die CSU will CO2-Einsparungen mit Anreizen für  Konjunkturwachstum verbinden.

Zitat ZDF: Das Ziel sei: „Mehr Wachstum und weniger CO2.“ Das sagte der CSU-Landesgruppenchef im Bundestag, Alexander Dobrindt, der „Welt“. Die doppelte Herausforderung von Konjunktur und Klima könne „zu einer doppelten Chance werden, wenn wir beides miteinander verbinden.“ Die CSU will Arbeitnehmer entlasten und nachhaltige Mobilität fördern. Zudem sollen Milliarden in Klimainnovationen und Klimainvestitionen gesteckt werden. Zitatende ZDF.

Bei diesem genialen Plan kann nur göttliche Eingebung im Spiel sein, so wie sie schon der Dienstmann Aloisius nach seinem Ableben erfuhr. „Ha-ha-lä-lä-lu-u-uh – – Himmi Herrgott – Erdäpfi – Saggerament – – lu – uuu – iah!“ sang er im Himmel auf der Harfe so lange, bis ihn der Herrgott wieder ins Hofbräuhaus ließ, wo er noch heute zu finden ist.

Lieber Herr Dobrindt, falls Sie diese Zeilen lesen sollten, bedenken Sie bitte, dass Wachtum stets mit mehr Energieverbrauch verbunden ist – das ist so etwas wie naturgesetzlich. Und mehr Energieverbrauch, also, naja, naja, .. haben Sie’s? Ja, Heureka, Sie haben es, das bedeutet stets und unvermeidbar mehr CO2-Emissionen. Allenfalls mit weitgehend emissionsfreien Kernkraftwerken ließe sich das deichseln, aber die sind schließlich Teufelswerk – auch in Bayern. Lieber Herr Dobrindt, wir gratulieren daher schon einmal für Ihre göttliche Eingebung dieser genialen Verbindung von Weihwasser (CO2) mit dem Teufel (Wirtschaftswachstum). Hätte Sie damals bei der Maut doch auch die göttliche Eingebung geleitet – aber man kann ja nicht alles haben. Wir würden uns natürlich freuen, wenn Sie uns die technischen Details Ihres göttlichen Ratschlags mitteilten und gratulieren Ihnen schon einmal zum sicher kommenden Doppel-Nobelpreis in Physik-Ökonomie.

Nun zu Ihrem neuen Landesvater Markus Thomas Theodor Söder: In der Tagesschau 29.07.2019, Inland, Söders grüne Agenda verlangt Ihr Landesvater die Verankerung von Klimaschutz im Grundgesetz und folgt damit einer gleichlautenden Forderung der Grünen. Zur letztgenannten Partei fällt dem Autor nur noch der schöne Beitrag von „Robert von Loewenstern, Jede Batterie hat zwei Polen: Kathole und Synode“ in Achgut vom 04.08.2019 (hier) ein.

Lieber Herr Söder, wir erlauben uns nun in aller Höflichkeit, der bei einem Bayerischen Landesfürsten geboten ist, an ein paar unwesentlichen Einschränkungen Ihres Plans zu erinnern: Klima ist leider kein Wetter, sondern der lokale statistische Mittelwert von Wetter über mindestens 30 Jahre, so gemäß der Weltmeteorologieorganisation (WMO). Ein Globalklima gibt es nicht, nur Klimazonen von tropisch, subtropisch, gemäßigt bis polar. Welches Klima, lieber Herr Söder, gedenken Sie durchs Grundgesetz zu schützen? Das Bayerische oder das Deutsche, das der Sahara, das Sibirische, oder …..?

Dummerweise ändern sich die Klimata unterschiedlicher Erdregionen nicht einmal gleichsinnig. So wird die Antarktis aktuell kälter, die Arktis dagegen wärmer [1]. Immerwährender Klimawandel ist naturgesetzlich, konstantes Klima gab es noch nie. Weil diese Einwände ewiger Nörgler leider doch einige noch mitdenkende Verfassungsrichter in unserer Republik stören könnten, erlauben wir uns Ihren Grundgesetzvorschlag dahingehend zu vervollkommnen, besser den Schutz des Wetters im Grundgesetz zu verankern – denn Klima ist schließlich dessen statistisches Mittel. logisch, oder nicht, Lieber Herr Söder? Wir hoffen sehr, Ihnen damit weitergeholfen zu haben.

Da, ebenso wie bei Ihrem geschätzten Kollegen Dobrindt, auch bei Ihnen nur göttlicher Ratschlag à la Aloisius im Spiel gewesen sein konnte, wären wir Ihnen dankbar, wenn Sie uns mitteilten, wie diese himmlische Eingebung im Detail verwirklicht werden soll. Leider müssten Sie bei grundgesetzlicher Wirkung auch noch Fachleute, wie Prof. Dr. Heinz Miller, ehemaligen Vize-Direktor des Alfred-Wegener Instituts (AWI) in Bremerhaven wegen Widerspruch gegen das Grundgesetz einsperren lassen, der zu Klimaschutz sagte [2]:

Wer von Klimaschutz redet, weckt Illusionen. Klima lässt sich nicht schützen und auf einer Wunschtemperatur stabilisieren. Es hat sich auch ohne Einwirkungen des Menschen oft drastisch verändert. Schlagworte wie Klimakollaps“ oder Klimakatastrophe“ sind irreführend. Klima kann nicht kollabieren, die Natur kennt keine Katastrophen“.

Quellen:

[1] P. Chylek et al., Geophys. Res. Lett. 37, L08703, 2010 (https://tinyurl.com/y8yg4nfw)

[2] ZEIT Online, 7.Juni 2007 (http://www.zeit.de/2007/24/P-Heinz-Miller)




Infantilität, Extremismus und Hysterie – Greta Thunbergs „Smile for future“-Klimagipfel in Lausanne

Kürzlich tagte eine Strategie-Konferenz der Fridays for future-Demonstranten in der französischen Schweiz mit etwa 450 Teilnehmern aus 37 Ländern. Interessanterweise berichten viele Medien nicht nur wie üblich affirmativ, sondern beleuchten auch interne Streitigkeiten. Die Schweizer Presse, das neue „Westfernsehen“, ist erwartungsgemäß am besten. Hier: der Blick.

Das Blatt berichtet, daß die Teilnehmer nicht nur inhaltlich erbittert über delikate Punkte stritten. So wollten einige FFFler unbedingt radikaler werden und wie andere Organisationen, z.B. Extinction Rebellion, kriminell werden (wir berichteten).

Offenbar sind große Teile der Bewegung nicht nur Klimaschützer, sondern wollten auch noch andere revolutionäre Objekte „retten“. Ein deutscher Teilnehmer meint daher:

„Der Konsens ist: Der Kapitalismus muß weg.“

Zum Glück sind die Osteuropäer unter den Konferenzteilnehmern, wenn man von ihrer fixen Klima-Idee absieht, noch bodenständig und äußerten ihre historisch bedingten Ängste vor deutschen Kommunismus-Ideen.

Auch ganz allgemein schienen die Anwesenden politisch recht heterogen zu sein. Es gab sehr viele, teils sehr spezielle Forderungen, auf die man sich kaum einigen konnte.

Eher amüsant war die Kritik am Tagungsland Schweiz, das bekanntermaßen eines der teuersten Europas ist. Warum man daher gerade Lausanne als Konferenzort wählte, ist schwer nachvollziehbar. Vielleicht, um das Gefühl des Eliteseins zu erzeugen? Die UNO und das Weltwirtschaftsforum schätzen ja eidgenössische Schauplätze. Übersehen hatte man dabei allerdings die meist sehr beschränkten Mittel gerade der Osteuropäer und die Tatsache, daß die Schweiz nicht Mitglied der Europäischen Union ist und daher kaum bezahlbare sogenannte Roaming-Gebühren fürs mobile Internet anfielen. Das Essen immerhin war für die Teilnehmer wohl gratis oder in der Konferenzgebühr enthalten. Dafür schmeckte es den verwöhnten Kindern nicht, weil nicht „abwechslungsreich“ genug.

Ein weiterer grotesk-amüsanter Punkt in der Berichterstattung war das Bedürfnis der Teilnehmer, über ihre Gefühle statt über die Planung zu sprechen. Das geht soweit, daß jeder, der sich „unwohl“ fühlte und mit den Händen ein Dächlein formte, sofort seine Befindlichkeiten kundtun durfte. Offenbar gab es auch viel Anlaß für emotionale Konflikte, da ein Mädchen weinend aus dem Plenum lief und sich im Flur auf den Boden warf. Greta und andere folgten ihr und trösteten die Mitstreiter. Damit die Journalisten davon nicht allzu viel mitbekamen, wurden sie laut Welt auf Gretas persönliche Weisung „aus dem Saal geworfen“. Konkret meldet das Blatt:

Sie machte die Medien für die schlechte Stimmung auf dem Kongress verantwortlich und rief deshalb dazu auf, die Journalisten auszuschließen, „weil sie es sonst so darstellen, als hätten wir Streit“.

Nun, hatten sie ja auch. Greta Thunberg scheint trotz ihrer 16 Lenze schon einiges über postdemokratische PR gelernt zu haben. Aber bitte: Uns „Klimaleugnern“ kann es nur recht sein, wenn die Totengräber unserer Industriezivilisation sich bei den ihnen sonst treu ergebenen Medien selbständig unbeliebt machen. Vielleicht merken die Aktivisten in den Redaktionen ja dann etwas.

Nebenbei: Der Pro7-Star Joko Winterscheidt schaute auch kurz bei der Konferenz vorbei. Die Kollegen von Große Freiheit TV haben seine Stippvisite zum Anlaß genommen, sich anzuschauen, ob er selber klimafreundlich lebt. Instagram lieferte hier ähnlich wie im Fall von #langstrecken-Luisa höchst interessante Resultate.

Fazit: Die Teilnehmer der Konferenz zeigten das typische Verhalten verzogener Millennials, das wir von den FFF-Kindern in Deutschland kennen. Ichbezogen, konsumverwöhnt, undiszipliniert, unkritisch gegenüber extremistischen Gesinnungen, und hysterisch. Mit solchen Persönlichkeiten ist kein Staat zu machen, nur eine Krise. Man fragt sich allerdings, wie derart labile und unselbständige Menschen die kommende hausgemachte Krise meistern wollen.

Greta schaute sich nach Lausanne unser Hambach an und macht sich nun per Hochseeyacht auf den Weg in die USA, wo sie Präsident Donald Trump nicht treffen will. Wir berichten noch.

Auch der kritische Philosoph Dushan Wegner, ein gebürtiger Osteuropäer und somit bodenständig, analysiert die Gretakonferenz auf seiner Seite sehr schön:

Lasset die Kinder doch Kinder sein!




Ist die institutionalisierte Wissenschaft tot?

“Intellectual freedom is so important. It allows academics to express their opinions without fear of reprisals. It allows a Charles Darwin to break free of the constraints of creationism. It allows an Albert Einstein to break free of the constraints of Newtonian physics. It allows the human race to question conventional wisdom in the never-ending search for knowledge and truth.”

Judge Salvatore Vasta, Brisbane, Australia

“Intellektuelle Freiheit (Wissenschaftsfreiheit) ist sehr wichtig. Sie ermöglicht es, dass Akademiker ihre Meinung sagen, ohne Angst vor Repressalien haben zu müssen. Sie hat es Charles Darwin erlaubt, die Fesseln des Kreationismus zu sprengen. Sie hat es Albert Einstein erlaubt, die Zwänge von Newtons Physik hinter sich zu lassen. Sie erlaubt es der Menschheit konventionelle Wahrheiten zu hinterfragen in ihrer nicht endenden Suche nach Wahrheit.“

Der australische Richter Salvatore Vasta hat dies im Verfahren Peter Ridd gegen James Cook University gesagt, das Peter Ridd gewonnen hat.

Peter Ridd war lange Jahre der Leiter der Physik-Abteilung an der Jams Cook University in Middlesbrough, Queensland, Australia. Er wurde unter einer Reihe von Vorwänden entlassen, weil er es gewagt hat, der Mythe, nach der das Great Barrier Reef infolge des von Menschen verursachten Klimawandels stirbt oder längst gestorben sei, zu widersprechen und die Fakten gegen die Ideologie zu setzen. Dazu kommen wir unten.

Wenn Richter Institutionen der Wissenschaft an die Bedeutung von intellektueller Freiheit, von der Freiheit erinnern müssen, vom Mainstream abweichende Ideen nicht nur zu haben, sondern auch zu formulieren, zu prüfen und gegebenenfalls gegen den Mainstream zu stellen, dann ist es nicht mehr fünf vor Zwölf, dann ist es fünf nach Zwölf und die Frage: „Ist die institutionalisierte Wissenschaft den ideologischen Tod gestorben?“, sie ist mehr als berechtigt.

Die Indikatoren, die dafür sprechen, dass das, was an Institutionen der Wissenschaft, was an Hochschulen betrieben wird, nicht Wissenschaft, sondern Ideologie ist, sind zahlreich. Wir wollen nur einige davon nennen, die wir für Deutschland gesammelt haben:

Hochschulen haben sich zu sozialistischen Gefängnissen entwickelt. Wer den herrschenden Glauben nicht teilt, der wird vom in ASten organisierten Studentenmob attackiert und neuerdings vor Amtsrichter gezerrt, wie dies Ulrich Kutschera widerfahren ist.

Politdarsteller bedienen sich willfähriger Mitglieder der institutionalisierten Wissenschaft, um ihren Ideologien einen vermeintlich wissenschaftlichen Segen zu verschaffen, so dass Junk, wie die Mitte-Studien genutzt werden kann, um den politischen Gegner zu bekämpfen. Institutionalisierte Wissenschaft ist zum Legitimationsbeschaffer für ideologische Zwecke verkommen.

Angeblich wissenschaftliche Zeitschriften haben ein peer review System aufgebaut, das vornehmlich als Gatekeeper und Kontrollinstanz wirkt, um die Publikation vom Mainstream abweichender Beiträge zu verhindern. Die Klimawandelmafia, zu der wir noch kommen, ist dafür bekannt.

Das Peer Review System wird gegen jede Realität als Qualitätsmerkmal von Beiträgen aufgebaut, ungeachtet der Tatsache, dass es in unzähligen Fällen gelungen ist, willkürlich von Textprogrammen zusammengeschnipselte Texte als „wissenschaftliche Texte“ auszugeben und den angeblichen „Peer Reviewed Zeitschriften“ unterzuschieben.

Die Hochschulen sind voller angeblicher Fächer, deren Vertreter keinerlei Idee davon haben, welches Erkenntnisinteresse sie verfolgen oder welche Fragestellung sie überhaupt bearbeiten. Es handelt sich dabei um Schwätzperten-Fächer, die installiert wurden, um ernsthafte Wissenschaft in einem Meer von Blödsinn zu ertränken. Der prominenteste Vertreter der Schwätzperten-Fächer sind die Gender Studies, deren Angehörige nicht einmal Beiträge, die offenkundiger Blödsinn sind, erkennen.

In den Naturwissenschaften ist es der Klimawandelmafia in Zusammenarbeit mit Regierungsstellen in vielen Ländern gelungen, eine Dynamik des Opportunismus in Gang zu setzen, die es Forschern, die unter normalen Umständen nie ein Funding erhalten hätten, erlaubt, ein solches zu erhalten, einfach durch den Zusatz „Klimawandel“. Wer sich daran beteiligt, den Hoax vom menschengemachten Klimawandel zu verbreiten, dem ist eine staatliche Finanzierung seiner angeblichen Forschungsarbeiten ebenso sicher wie Geschenke in materieller (Zusatzgehalt durch Mitgliedschaft in Gremien, die den Klimawandel einschätzen sollen) und immaterieller Art (Nachfrage von Mainstreammedien und dergleichen) sicher. Der Gravy Train rollt, die Klimawandelindustrie ist ein Geschäft im Bereich von dreistelligen Milliardenbeträgen.

Wenn sich Organisationen, wie die institutionalisierte Wissenschaft zu ideologischen Gefängnissen entwickelt haben, deren Insassen Legitimationsdienste für Politdarsteller erbringen, und ansonsten die politischen Moden mit ihrer vermeintlichen Forschung bedienen, wenn also immer mehr institutionalisierte Wissenschaftler ein Interesse daran haben, den Zustand der Polit-Prostitution aufrecht zu erhalten, dann sind Abweichler, Querdenker, dann sind Wissenschaftler, also Individuen, die an einer Fragestellung arbeiten und eine Lösung für reale Probleme suchen, nicht nur störend, sie werden zur Gefahr, denn mit ihnen kommt die Drohung, die Pseudo-Wissenschaft der Andienenden bloßzustellen und damit die Gefährdung des eigenen (zumeist eingebildeten) Status und vor allem Einkommens.

Deshalb gibt es an Hochschulen Kontrollmechanismen, die in der Tradition des Abklopfens von Inhalten auf Wort- und Bedeutungstreue mit den Aussagen des Marxismus-Leninismus in DDR und Sowjetunion stehen. Blockwarte und selbsternannte Sauberfrauen (Es sind heute in der Mehrzahl Frauen mit einem „Gender“-Hintergrund) versuchen, die Einheitsfront der Gläubigen aufrechtzuerhalten und Zweifler gleich im Keim zu ersticken. Die folgende Geschichte von Peter Ridd, die er selbst zu einem Zeitpunkt erzählt hat, zu dem er den Rechtsstreit, den wir zum Einstieg in diesen Post thematisiert haben, noch nicht gewonnen hatte, ist ein Beispiel für das, was Dr. habil. Heike Diefenbach „Schließungsprozesse“ nennt, die letztlich in der Übernahme von Hochschulen durch Ideologen ihren Niederschlag finden und dazu führen, dass Wissenschaft langsam verendet.

Denken Sie bitte nicht, die Geschichte sei eine australische Geschichte, eine Geschichte, die sich in Deutschland nicht ereignen kann. Ein Beispiel: Vor einigen Jahren erhielten wir eine eMail von einem Wissenschaftler, dessen Kritik am Genderismus und dessen Arbeiten, in denen einige Mythen des Genderismus zerstört wurden, wir auf ScienceFiles besprochen hatten, positiv besprochen hatten, mit der Bitte, seinen Namen doch aus den „Tags“ zu nehmen, weil die Beiträge von ScienceFiles das Erste seien, was man im Internet finde, wenn man nach ihm suche. Darauf sei er von einer Genderista an einer Hochschule in Frankfurt, die den Namen eines großen Dichters und Philosophen trägt, angesprochen worden, verpackt in die unverhohlen ausgesprochene Drohung, dass derartige Beiträge seiner Karriere nicht förderlich seien.

Offenkundig ist es an bestimmten akademischen Anstalten nicht mehr möglich, seine Karriere zu verfolgen und ordentliche Forschung zu produzieren, die den ideologischen Vorgaben widerspricht. Wer es dennoch tut, öffentlichkeitswirksam tut, wer, weil das öffentlich-rechtliche Schweigekartell sein Meinungsmonopol verloren hat, die Öffentlichkeit erreicht und damit demonstriert, dass es noch Wissenschaftler in Deutschland gibt, dem drohen in Teilen der institutionalisierten Wissenschaft Konsequenzen, denn dort werden nur noch Ideologen geduldet. Wir haben den Tag übrigens nicht entfernt und dem Wissenschaftler empfohlen seine Karriere als Wissenschaftler zu verfolgen und nicht den Drohungen, dem Zwang, dem Gendergegeifer der Totengräber von Wissenschaft nachzugeben. Offenkundig hat er sich an den Rat gehalten und eine Stelle auf einer der ideologiefreien Inseln, die es hie und da auch in der institutionalisierten Wissenschaft, außerhalb von Frankfurt allerdings, noch gibt, gefunden.

Das war vor einigen Jahren. In der Zwischenzeit ist es an deutschen Hochschulen sicherlich nicht freiheitlicher geworden.

Nun zu Peter Ridd. Er erzählt seine Geschichte in Englisch. Das Video ist mit deutschen Untertiteln, die automatisch generiert werden, versehen worden.

Bei wem die Untertitel nicht erscheinen, der kann sie durch einen Klick auf Settings (das Rädchen), dann Subtitles/CC anklicken und „english (automated Subtitles) einstellen. Im nächsten Schritt nochmals Settings, „automated Subtitles“ -> Autotranslate anklicken und „German“ einstellen.

Der Beitrag erschien zuerst bei ScienceFiles hier




Klima: Über welche Temperatur reden wir eigentlich?

1. Messfehler

Temperaturen wurden seit etwa 250 Jahren mit Thermometern  (darunter solche im englisch sprachigen Raum, die Max und Min Temperaturen anzeigen) gemessen und seit einigen Jahrzehnten mittels elektronischer Sensoren oder Satelliten. Hinsichtlich noch älterer Daten muss man sich auf „Proxys“ verlassen (Baumringe, Stomata oder andere geologische Belege, welche eine Kalibrierung bzgl. Zeit und Amplitude benötigen, historische Chroniken oder Almanache usw.). Jedes Verfahren weist einen gewissen experimentellen Fehler auf. Bei einem Thermometer sind es etwa 0,1°C, bei Proxys noch viel mehr. Springt man von einem Verfahren zu einem anderen (z. B. von Thermometer-Messungen zu elektronischen Sensoren oder von elektronischen Sensoren zu Satellitendaten), müssen die Daten kalibriert und adjustiert werden, was in den Aufzeichnungen nicht immer sauber dokumentiert wird. Wie in dieser Studie ebenfalls gezeigt wird, ist die Länge des Zeitfensters für Messungen von ultimativer Bedeutung, um Schlussfolgerungen zu ziehen hinsichtlich eines möglichen gemessenen Trends in Klimadaten. Es müssen gewisse Kompromisse eingegangen werden zwischen der Genauigkeit der Daten und deren Repräsentativität.

2. Zeitliche Mittelungs-Fehler

Falls jemand ausschließlich Thermometermessungen für „zuverlässig“ hält, muss man täglich, wöchentlich, monatlich und jährlich definieren, was die Mitteltemperatur ist. Aber vor der Einführung elektronischer Sensoren, welche eine kontinuierliche Registrierung der Daten gestatteten, wurden diese Messungen von Hand, punktuell und einige Male über den Tag verteilt durchgeführt. Der Algorithmus zur Errechnung der täglichen Mitteltemperatur war Gegenstand von Änderungen von Land zu Land und mit der Zeit, und zwar auf eine Art und Weise, die in den Datensätzen nicht perfekt dokumentiert ist und wobei einige Fehler enthalten sind (Limburg, 2014). Auch folgte die Temperatur saisonalen Zyklen, verbunden mit der Sonnenaktivität und der lokalen Exposition in dieser Hinsicht. Das bedeutet, dass wenn man monatliche Daten mittelt, man Temperaturen vergleicht (von Beginn bis zum Ende des Monats) welche mit unterschiedlichen Punkten im saisonalen Zyklus korrespondieren. Und schließlich, wie jeder Gärtner weiß, haben auch die Mondzyklen einen gewissen messbaren Einfluss auf die Temperatur (ein 14-Tage-Zyklus ist in lokalen Temperaturdaten offensichtlich, was korrespondiert mit der Harmonic 2 des Mondes Frank, 2010). Es gibt etwa 28 Mondzyklen über jeweils 28 Tage innerhalb eines solaren Jahres von 365 Tagen, aber das solare Jahr ist in 12 Monate unterteilt, was einige Verzerrungen und falsche Trends induziert (Masson, 2018).

3. Räumliche Mittelung

Zuallererst, das IPCC betrachtet global gemittelte Temperaturen über den gesamten Globus, trotz der Tatsache, dass die Temperatur eine intensive Variable ist, und zwar von einer Kategorie von Variablen, die nur eine lokale thermodynamische Bedeutung haben, und trotz der Tatsache, dass es auf der Erde mehrere gut definierte Klimazonen gibt.

Die verwendeten Daten stammen von Aufzeichnungen meteorologischer Stationen und sollen repräsentativ sein für ein Gebiet um jede der Stationen. Das Gebiet soll alle Punkte umfassen, die näher an der jeweiligen Station als an irgendeiner anderen Station liegen (Voronoi-Algorithmus). Da die Stationen nicht gleichmäßig verteilt sind und da deren Anzahl erheblich mit der Zeit geschwankt hat, sind mit diesem Verfahren der räumlichen Mittelung „Algorithmus-Fehler“ verbunden.

Voronoi Diagramm

„In der Mathematik ist ein Voronoi Diagramm die Partitionierung einer Fläche in Regionen auf der Grundlage der Distanz zu Punkten in einem spezifischen Untergebiet der Fläche. Dieser Satz von Punkten (mit den Bezeichnungen seeds, sites oder generators) ist zuvor spezifiziert, und für jedes seed gibt es eine korrespondierende Region, die alle Punkte enthält, welche näher an diesem seed liegen als an jedem anderen. Diese Regionen nennt man Voronoi-Zellen (Quelle).

Da sich die Anzahl der seed-Punkte ändert ändert sich auch Größe, Anzahl und Aussehen der korrespondierenden Zellen (Abbildungen 1 und 2):

Abbildungen 1 und 2: Beispiel eines Voronoi-Diagramms, in Abb. 2 mit einer reduzierten Anzahl von seeds (konstruiert mit http://alexbeutel.com/webgl/voronoi.html).

In der Klimatologie sind die seed-Punkte die meteorologischen Stationen, und deren Anzahl hat sich mit der Zeit signifikant reduziert. Dadurch änderten sich Anzahl und Größe der korrespondierenden Zellen (siehe die Abbildungen 3, 4 und 5).

Abbildungen 3 und 4: Anzahl der Stationen nach der Zeit (links) und Ort vs. Zeit (rechts). Die Daten in Abb. 3 stammen von der GISS Surface Temperature Analysis (GISTEM v4). Quelle: https://data.giss.nasa.gov/gistemp/station_data_v4_globe/

Abbildung 5: Entwicklung von Landstationen und globaler Temperatur. Ab dem Jahr 1990 sind 1000 in kühleren ländlichen Gebieten stehende meteorologische Stationen (z. B. in Sibirien und Nordkanada) ausgesondert worden (Quelle: ftp://ftp.ncdc.noaa.gov/pub/data:ghcn/v2/v2.temperature.readme). Man beachte, dass Abbildung 3 auf GHCNv4 (Juni 2019) beruht und Abbildung 5 auf GHCNv2 (vor 2011). Alle Stationen wurden re-analysiert, und das ist auch der Grund für die Unterschiede in den beiden Abbildungen.

Mitteltemperatur

Die Mitteltemperatur (genauer deren Anomalie, siehe weiter unten) wird berechnet durch Aufsummierung der individuellen Daten von unterschiedlichen Stationen, wobei jeder Datenpunkt gewichtet wird proportional zu dessen korrespondierender Zelle (gewichtetes Mittel).

Da sich die Größen der Zellen mit der Zeit geändert haben, hat sich auch die Wichtung der seed-Punkte geändert. Dies induziert einen Bias in der Berechnung des globalen Wertes der Mitteltemperatur.

4. Der städtische Wärmeinseleffekt UHI

Außerdem sind viele ursprünglich in ländlicher Umgebung aufgestellten Messpunkte in zwischen Schauplatz einer progressiven Verstädterung gewesen, was zum „städtischen Wärmeinsel“-Effekt führte, welcher die gemessenen Temperaturwerte künstlich beeinflusste (Abbildungen 6 und 7)

Abbildungen 6 und 7: Gründe und Illustration des UHI

Es ist also unabdingbar bei Landstationen, dass jedwede nicht-klimatischen Temperatursprünge wie der UHI eliminiert werden. Derartige Sprünge können auch induziert werden durch Änderung des Aufstellortes der Stationen oder durch eine Aktualisierung der Instrumentierung. In den adjustierten Daten von GISTEMP v4 sind die Auswirkungen solcher nicht-klimatischen Einflüsse eliminiert wo immer möglich. Ursprünglich wurden nur dokumentierte Fälle adjustiert. Das gegenwärtig von NOAA/NCEI angewendete Verfahren jedoch appliziert ein automatisiertes System auf der Grundlage eines systematischen Vergleichs mit benachbarten Stationen. Damit soll dokumentierten und nicht dokumentierten Fluktuationen Rechnung getragen werden, die nicht direkt Bezug zum Klimawandel haben. Die Verfahren nebst deren Evaluierungen sind Gegenstand vieler Veröffentlichungen.

5. Wassertemperatur

Und was ist mit der Temperatur über den Ozeanen (welche etwa 70% der Erdoberfläche bedecken)? Bis vor Kurzem wurden diese Temperaturen kaum gemessen, kamen sie doch von Schiffen, die eine begrenzte Anzahl kommerzieller Seewege befuhren.

In jüngerer Zeit wurden ARGO-Bojen in allen Ozeanen ausgebracht, was eine repräsentativere räumliche Abdeckung dieser Daten ermöglichte.

6. Temperaturanomalien

Zweitens, zu jedem gegebenen Zeitpunkt kann die Temperatur auf der Erde um bis zu 100°C variieren (zwischen Messpunkten in polaren bzw. tropischen Regionen). Um diesem Problem zu begegnen, bezieht sich das IPCC nicht auf absolute Temperaturwerte, sondern auf etwas, das man „Anomalien der Temperatur“ nennt. Dafür berechnet man zunächst die mittlere Temperatur über einen festgelegten Zeitraum von 30 Jahren: 1931 bis 1960, 1961 bis 1990. Die nächste Periode wird der Zeitraum 1991 bis 2020 sein. Dann wird jede jährliche Temperatur mit der mittleren Temperatur der nächstgelegenen zeitlichen Periode verglichen. Gegenwärtig und bis zum Jahr 2012 ist die Anomalie die Differenz zwischen der Temperatur und dem Mittelwert des Zeitraumes 1961 bis 1990.

Dieses Verfahren fußt auf der impliziten Hypothese, dass die „natürliche“ Temperatur konstant bleibt und dass jedweder erkannte Trend anthropogenen Aktivitäten geschuldet ist. Aber selbst dann würde man erwarten, dass einige Adjustierungen vorgenommen werden, wenn man von einer Referenzperiode auf eine andere übergeht. Das berührt die Kompensation eines eventuellen UHI oder die Änderung der Anzahl von Stationen – und wir haben beide als Quellen von Fehlern und Verzerrungen ausgemacht.

Aber das Schlüsselproblem ist tatsächlich der Umstand, dass die Temperaturaufzeichnungen Gegenstand lokaler natürlicher, polyzyklischer Fluktuationen sind, die nicht genau periodisch und nicht synchronisiert sind. Die Tatsache, dass der artige Fluktuationen nicht genau periodisch sind, macht es mathematisch unmöglich, dass man die Daten trendbereinigen kann mittels Subtraktion eines Sinusoids, wie es beispielsweise allgemein üblich ist bei der Eliminierung jahreszeitlicher Effekte aus den Daten.

Die Länge dieser Zyklen variiert von einem Tag bis zu jährlichen, dekadischen, hundert- oder tausendjährigen Komponenten und über zehntausende von Jahren hinaus (Milankovitch-Zyklen).

Von besonderem Interesse für unsere Diskussion sind dekadische Zyklen, weil deren Präsenz dreifach Konsequenzen hat:

Erstens, da sie wegen ihrer Aperiodizität nicht direkt trendbereinigt werden können, beeinflussen oder verstärken sie eventuelle anthropogene Effekte, welche in den Anomalien zutage treten.

Zweitens, die Zyklen induzieren Verzerrungen und falsche Anomalien bei der Berechnung der mittleren Temperatur des Referenz-Zeitraumes, wie die folgende Abbildung zeigt (nach Masson):

Abbildung 9: Anomalien und periodische Signale des Zeitraumes, der vergleichbar ist mit der Länge des Referenz-Zeitraumes.

Kommentar zu Abbildung 9:

Die Abbildung zeigt die Probleme zur Festlegung einer Anomalie, wenn das Signal ein periodisches Signal mit einer Länge vergleichbar mit der Länge des Referenz-Zeitraumes aufweist, der zu Berechnung dieser Anomalie herangezogen wird. Zur Vereinfachung denke man sich ein Sinusoid mit einer Periode gleich 180 Jahre (eine allgemein in Klima-bezogenen Signalen erkannte Periodizität). Folglich ist 360° = 180 Jahre und 60° = 30 Jahre (also die Länge der vom IPCC herangezogenen Referenzperioden zur Berechnung der Anomalien). Für unseren Zweck werden drei Referenzperioden mit jeweils 60° (30 Jahre) entlang des Sinusoids betrachtet (die roten horizontalen Linien markieren die Referenzen 1, 2 und 3). Auf der rechten Seite der Abbildung sind die korrespondierenden Anomalien dargestellt (Messung über die nächsten 30 Jahre minus dem Mittelwert über die Referenzperiode). Man erkennt offensichtlich, dass die Anomalien unterschiedliche Trends zeigen. Ebenfalls offensichtlich tritt hervor, dass alle diese Trends ein Fake sind, weil das reale Signal ein Sinusoid des Mittelwertes insgesamt gleich Null ist. Mit anderen Worten, es gibt gar keinen Trend, sondern nur ein periodisches Verhalten.

Der dritte fundamentale Schwachpunkt, wie das IPCC mit den Temperaturdaten umgeht, betrifft die Entscheidung, sich ausschließlich auf lineare Regressions-Trendlinien zu stützen, trotz der Tatsache, dass jeder Daten-Wissenschaftler weiß, dass man zumindest ein Zeitfenster berücksichtigen muss, das mehr als 5 mal über die Periode einer zyklischen Komponente in den Daten hinausgeht, um „border effects“ zu vermeiden. Pech für das IPCC: die meisten Klimadaten zeigen signifikante zyklische Komponenten mit (angenähert) Perioden von 11, 60 und 180 Jahren, während sie andererseits ein 30-Jahre-Fentser heranziehen, um ihre Anomalien zu berechnen.

Und so erzeugt das IPCC eine künstliche „Beschleunigung der globalen Erwärmung“, weil es kurzfristige lineare Trends aus Daten berechnet, welche eine zyklische Signatur aufweisen. Mittels Abbildung 10, entnommen FAQ 3.1 aus Kapitel 3 des IPCC-AR 4 (2007) erklärt das IPCC: „Man beachte, dass sich die Steigung über kürzere Perioden vergrößert, was auf eine beschleunigte Erwärmung hinweist“.

Abbildung 10: Fake-Schlussfolgerungen des IPCC

Die folgende Graphik (Abbildung 11) illustriert das Ganze:

Abbildung 11: Globale Temperaturen im Vergleich zur mittleren globalen Temperatur über den Zeitraum 1901 bis 2000

Kommentar zu Abbildung 11

Die Graphik zeigt die mittlere jährliche globale Temperatur seit dem Jahr 1880, aber nicht verglichen mit einer 30-jährigen Referenzperiode (wie es bei der Berechnung von Anomalien üblich ist), sondern im Vergleich zum langfristigen Mittel im Zeitraum 1901 bis 2000. Die Null-Linie repräsentiert das langfristige Mittel für den gesamten Planeten, die Balken zeigen die globalen (aber langfristigen) „Anomalien“ über oder unter dem langfristigen Mittelwert mit der Zeit. Der behauptete lineare Trend im linken Teil der Abbildung ist (mehr als wahrscheinlich) ebenso wie der Trend im rechten Teil der Abbildung nichts weiter als der steigende Ast eines Sinusoids von 180 Jahren. Dies ist auch ein anderer Weg (der richtige und einfachste?), den „Stillstand“ zu erklären, welcher während der letzten 20 Jahre beobachtet worden ist. Der „Stillstand“ korrespondiert mit dem Maximum des Sinusoids, und als Konsequenz kann man eine globale Abkühlungsperiode während der nächsten Jahre erwarten.

7. Lineare Trendlinien und Daten, die eine zyklische Signatur aufweisen

Schließlich illustrieren die folgenden Graphiken (Abbildungen 12, 13 und 14) von Masson den „border effect“, der weiter oben schon einmal für einen schematischen Fall erwähnt worden ist. Sie zeigen die potentiellen Fehler, die man bei der Anwendung linearer Regressions-Verfahren macht, wenn Daten eine zyklische Komponente aufweisen mit einer (pseudo-)Periode von einer Länge, die vergleichbar ist mit dem betrachteten Zeitfenster. Das Sinusoid bleibt genau gleich (und zeigt keinen Trend), aber falls man die lineare Regression berechnet (mittels des Verfahrens kleinster Quadrate) über eine Periode des Sinusoids, wird eine FAKE-Trendlinie erzeugt, dessen Steigung abhängig ist von der Anfangsphase des betrachteten Zeitfensters.

Abbildungen 12,13 und 14: Lineare Regressions-Linie über eine einzelne Periode eines Sinusoids.

Regressions-Linie für ein Sinusoid

Um das Problem im Zusammenhang mit dem „border effect“ zu illustrieren, wenn man für ein Sinusoid eine Regressions-Linie zeigt, wollen wir ein einfaches Sinusoid heranziehen und die Regressions-Linie über ein, zwei, fünf, … X Zyklen berechnen (Abbildungen 15, 16 und 17).

Das Sinusoid ist stationär, die wahre Regressions-Linie verläuft horizontal (Steigung = Null).

Nimmt man eine Initial-Phase von 180° (um eine Regressions-Linie mit positiver Steigung zu erzeugen), wollen wir feststellen, wie sich die Steigung der Regressions-Linie in Abhängigkeit der Anzahl von Perioden ändert:

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Abbildungen 15, 16 und 17: Regressions-Linien für Sinusoids mit einem, zwei, fünf Zyklen.

Die korrespondierende Regressions-Gleichung ist in jeder Graphik genannt. In dieser Gleichung ergibt der Koeffizient von x die Steigung der „Fake“-Regressions-Linie. Der Wert dieser Steigung ändert sich mit der Anzahl der Perioden, wie in Abbildung 18 gezeigt. Als Faustregel nennen Daten-Wissenschaftler eine Mindestzahl von 6 Perioden, die betrachtet werden müssen.

Abbildung 18: Steigung der Regressionslinie im Vergleich zur Anzahl der Zyklen. Dazu gibt es hier auch eine Excel-Illustration.

8. Ein exemplaarischer Fall

Die Überlegungen in dieser Studie mögen für erfahrene Daten-Wissenschaftler offensichtlich sein, aber es scheint, als ob die meisten Klimatologen sich der Probleme nicht bewusst sind (oder versuchen sie vielleicht, diese Probleme unter den Teppich zu kehren?), die sich aus der Länge des betrachteten Zeitfensters und dem Ausgangswert ergeben. Als finale Illustration wollen wir die „offiziellen“ Klimadaten betrachten und sehen, was passiert, wenn man die Länge des Zeitfensters sowie den Ausgangswert verändert (Abbildungen 19 bis 21). Aus diesem Beispiel geht eindeutig hervor, dass lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters die Tür weit aufstoßen zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

Abbildung 19: Beispiel einer „offiziellen“ Anomalie einer globalen Temperaturreihe

Abbildung 20: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien

Abbildung 21: Auswirkung der Länge und des Ausgangswertes eines Zeitfensters auf lineare Trendlinien (fortgesetzt)

[Wegen der Bedeutung dieser Graphik folgt hier die Übersetzung der Bildinschrift:

obere Graphik: Ein globaler Abkühlungstrend (etwa 0,35 Grad pro Dekade) während der 11 Jahre von 1998 bis 2009. Realistisch? Nein!

Mittlere Graphik: Ein globaler Erwärmungstrend (etwa 0,12 Grad pro Dekade) während der 30 Jahre von 1979 bis 2009. Realistisch? Nein!

Untere Graphik: Was also ist realistisch? Die jährliche Varianz in den Daten ist groß im Vergleich zu jedwedem Trend. Es gibt eindeutig erkennbare Zyklen in den Daten (ein solcher von etwa 4 Jahren ist in der mittleren Graphik erkennbar). Was zeigen nun also die Daten während der Satelliten-Ära? Keine Erwärmung von 1979 bis 1997; ein signifikantes El Nino-Ereignis 1997-98 führte zu einer sprunghaften Änderung von etwa 0,3 Grad; keine Erwärmung von 1999 bis 2009. Die gesamte Erwärmung der letzten 30 Jahre ereignete sich in einem einzigen einzelnen Jahr!

Ende Übersetzung der Inschrift.]

Schlussfolgerungen:

1. IPCC-Projektionen resultieren aus mathematischen Modellen, welche der Kalibrierung bedürfen, indem man Daten aus der Vergangenheit einfließen lässt. Die Genauigkeit der Kalibrierungs-Daten ist von ultimativer Bedeutung, ist doch das Klimasystem höchst nicht-linear, und das gilt auch für die (Navier-Stokes)-Gleichungen und die (Runge-Kutta Integrations-) Algorithmen, welche in den IPCC-Computermodellen angewendet werden. Als Konsequenz daraus ist das System und auch die Art, wie das IPCC dieses präsentiert, hoch sensitiv gegenüber winzigen Änderungen des Wertes der Parameter oder der Ausgangsbedingungen (die Kalibrierungs-Daten im gegenwärtigen Fall). Sie müssen mit höchster Genauigkeit bekannt sein. Das ist aber nicht der Fall, was ernste Zweifel an jedweder Folgerung aus den Modellprojektionen aufwirft.

2. Die meisten vom IPCC herangezogenen Mainstream-Daten mit Klimabezug sind tatsächlich erzeugt aus Daten von Messpunkten auf dem Festland. Dies hat zwei Konsequenzen:

i) Die räumliche Verteilung der Daten ist höchst fragwürdig, weil die Temperatur über den Ozeanen, die 70% der Erdoberfläche bedecken, zumeist unbeachtet bleiben oder „guestimated“ werden mittels Interpolation;

ii) Die Anzahl und die Aufstellungsorte dieser Landstationen hat sich mit der Zeit deutlich verändert, was Verzerrungen und Fake-Trends induzierte.

3. Der Schlüssel-Indikator des IPCC ist die globale Temperatur-Anomalie, errechnet aus räumlicher Mittelung, ebenso wie mögliche lokale Anomalien. Lokale Anomalien sind der Vergleich der gegenwärtigen lokalen Temperatur mit der gemittelten lokalen Temperatur über einen festgesetzten Zeitraum von 30 Jahren, der sich alle 30 Jahre ändert (1930-1960, 1960-1990, etc.). Das Konzept der lokalen Anomalien ist höchst fragwürdig wegen der Präsenz poly-zyklischer Komponenten in den Temperaturdaten einschließlich deutlicher Verzerrungen und falschen Trends, wenn das Zeitfenster kürzer ist als mindestens 6 mal die längste, aus den Daten hervorgehende Periode. Unglücklicherweise ist bzgl. der Temperaturdaten genau das der Fall.

4. Lineare Trends, die auf (poly-)zyklische Daten einer Periode ähnlich der Länge des Zeitfensters stoßen die Tür weit auf zu jeder Art von Fake-Schlussfolgerungen, falls nicht Manipulationen zugunsten einer bestimmten politischen Agenda vorgenommen werden.

5. Als Folge davon ist es dringend geraten, das Konzept der globalen Temperatur-Anomalie zu verwerfen und sich auf unverzerrte lokale Daten zu stützen, um eine mögliche Änderung des lokalen Klimas aufzufinden. Das wäre ein physikalisch bedeutungsvolles Konzept, und das ist schließlich das, was für die lokalen Anwohner, für Landwirtschaft, Industrie, Dienstleistungen, Geschäftsbereiche, Gesundheit und Wohlergehen allgemein von Bedeutung ist.

Notes

[1] The GISS Surface Temperature Analysis (GISTEMP v4) is an estimate of global surface temperature change. It is computed using data files from NOAA GHCN v4 (meteorological stations), and ERSST v5 (ocean areas), combined as described in Hansen et al. (2010) and Lenssen et al. (2019) (see : https://data.giss.nasa.gov/gistemp/). In June 2019, the number of terrestrial stations was 8781 in the GHCNv4 unadjusted dataset; in June 1880, it was only 281 stations.

[2] Matthew J. Menne, Claude N. Williams Jr., Michael A. Palecki (2010) On the reliability of the U.S. surface temperature record. JOURNAL OF GEOPHYSICAL RESEARCH, VOL. 115, D11108, doi:10.1029/2009JD013094, 2010.

[3] Venema VKC et al. (2012) Benchmarking homogenization algorithms for monthly data. Clim. Past, 8, 89-115, 2012.

[4] F.K. Ewert (FUSION 32, 2011, Nr. 3 p31)

[5] H. Masson,Complexity, Causality and Dynamics inside the Climate System (Proceedings of the 12thannual EIKE Conference, Munich November  2018.

[6] IPCC, http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-wg1-chapter3.pdf]

Link: http://www.science-climat-energie.be/2019/07/24/climate-about-which-temperature-are-we-talking-about/

———————————————

Autoren: Samuel Furfari,  Professeur à l’Université libre de Bruxelles et Henri Masson, Professeur (émérite) à l’Université d’Antwerpen

Übersetzt von Chris Frey EIKE