Klimastiftung nennt ein belgisches Manifest von „3400 Akade­mikern“ alarmistisch, pseudo-akademisch und sogar widerlegt durch das IPCC selbst

Es ist eine der herausragendsten Widerlegungen, die man finden kann. [Es folgt die aus dem Niederländischen ins Englische übersetzte Widerlegung, die hier ins Deutsche übersetzt wird. Für die direkte Übersetzung aus dem Niederländischen ins Deutsche müsste permanent der Google-Übersetzer bemüht werden, was als noch weniger zielführend betrachtet wird als die neue Übersetzung. Anm. d. Übers.]

Erschreckende Klima-Propaganda

Unverantwortlicher Missbrauch von Modellen

Wissenschaft unterscheidet sich von Religion, weil theoretische Behauptungen mittels Beobachtungen verifiziert werden müssen. Falls Modellergebnisse Messergebnisse im Voraus prognostizieren können (was sich ziemlich unterscheidet davon, dieselben im Nachhinein zu erklären!), dann kann man ein Modell als validiert ansehen und es in der Praxis anwenden. Aber wenn das nicht der Fall ist, kann man das Modell nicht als Wahrheit verkaufen und es auch nicht in der Praxis anwenden – das wäre unverantwortlich.

Weitaus komplizierter als einfach: eine lineare CO2-Relation

Die gegenwärtigen Klimamodelle (,IPCC-Modelle‘) zeitigen systematisch höchst übertriebene Prophezeiungen im Vergleich zu Messungen und können daher nicht als Grundlage einer Klimapolitik herangezogen werden – besonders dann nicht, wenn diese Politik extrem hohe Kosten verursacht und vitale Bestandteile der Energie-Infrastruktur destabilisiert. Das sagen wir nicht einfach so. Einige der angesehensten Wissenschaftler haben das auch schon vor uns gesagt (z. B. Freeman Dyson, Frederic Seitz, Robert Jastrow, William Nierenberg), darunter auch Nobelpreisträger (z. B. Ivar Giaever und Robert Laughlin). Sie argumentieren auch, dass das Klima der Erde viel zu kompliziert ist, um durch eine einfache, eindimensionale CO2-Relation erklärt werden zu können.

Erwärmung unserer Zeit weitgehend natürlichen Ursprungs

Im Folgenden werden wir kurz auf die Behauptungen der belgischen Unterzeichner des Schriftstückes eingehen.

1. „Die Erde erwärmt sich. Weltweit ist die Temperatur bereits um 1°C gestiegen (im Vergleich zur mittleren Temperatur im Zeitraum 1850 bis 1900)“.

Ja, die Erde erwärmt sich. Aber das ist business as usual. Die Historie der Erde sagt uns, dass sich Klimaänderungen immer ereignet haben. Das geologische Archiv zeigt sehr schön, dass sich warme und kalte Perioden regelmäßig abgewechselt haben. Das geschah bisweilen ruckartig, zwei Schritte vorwärts und dann einen wieder zurück.

Wir müssen nicht einmal bis zu den großen Eiszeiten zurückschauen. Archäologische Informationen zeigen, dass es um das Jahr 1000 zur Mittelalterlichen Warmzeit gekommen war. Damals gab es in Grönland viel Landwirtschaft! Und während des goldenen Zeitalters [?] befanden wir uns inmitten der Kleinen Eiszeit. Die großen Gemälde Belgiens und der Niederlande zeigen wunderschöne Szenen des Eises aus jener Kaltzeit. Nach dem Ende jener kleinen Eiszeit traten wir in eine Periode mit Erwärmung ein, natürlich ebenfalls mit Sprüngen vor und zurück. Nichts Besonderes also. Das sind natürliche Veränderungen innerhalb des Klimasystems. Bald wird die Temperatur wieder sinken. Ökosysteme haben sich jedes Mal erfolgreich angepasst und werden das auch weiterhin tun.

Wissenschaftliche Beweise ergebnislos … nicht nachhaltig“

2. „Fast 100% der beobachteten Erwärmung ist menschlichen Aktivitäten geschuldet“.

Diese Sicherheit ist schockierend. Das ist tatsächlich das, was das PCC glaubt. Allerdings sind die wissenschaftlichen Beweise dafür alles andere als aufschlussreich. Auch ist es höchst unwahrscheinlich, dass die natürlichen Schwankungen nach 1850 abrupt zum Erliegen gekommen sind – und dass seit dieser Zeit allein der Mensch verantwortlich ist für diese Erwärmung.

Aber was war der Auslöser für die Kleine Eiszeit, als Gletscher reihenweise gewachsen sind? Und was löste die Mittelalterliche Warmzeit aus? Solange die Klimawissenschaft auf derartige Fragen keine Antworten geben kann, sollten wir uns in Bescheidenheit üben.

Selbst heute noch versteht niemand genau die komplizierten Wechselwirkungen zwischen der Strahlung der Sonne, der dynamischen Wolkenbedeckung, der inhomogenen Erdoberfläche, den energiereichen Strömungen und der wasserdampfreichen Atmosphäre. Auch wissen wir keineswegs genau, welchen Beitrag menschliches CO2 an der globalen Erwärmung hat. Die große Sicherheit, mit der uns dass IPCC die menschliche Ursache an der Erwärmung glauben machen will, ist wissenschaftlich unhaltbar.

Alarmisten sind die wahren „Klima-Leugner“ … „sie wurden verführt“

3. „Schon jetzt bei der gegenwärtigen Erwärmung um ,lediglich‘ 1°C sind wir konfrontiert mit zunehmenden und immer stärkeren Wetterextremen wie Hitzewellen, Dürren und Überschwemmungen. Mit der Fortsetzung der globalen Erwärmung werden Extreme immer häufiger. Mehr noch, sollte die Erwärmung über 2°C hinausgehen, nimmt die Wahrscheinlichkeit, dass sich die globale Erwärmung aus sich selbst heraus verstärkt, enorm zu. Eine Art Schneeballeffekt, der sie immer wärmer macht“.

Die Autoren und Unterzeichner des Briefes offenbaren sich hier als die wahren Klima-Leugner. Absolut erstaunlich!, wird doch in den jüngsten drei relevanten IPCC-Berichten (SREX, AR5 und SR15) klar festgestellt, dass es keine erkennbaren Trends bzgl. Dürren und Überschwemmungen gibt. Sie kommen also nicht häufiger oder seltener vor als zuvor. Das IPCC stellt in der Tat fest, dass Hitzewellen in bestimmten Gebieten allgemein üblich sind. Aber auch das ist vorläufig, weil beispielsweise in den USA die Staubschüssel-Ära der dreißiger Jahre immer noch in allen Aufzeichnungen dominant hervortritt.

Die Tatsache, dass sich die Autoren erlauben, von derartigen Übertreibungen verführt zu werden, welche sogar verschiedenen IPCC-Berichten widersprechen zeigt, dass ihr kritisches wissenschaftliches Denken durch ihren Aktivismus umnachtet worden ist.

CO2 als Kontrollknopf ist eine Täuschung

4. „Den Klimawandel einzugrenzen und sich selbst verstärkende Rückkopplungen zu verhindern ist höchst notwendig. Um die globale Erwärmung auf 2 Grad zu begrenzen, müssen die CO2-Emissionen bis zum Jahr 2030 um 25% und bis zum Jahr 2050 um etwa 85% reduziert werden. Um unter dem 1,5°C-Ziel zu bleiben, müssen die Emissionen bis 2050 sogar auf Null sinken. Um dies jetzt zu erreichen, müssen sofort weit reichende und strukturelle Maßnahmen ergriffen werden – JETZT. Je länger wir warten, Treibhausgase zu reduzieren, umso größere Bemühungen werden erforderlich sein, um die Erwärmung (deutlich) unter 2 Grad zu halten“.

Der Erfolg der Klimabewegung beruht auf einer einfachen Aussage: „Menschliches CO2 ist die Ursache globaler Erwärmung, globale Erwärmung führt in eine Katastrophe, falls wir den CO2-Knopf drehen wird alles wieder gut“. Aber für keine der obigen Behauptungen gibt es irgendeinen Beweis. Wie kommen wir zu dieser detaillierten Sicherheit? Die allgemeine Öffentlichkeit fragt die Klimabewegung zu recht nach stichhaltigen Beweisen. Es gibt überzeugende Beweise, ebenfalls wissenschaftlich veröffentlicht, dass Klimamodelle hypersensitiv auf CO2 reagieren und daher viel zu viel Erwärmung generieren. Jedwede zukünftige Erwärmung durch CO2 wird daher viel allmählicher erfolgen als die Modelle zeigen. Aber die Kräfte der Natur können genauso gut auch eine Kehrtwende hin zu Abkühlung hinlegen.

Bizarre und besorgliche Forderungen

Da die CO2-Reduktion momentan sehr teuer und Sonne, Wind und Biomasse alles andere als ausreichend ist, um moderne Gesellschaften mit Energie zu versorgen, müssen wir an Zukunfts-Technologien arbeiten, mit welcher eine (ideologisch gewünschte) CO2-Reduktion bezahlbar werden könnte. Kernkraft ist hier die wahrscheinlichste Option. Seltsamerweise plant Belgien die Schließung aller seiner Kernkraftwerke sowie deren Ersatz durch Gaskraftwerke. Dies kann vor dem Hintergrund der CO2-Politik nicht erklärt werden, und es ist abwegig und besorglich, das hierzu in dem offenen Brief kein Wort verlautet. Falls es die Autoren wirklich ernst meinen bzgl. CO2, sollten sie massiv dafür eintreten, bestehende Kernkraftwerke so lange wie möglich weiter am Laufen zu lassen.

Das Paris-Abkommen gestattet steigende Emissionen

5. „Gegenwärtig bleiben politische Maßnahmen weit hinter dem zurück, was zur Reduktion von Treibhausgas-Emissionen erforderlich ist. CO2-Emissionen nehmen weltweit nach wie vor zu, und von Jahr zu Jahr emittieren wir mehr und nicht weniger. Das Gegenteil dessen, was getan werden muss. Außerdem sind die vorgeschlagenen politischen Maßnahmen nach wie vor meilenweit von dem entfernt, was zur drastischen Reduktion von Emissionen erforderlich ist, und das gilt für die lokale, die belgische, europäische und globale Ebene. Mit den jetzt vorliegenden Vorschlägen geht die Welt einer Erwärmung um 3°C bis zum Ende des Jahrhunderts entgegen. Das mag gering klingen, aber die Auswirkungen sind gewaltig“.

Die Tatsache, dass CO2-Emissionen nach wie vor weltweit zunehmen, ist schlicht im so gelobten Pariser Klima-Abkommen enthalten. Alle Länder waren dort vertreten. China und Indien dürfen und werden bis zum Jahr 2030 immer mehr CO2 emittieren.

Gigantische Kosten, buchstäblich ohne jede Auswirkung

Falls wir immer noch auf CO2-Reduktionen aus ideologischen Gründen beharren, sollten wir die relativ sauberen Kraftwerke in Westeuropa nicht schließen, sondern vielmehr die vielen verschmutzenden Kraftwerke in Asien. China beispielsweise baut seinen verschmutzenden Kohlekraftwerke-Park immer weiter aus. Man sollte die saubereren Kraftwerke der westlichen Welt zu einem Exportschlager machen.

Was wir hier in Belgien und den Niederlanden zum CO2-Eintrag beitragen, ist minimal, aber eine Reduktion wird uns mit vielen hundert Milliarden Euro zu stehen kommen. Beispiel: Falls wir hier in den Niederlanden das Ziel einer Reduktion um 49% bis zum Jahr 2030 erreichen sollten (mehr als die Autoren des offenen Briefes benennen), würde dies bis zum Jahr 2100 zu einer um 0,0003 Grad geringeren Erwärmung führen – vernachlässigbar und unmessbar. Und falls Belgien seine Kernkraftwerke schließt, gäbe es keine andere Wahl als sich auf fossile Treibstoffe zu stützen. Das ist die Realität!

0,05°C weniger Erwärmung für 1 Billion Dollar pro Jahr

6. „Maßnahmen gegen den Klimawandel sind ökonomisch viel vorteilhafter als wenn keine Maßnahmen ergriffen werden. Langfristig sind die Kosten des Nichtstuns viel höher als die Investitionen in die Reduktion von Emissionen. Nichtstun führt zu enormen Kosten einschließlich Schäden durch Überschwemmungen, Stürme und Waldbrände. Extreme Dürren und daraus folgende Verknappung von Nahrungsmitteln können in vielen Ländern soziale Unruhen auslösen und zu globalen Migrationsbewegungen führen. Der Übergang zu einer emissionsfreien Gesellschaft andererseits ist ökonomisch viel vorteilhafter und sorgt sogar für die Entstehung zusätzlicher Arbeitsplätze. Außerdem belaufen sich die weltweiten Subventionen für fossile Treibstoffe auf über 500 Milliarden Dollar jährlich. Diese Summe oder auch nur ein Teil davon fördert den Übergang zu einer kohlenstoffneutralen Gesellschaft“.

Das sind höchst zweifelhafte Behauptungen. Die Behauptung, dass Nichtstun viel höhere Kosten verursacht ist nichts als äußerst fragwürdig. Die Heilung kann schlimmere Folgen nach sich ziehen als die Krankheit, und wir glauben, dass die gegenwärtige Klimapolitik ein typisches Beispiel dafür ist. Björn Lomborg berechnete beispielsweise, dass falls alle Länder ihren freiwilligen Verpflichtungen des Paris-Abkommens nachkommen würden, die Auswirkung auf die Temperatur im Jahre 2100 nur 0,05°C ausmachen wird. Das ist ebenfalls vernachlässigbar. Lomborg zufolge kostet die Politik schon jetzt 1000 bis 2000 Milliarden Dollar pro Jahr, hauptsächlich als Folge eines geringeren wirtschaftlichen Wachstums. Das ist ein wesentliches Problem für Entwicklungsländer. Sie arbeiten nach wie vor hart daran, ihre Bürger auf das gleiche Niveau des Wohlstands zu heben wie wir ihn hier im Westen haben.

Grüne Ökonomie führt in Wirklichkeit insgesamt zu Arbeitsplatzverlusten

Die Behauptungen, denen zufolge Klimapolitik zusätzliche Arbeitsplätze schaffen würde, ist ebenfalls irreführend. Natürlich erzeugt man Arbeitsplätze, falls man hunderte Milliarden an Steuergeldern in die Energie-Transition pumpt. Allerdings stellt sich die Frage, wie viele Arbeitsplätze anderswo verloren gehen und wie die Auswirkungen insgesamt sind. Erfahrungen in Deutschland und Spanien zeigen, dass grüne Arbeitsplätze extrem teure Arbeitsplätze und daher schädlich für die Wirtschaft sind. Folglich ist das alles wissenschaftlich sehr empörend, was hier in die Welt posaunt wird.

Verwirrte Akademiker

7. „Wissen und Verfahren, erforderlich zur drastischen Reduktion von CO2-Emssionen, existieren bereits. Es bedarf jetzt nur noch des politischen Mutes, die erforderlichen strukturellen Maßnahmen zu ergreifen und sich vollständig eines Übergangs zu einer Gesellschaft ohne Treibhausgas-Emissionen zu verschreiben. Schließlich ist der Übergang nur möglich, falls – neben anderen Dingen – die Versorgung mit erneuerbarer Energie rapide und erheblich erweitert wird, Gebäude zu Kraftwerken anstatt zu Energieverbrauchern gemacht werden, die Mobilität reformiert und die Entwaldung gestoppt wird; wenn Bäume wo immer möglich gepflanzt und die Emissionen durch die Fauna ebenfalls angegangen werden. Diese Investitionen bieten auch Gelegenheit für positive Änderungen in vielen anderen Bereichen, zum Beispiel sauberere Luft und ausreichend Nahrung und Trinkwasser für jeden“.

Hier werden Klimawandel und Umweltbelange vollkommen vermischt. Die aus diesen beiden Problemen resultierende Verwirrung tritt deutlich hervor. Viele Menschen, die sagen, dass sie sich bzgl. des Klimawandels viele Sorgen machen, meinen in Wirklichkeit, dass sie besorgt sind hinsichtlich der natürlichen Umwelt, wie etwa Ruß und Feinstaub in der Luft oder Plastik in den Ozeanen. Aus historischer Perspektive scheinen die großen Naturkräfte eine prominente Rolle bei der Änderung des Weltklimas zu spielen, doch ist hinsichtlich der Umweltzerstörung zweifellos der Mensch dominant.

 

Zwei abschließende Kommentare der Stiftung:

Die verloren gegangene Unabhängigkeit der Wissenschaft ist „extrem besorglich“

a) Der größte Wert eines Wissenschaftlers ist seine oder ihre Unabhängigkeit. Wir erleben, dass Wissenschaftler zunehmend finanziell abhängig werden von Regierungen und der Industrie. Politische und kommerzielle Interessen wurden zu einem immer bedeutenderen Bestandteil von Forschung. Als Folge davon haben viele Wissenschaftler ihre Unabhängigkeit verloren. Das Belgische Manifest macht dies auf schmerzhafte Weise erneut nur zu deutlich. Das ist extrem besorglich. Finden sich heutzutage noch unabhängige Lehrer?

Die Historie der Wissenschaft sagt uns, dass wissenschaftlicher Fortschritt niemals durch Konsens erzielt worden ist, sondern von sturen Wissenschaftlern, die es wagten bestehende Konzepte in Frage zu stellen. Es liegt im Interesse der Wissenschaft und der Gesellschaft, dass diese Dissidenten nicht zum Schweigen gebracht werden, wie es derzeit seitens des IPCC, der Medien und kommerzieller Lobbygruppen der Fall ist.

Skeptizismus ist die Grundlage jedweder wissenschaftlicher Fortschritte. Menschen, die nicht mehr zweifeln und davon überzeugt sind, dass sie recht haben, fragen nicht, sondern streiten. Darum gibt es in der Klimadebatte keinerlei Fortschritte.

Kinder werden von Alarmisten missbraucht

b) In Belgien [und nicht nur dort] hat die Klimabewegung inzwischen damit begonnen, Kinder für ihre ideologische Causa einzuspannen. Eine ziemlich absonderliche Strategie. Was Kinder lernen müssen ist, kritisch alles zu betrachten, was man ihnen als Fakten präsentiert. Was gegenwärtig passiert, steht also gegen alles, für was Bildung steht. Wir sehen immer mehr, dass Kinder zwecks Erreichens bestimmter Ziele missbraucht werden.

Wer erinnert sich noch an den am Strand angeschwemmten Flüchtlingsjungen, dessen Bild häufig von Flüchtlingsorganisationen bemüht worden ist, oder an den kleinen Asylanten-Jungen, dem man ein Mikrofon unter die Nase gehalten hat oder an die weinenden Kinder Lili und Howick in den [niederländischen] Abendnachrichten? Jeder, der sein Rechthaben unter Beweis stellen will, indem er Kinder an die Front schickt, handelt moralisch verwerflich. Lehrer, die in dieser Weise tätig werden, sollten sich zutiefst schämen!

Link: http://notrickszone.com/2019/02/02/climate-foundation-calls-belgian-manifesto-by-3400-academics-alarmist-unacademic-and-even-refuted-by-ipcc/

Übersetzt von Chris Frey EIKE




Illusionen mathematischer Modellierung

Sie machen genau das, was der Journalist H. L. Mencken zu Beginn des vorigen Jahrhunderts geschrieben hatte: „Der gesamte Sinn der Politik ist es, die Öffentlichkeit in Furcht zu halten (und in ihr folglich den Wunsch zu wecken, in Sicherheit gebracht zu werden). Erreicht werden soll dies mit einer endlosen Reihe von Klabautermännern – allesamt imaginär“.

Die Angstmache vor der vom Menschen verursachten Klimaänderung kann gut und gern der beste Klabautermann sein, der je erweckt worden ist. Sie hat in der Hälfte der Welt den Wunsch geweckt, in Sicherheit gebracht zu werden – vor einer Bedrohung, für die es nicht den geringsten physikalischen Beweis gibt! Absolut nichts spricht dafür, dass Klima-Fluktuationen und Wetterereignisse von heute anders geartet oder schlimmer sind als das, womit es unsere Vorfahren zu tun hatten – und auch nicht für den Menschen als Ursache.

Viele der Aussagen zur Stützung dieser Angst erzeugenden Behauptungen finden sich im U.S. Fourth National Climate Assessment, einem 1656 Seiten starken Report, veröffentlicht Ende November. Keine einzige der dort erhobenen Behauptungen hat irgendeinen Bezug zu Beobachtungen in der realen Welt. Alles, was diese Behauptungen stützt, sind mathematische Gleichungen, welche als exakt präsentiert werden, als zuverlässige Modelle des Klimas der Erde.

Es ist wichtig, diese Modelle vollständig zu verstehen, sind sie doch die einzige Grundlage für die Klima-Angst!

Vor der Konstruktion von Gebäuden oder Flugzeugen werden physikalische, kleinmaßstäbliche Modelle entwickelt, um sie Stress- und anderen Tests zu unterziehen, welchem sie nach dem tatsächlichen Bau ausgesetzt sind. Hat man es mit Systemen zu tun, die großenteils (oder gänzlich) außerhalb unserer Kontrolle liegen – wie etwa Klima – versuchen wir, diese mit mathematischen Gleichungen zu beschreiben. Mittels Veränderung der Variablen in diesen Gleichungen kann man erkennen, wie sehr sich diese Veränderungen auf das Ergebnis auswirken. Das nennt man Sensitivitäts-Test, die beste Anwendung mathematischer Modelle.

Allerdings beschreiben die heutigen Klimamodelle nur eine Handvoll der hunderte von Variablen, von welchen man weiß, dass sie sich auf das Erdklima auswirken, und viele der für die Variablen eingesetzten Werte sind kaum mehr als Raten. Dr. Willie Soon vom Harvard-Smithsonian Astrophysics Laboratory listet die sechs bedeutendsten Variablen in jedwedem Klimamodell:

1) Orbitale Dynamik des Systems Sonne ↔ Erde sowie deren relative Stellungen und Bewegungen hinsichtlich der anderen Planeten des Sonnensystems

2) Abstrahlung geladener Partikel von der Sonne (Sonnenwind) und Modulation der einfallenden kosmische Strahlung aus der Galaxie als Ganzes

3) Das Klima beeinflussende Wolken, welche sowohl einfallende Sonnenstrahlung blockieren als auch einen geringen Teil der Wärme einfangen

4) Verteilung des von der Atmosphäre und nahe der Erdoberfläche empfangenen Sonnenlichtes

5) Die Art und Weise, mit der Ozeane und Landmassen die einfallende Sonnenstrahlung speichern, beeinflussen und verteilen

6) Die Reaktion der Biosphäre auf all diese verschiedenen Klimatreiber.

Soon folgert, dass selbst wenn die Gleichungen zur Beschreibung dieser interaktiven Systeme bekannt und angemessen in den Computermodellen enthalten wären (was sie nicht sind), diese auch dann immer noch nicht in der Lage sind, die Zukunft in irgendeiner bedeutenden Weise zu simulieren. Grund hierfür ist, dass selbst die besten Super-Computer der Welt viel zu lange brauchen würden, das zukünftige Klima zu berechnen als es sich in der realen Welt aufzeigen würde.

Das heißt, wir könnten das Klima (oder die vielen Sub-Klimate der Erde) für 40 Jahre von heute an in die Zukunft berechnen, aber es würde über 40 Jahre dauern, bis die Modelle mit diesen Berechnungen fertig wären.

Obwohl Regierungen über hundert Bemühungen finanziert haben, das Klima über drei Jahrzehnte zu modellieren, hat nicht eines dieser Modelle die bekannte Vergangenheit korrekt „prophezeit“ (nachhergesagt). Ausnahme ist ein russisches Modell, welches vollständig „frisiert“ war, um zu den gemessenen Daten zu passen, was zufällig dann auch der Fall war. Die mittlere Prophezeiung liegt jetzt ein ganzes Grad Fahrenheit über dem, was Satelliten und Wetterballone tatsächlich gemessen haben.

In seiner Anhörung vor dem Committee on Science, Space & Technology des Repräsentantenhauses am 2. Februar 2016 verglich der Klimatologe Dr. John Christy von der University of Alabama-Huntsville die Ergebnisse der atmosphärischen Temperaturen, wie sie im Mittel von 102 Klimamodellen berechnet worden waren, mit Messungen von Satelliten und Ballonen. Er sagte: „Diese Modelle scheiterten schon bei dem einfachen Test, uns zu sagen, was bereits geschehen ist, und sind folglich nicht in der Lage, uns eine vertrauenswürdige Antwort zu geben auf die Frage, was in Zukunft passieren könnte und warum. Als solche sind die Modelle also von höchst fragwürdigem Wert als Grundlage für weit reichende politische Entscheidungen, die doch abhängig sein sollten von einem halbwegs sicheren Verständnis, wie das Klimasystem funktioniert“.

Als Christopher Monckton das IPCC-Verfahren einer Nachprüfung unterzog, zeigte er in einer im Bulletin of the Chinese Academy of Sciences* veröffentlichten Studie im Jahre 2015 überzeugend, dass die offiziellen Prophezeiungen bzgl. globaler Erwärmung um das Dreifache übertrieben worden waren. (Monckton ist mehrfach für seine Arbeiten bzgl. Klima ausgezeichnet worden).

[*Dieses chinesische Journal war anders als alle angesprochenen Journale in der westlichen Welt bereit, die Studie zu veröffentlichen! Anm. d. Übers.]

Die Studie ist 12 mal öfter heruntergeladen worden als jede andere Studie in der gesamten, 60 Jahre umfassenden Historie jenes angesehenen Journals. Moncktons Team bedeutender Klimawissenschaftler legt jetzt letzte Hand an eine Studie, welche definitiv beweist, dass es – entgegen der offiziell prophezeiten Erwärmung um 3,3°C pro Verdoppelung des CO2-Gehaltes – lediglich zu einer solchen von 1,1°C kommen würde. An einem entscheidenden Punkt ihrer Berechnungen haben die offiziellen Klimatologen schlicht und ergreifend die Tatsache außen vor gelassen, dass die Sonne scheint!

Alle Probleme können als 5-phasig betrachtet werden: Beobachtung, Modellierung, Prognose, Verifikation und Validierung. Der Meteorologe Tom Wysmuller vom Apollo Team erklärt: „Zur Verifikation gehört es zu überprüfen, ob die Prognosen tatsächlich eintreffen, und zur Validierung gehört es zu überprüfen, ob die Prognose irgendetwas anderes ist als eine zufällige Korrelation. Die jüngste CO2-Zunahme, die mit der Erwärmung des industriellen Zeitalters korreliert, ist ein Beispiel für eine Zufalls-Korrelation, das einem sofort in den Sinn kommt“.

Der Präsident des Science and Environmental Policy Project (SEPP) Ken Haapala schreibt: „Die globalen Klimamodelle, auf die sich das IPCC und das USGCRP (United States Global Change Research Program) verlassen, sind weder verifiziert noch validiert“.

In kein Klimamodell, auf das sich das IPCC stützt, hat man die Ausgangsbedingungen des Jahres 1900 eingegeben und die ,Staubschüssel-Jahre‘ der dreißiger Jahre in den USA vorhergesagt – geschweige denn eine genaue Prognose des Klimas im Jahre 2000 oder 2015. Angesichts des vollständigen Fehlens überprüfbarer Ergebnisse müssen wir folgern, dass diese Modelle mehr mit dem Spiel „Magic 8 Ball“ gemeinsam haben als mit irgendeinem Prozess auf wissenschaftlicher Grundlage.

Nun ist eines der aktivsten Bereiche mathematischer Modellierungen der Aktienmarkt, aber niemand hat jemals dessen Entwicklung genau vorhersagen können. Viele Jahre lang wählte das Wall Street Journal fünf bedeutende Ökonomie-Analysten, die eine Aktie wählen sollten, welche ihrer Ansicht nach im folgenden Monat im Wert steigen würde. Dann ließ das Journal einen Schimpansen fünf Pfeile auf eine Wand werfen, die überzogen war mit den Ergebnissen des Aktienmarktes an jenem Tag. Einen Monat später wurde ausgewertet, wer besser war: Analysten oder Schimpanse. Gewöhnlich gewann der Schimpanse.

Aus diesem und anderen Gründen waren die meisten Menschen bis vor Kurzem dumm genug, um Entscheidungen zu treffen auf der Grundlage von Prophezeiungen, welche abgeleitet waren aus Gleichungen, die vermeintlich beschrieben, wie die Natur oder die Wirtschaft funktionieren.

Und doch behaupten die Computer-Modellierer unserer Tage, dass sie das Klima modellieren können – wobei weitaus mehr Variablen eine Rolle spielen als in der Wirtschaft oder beim Aktienmarkt – und dass sie das Jahrzehnte oder sogar ein Jahrhundert in die Zukunft können. Dann sagen sie Regierungen, politische Entscheidungen im Wert von Billionen Dollar zu treffen, welche jeden Aspekt unseres Lebens berühren – nur aufgrund der Ergebnisse ihrer Modelle. Unglaublicherweise folgen die UN und Regierungen in aller Welt diesen Forderungen. Wir sind verrückt und dumm, wenn wir sie damit davonkommen lassen!

Dr. Jay Lehr is the Science Director of The Heartland Institute which is based in Arlington Heights, Illinois. Tom Harris is Executive Director of the Ottawa, Canada-based International Climate Science Coalition.

Link: https://wattsupwiththat.com/2019/01/29/mathematical-modeling-illusions/

Übersetzt von Chris Frey EIKE




Der Januar kennt keine Klimaer­wärmung: Der Hochwinter­monat wird seit über 30 Jahren wieder kälter

Der Januar 2019 zeigte sich in Mittel- und Süddeutschland als kalter Wintermonat. In den Alpen und im Vorland sogar mit reichlich Schnee, wobei die Mediensondermeldungen mit „Schneechaos“ mal wieder übertrieben waren. Es war halt ein Wintereinbruch mitten im Winter. Der DWD gibt den Monat mit 0,6°C für ganz Deutschland an, damit fast gleich wie der 30-jährige Schnitt von 1981–2010.

In weiten Teilen Süddeutschlands war der Januar jedoch kälter. (BaWü hatte – 0,3°C, Bayern gar – 0,9°C) und damit deutlich unter dem Vergleichsschnitt. Im Norddeutschen Tiefland fiel dieser Januar generell milder aus, z.B. Helgoland mit + 4,5°C gute 2 K über dem eigenen Stationsschnitt. Spätestens angesichts dieser Tatsache wird klar, dass die überall fast gleich hohe CO2-Konzentration von mehr als 405 ppm diese gravierenden Temperaturunterschiede nicht erklären kann.

Wir fragen uns natürlich, wo sich dieser Januar 2019 im langen Geschehen Deutschlands einreiht und wie sich der Monat über einen längeren Zeitraum entwickelt hat. Aus unseren Vorartikeln über die anderen Monate weiß der Leser bereits, dass die Temperatur Deutschlands im letzten Jahrhundert in Form einer sinusähnlichen Schwingung verläuft mit Wellenbergen und Wellentälern. Wir wählen als Betrachtungszeitraum die letzten 120 Jahre, weil in der zweiten Hälfte des 18. Jahrhunderts die Kleine Eiszeit erst zu Ende ging und sich das heutige Temperaturniveau in Mitteleuropa einstellte. Einzuwenden wäre natürlich, dass um 1900 ein ganz anderes Deutschland mit anderen Grenzen bestand und die Wetterstationen an ganz anderen Plätzen mit ganz anderen, nämlich viel kälteren Umgebungsbedingungen standen wie heute. Beim Monat Januar ergeben die vom Deutschen Wetterdienst aneinandergereihten jährlichen Durchschnitte so aus:

Grafik 1: Die letzten 122 Januarmonate zeigen das gewohnte Bild. Warme Jahrzehnte wechseln sich mit den kalten ab, wir haben zwei Wärmeberge und 1 Wellental. Extrem kalt waren die Januare 1940 und 1942, während sehr milde Januare außer in den 1970er bis 2000er Jahren auch in der ersten Hälfte des 20. Jahrhunderts gehäuft auftraten – ein eindeutiger, signifikanter Erwärmungstrend blieb über diesen langen Betrachtungszeitraum bislang aus.

Auch wenn die polynome Trendlinie den Anfang und das Ende überbetont, zeigt sie uns doch sehr gut den Verlauf. Das Wellental und damit die Kältedepression begann unmittelbar vor 1930 und endete abrupt 1974 und 75 mit zwei warmen Januarjahren hintereinander und der Ausbildung eines neuen Plateaus, auf dem wir uns derzeit befinden. Auffallend ist, dass es seitdem keine extrem kalten Januare mehr gibt wie zu Kriegszeiten. Heizen wir die kalten Nächte einfach raus aus unseren Städten?

Der ganze Betrachtungszeitraum befindet sich innerhalb der Industrialisierung mit einem CO2-Anstieg in der Atmosphäre. Angeblich soll dieser Anstieg zu einer Erwärmungskatastrophe führen, so die Glaubensüberzeugung der Angsttrompeter-Wissenschaftler. Aus der Grafik 1 erkennt jeder, dass der Januar keinesfalls diesem vereinten Orakel folgt.

Wir fragen uns nun: Wie entwickelt sich der Monat ab dem Temperatursprung 1974, als er das heutige Temperaturplateau in Deutschland erreicht hat. Wir nähern uns der Antwort mit der nächsten Grafik, gezeichnet nach den Originaldaten des Deutschen Wetterdienstes.

Grafik 2: 1974/75 erreichte der Januar mit einem Temperatursprung ein höheres Wärmeniveau, ein Plateau, das seitdem anhält. Drei Januare waren zu Beginn der Grafik nochmals besonders kalt, deshalb der leichte Anstieg der Trendlinie.

Man kann aber auch feststellen: Seit 1974 hat sich laut linearer Trendlinie der Januar nicht mehr signifikant erwärmt. Trotz intensiver Kohlendioxidzunahme in diesen viereinhalb Jahrzehnten hat das angebliche Treibhausgas CO2 in Deutschland keine Erwärmung mehr bewirkt. Eine Tatsache, die einmal mehr zeigt, dass dieses für das Leben auf der Erde notwendige und saubere Gas kaum oder nichts erwärmen kann. Auch misslingt jeder Nachweisversuch. Der Januar 2019 war zudem leicht unter der Trendlinie.

Der Mensch wirkt mit bei der Klimaveränderung durch Wärmeinseleffekte (WI). Klima verändert sich immer aus vielerlei Gründen. Von Interesse wäre der Temperaturverlauf ohne die wärmenden menschlichen Veränderungen bei den Stationen. In diesen mehr als vier Jahrzehnten hat sich Deutschland in die einst freie Fläche hinein erweitert, derzeit um 70 Hektar täglich und innerhalb der Städte und Gemeinden werden Baulücken weiter geschlossen, damit die Flächenerweiterung ins Umland –eigentlich eine Naturzerstörung – rein statistisch geringer ausfällt, was die Politik uns dann wieder als Naturschutz andrehen will. Im Winter wärmt zusätzlich die Abwärme der Industrie, der Haushalte und des Verkehrs, die Siedlungen und deren näheres Umfeld auf. Im Umland heizen „Biogas“-, Solar- und Windkraftanlagen ebenfalls. Insgesamt sind die WI- Effekte nach unseren bisherigen Untersuchungen im Winter aber etwas geringer als in den Frühjahrs- und Sommermonaten.

Kurzum, bei den Messstationen des DWD hat der Wärmeeintrag, bedingt durch die Bebauungsveränderungen zugenommen und die Thermometer der Stationen messen diese Zusatzwärme aus den sich vergrößernden Wärmeinseln mit. Natürlich gibt es auch Stationen mit geringen wärmenden Veränderungen. Eine solche wäre in Amtsberg-Dittersdorf südlich von Chemnitz, deren Temperaturverlauf wir in der Grafik 3 wiedergeben.

Grafik 3: Die Wetterstation in einem Vorort von Amtsberg, am Fuße des Erzgebirges zeigt seit 1974 keinerlei Januarerwärmung.

Ergebnis: Der Januar zeigt in Amtsberg am Fuße des Erzgebirges keinerlei Erwärmung und ganz außerhalb der Ansiedlung, also in der freien unbebauten Landschaft bestimmt auch nicht. Seit 1974 hält der Januar trotz CO2-Zunahme in Deutschland sein Niveau.

Selbst auf der Zugspitze wurde der Januar nicht wärmer, obwohl auf Deutschlands höchstem Berg die Bebauung und der Tourismus in diesem Zeitraum wesentlich zugenommen haben. Aber unabhängig davon auch der Kohlendioxidanteil in der Atmosphäre. Das Thermometer der Wetterstation lässt sich davon nicht beeinflussen.

Abb. 4: Die Wetterstation Zugspitze zeigt keinerlei Januarerwärmung, seit dieser Monat durch einen Temperatursprung auf das heutige Temperaturplateau gehoben wurde

Wohin geht der Januartrend?

Die letzten drei Jahrzehnte: Aus diesem Grunde betrachten wir nun die Temperaturentwicklung seit 1988 anhand der Originaldaten des Deutschen Wetterdienstes.

Grafik 5: Der Januar wird kälter in Deutschland. Bereits seit über 30 Jahren wird es trotz der 2 warmen Januarmonate der Jahre 2007 und 2008 laut DWD-Trendlinie sichtbar kälter. Allerdings ist dieser Trend in Richtung Abkühlung wegen der enormen Streuung der Einzelwerte (noch) nicht signifikant.

Ergebnis: Die Januartemperaturen des Deutschen Wetterdienstes zeigen in den letzten 30 Jahren eine leichte Abkühlung und das trotz weiter zunehmender CO2-Konzentrationen überall auf der Welt. Abkühlung ist das Gegenteil von Erwärmung. Ob der Abkühlungstrend sich fortsetzen wird? Wir wagen keine Prognose. Aber: Ein Wonnemonat Januar oder gar eine bevorstehende Erwärmungskatastrophe mitten im Winter ist überhaupt nicht in Sicht. Die Trendlinie lässt eher gegenteiliges vermuten. Das Klimamonitoring des DWD zusammen mit den zwei Umweltministerien Bayerns und Baden-Württembergs im Herbst 2016 war ein Treffen der Märchenerzähler, genauso wie das Falschorakel eines Mojib Latif, dass Deutschland keine Winter mehr erleben wird. Oft argumentiert die meist nicht naturwissenschaftlich ausgebildete Führungsriege des DWD gegen die eigenen Daten. Wie lange werden sich das die Fachleute in der 2.ten Reihe des DWD und all die Stationsleiter außerhalb der Städte noch gefallen lassen müssen? Wohl alle der weit über 2000 Wetterstationen in Deutschland dürften einen mehr oder weniger fallenden Trend seit 1988 haben. Als Beispiel wählen wir den Hohenpeißenberg aus.

Grafik 6: Ländliche Stationen zeigen deutlich einen kälter werdenden Januar seit 1988

In Stadtnähe wirkt sofort die Wärmeinsel Großstadt auf die Messstation.

Grafik 7: Die WI-ärmere Station Gießen erwärmte sich seit 45 Jahren im Januar kaum; Frankfurt/Main hingegen merklich. Die Qualität der DWD-Daten ist jedoch oft so mangelhaft (Stationsverlagerungen, Wechsel der Messverfahren), dass die Ergebnisse nur bedingt interpretiert werden können. WI-Effekte sind außerdem sehr verschieden; sie hängen stark von Großwetterlage, Besonnung und eventuellen Stau- oder Föhneffekten ab; tendenziell sind sie bei klarem, windschwachem Wetter am stärksten.

Ist vielleicht Deutschland eine Ausnahme oder gar ein Sonderfall? Wird nur bei uns der Januar kälter? Wir werfen einen Blick in die USA, zur Dale-Enterprise Weather Station in Virginia, der ältesten Wetterstation in diesem Bundesstaat. Die Station hat den Vorteil, dass sie noch ländlicher und noch einen Tick wärmeinselärmer ist als deutsche Stationen. Das Wetterhäuschen steht unverändert bei einer einsamen Farm.

Grafik 8: Ähnlich wie in Deutschland, kühlte sich das WI-belastete Washington D.C. kaum, das ländlichere Dale Enterprise, westlich der Bundeshauptstadt in den Ausläufern der Appalachen gelegen, stärker ab.

Virginia befindet sich in einer zwar auch gemäßigten, aber zu viel stärkeren Schwankungen neigenden Klimazone als Deutschland, zwar ist der Januar dort ähnlich kalt im Durchschnitt wie bei uns, aber die einzelnen Jahre entsprechen sich nicht. So war der Januar 2017 in Deutschland kalt und in Virginia eher warm. Umso erstaunlicher ist der gleichartig fallende Trendlinienverlauf über die jüngste Klimavergleichseinheit. Auch in Ostasien finden sich immer wieder Stationen ohne Januar-Erwärmung; abschließend zwei Beispiele aus Ostasien:

Grafik 9: Keinerlei Januar-Erwärmung im kältesten, dauerhaft normal besiedelten Ort der Welt, Oimjakon/Ostsibirien.

Grafik 10: Im ehemaligen Winter-Olympiaort Sapporo wurde der Januar minimal kälter.

Fazit: Gerade der Monat Januar zeigt, dass Kohlendioxid keine oder fast gar keine Wirkung auf den Temperaturverlauf haben kann. Sogar stark Wärmeinsel-geprägte Orte wie Frankfurt zeigen eine – wenn auch kleinere – Temperaturabnahme.

Die Kohlendioxidzunahme hat in den letzten 30 Jahren beim Januar keine Erwärmung bewirkt, für die leichte Abkühlung gibt es hingegen viele Gründe.

Die ständige Zunahme der Wärmeinseleffekte sind der einzige menschengemachte Temperaturtreiber. Eine Einwirkung mittels CO2 gibt es nicht, das zeigen alle wissenschaftlich sauber durchgeführten Versuche.




Eine Historie von Dr. Ben Santer und seinem IPCC-„Betrug“

Die Arroganz seiner Bemerkungen vor dem Hintergrund der Historie macht diese besonders ungeheuerlich. Noch schlimmer ist, dass er sie in seiner öffentlichen, vom Steuerzahler finanzierten Stellung aus macht. Er hat das Recht auf eigene Meinungen zum Thema Klima, aber er macht etwas, von dem ich glaube, dass er es während seiner gesamten beruflichen Laufbahn gemacht hat und dass seine politischen Ansichten es zuließen, seine Wissenschaft zu färben und zu verzerren. Er stand nicht allein, wie das Groupthink der gesamten Mannschaft an der Climatic Research Unit (CRU) an den Tag legte und wie es aus den durchgesickerten E-Mails hervorging. Noch schlimmer, er war einer der Haupt-Strippenzieher in etwas, das ich den größten Betrug aller Zeiten nenne.

Ein Kommentar zu seinem jüngsten arroganten Sermon steht in einem Beitrag von Eric Worrall mit dem Titel „Ben Santer: We Need Understanding, Not Physical walls, to Address Climate Change.:

Heute sagt man uns, dass Amerika eine Mauer an seiner südlichen Grenze braucht. Man sagt uns, dass wir die Mauer brauchen, um uns vor Vergewaltigern und Terroristen zu schützen; vor jenen, die nicht so sind wie wir, welche anders sprechen oder nicht so aussehen wie wir“.

Nein, das ist nicht das, was man uns sagt. Es stimmt, dass sie sagen, die Mauer dient zum Schutz der Amerikaner vor Vergewaltigern und Terroristen; natürlich sind das Kriminelle, die versuchen, illegal einzureisen, und man sperrt sie entweder ein oder aus. Es stimmt nicht, dass die Mauer dazu dienen soll, all jene, die nicht so sind wie wir, die anders sprechen oder anders aussehen als wir abzuwehren. Sogar Trump höchstselbst sagt, dass alle willkommen sind, sofern sie legal einreisen.

Einschub: Das meiste übrige Material wurde in einem früheren Beitrag auf meiner Website im Jahre 2011 beschrieben. Ich habe das Original hinzugefügt und modifiziert, um meine Argumentation klarer zu machen.

Frühe Anzeichen einer CRU/IPCC-Korruption und Vertuschung

Jüngst haben über 5000 weitere durchgesickerte E-Mails der CRU – bezeichnet als Klimagate 2* – Klarheit geschaffen bzgl. dessen, was vor sich ging. Sie fügen dem Skelett der korrumpierten Klimawissenschaft, wie sie in den 1000 E-Mails von Klimagate 1 offenbar geworden waren, Fleisch hinzu. Sie zeigen, wie und warum man erreicht hatte, was man erreicht hat, und warum intelligente Menschen so verblendet worden sind durch etwas, das Michael Mann „the cause“ nannte. Frühe Anzeichen dessen, was vor sich ging, wurden rasch durch eine meisterhafte PR-Strategie verschleiert.

[*Gab es wirklich so etwas wie Klimagate 2? Warum hat man davon noch nie etwas gehört? Anm. d. Übers.]

Viele können nicht glauben, dass eine kleine Gruppe von Wissenschaftlern eine so massive Auswirkung hervorrufen konnte. Edward Wegman identifizierte in seinem Bericht an den Vorsitzenden des Committee on Energy and Commerce mittels einer Analyse sozialer Netzwerke:

43 Individuen, alle mit engen Beziehungen zu Dr. Mann“.

Er erwartet auch Probleme mit dem Peer Review.

Eine der interessantesten Fragen hinsichtlich der ,Hockeyschläger-Kontroverse‘ ist die nach den Beziehungen der Autoren und Begutachter untereinander und als Folge davon, wie sehr man Vertrauen in den Begutachtungsprozess haben kann“.

Wegman machte noch eine andere Art und Weise aus, wie sie es erreicht haben:

Vor allem ist es so, dass Autoren von Dokumenten mit Bezug zur Politik, wie es beim IPCC-Bericht 2001 der Fall war (Titel: The Scientific Basis), nicht die gleichen Personen sein sollten wie diejenigen, welche akademische Studien durchführen.

Maurice Strong wählte die UN und hier im einzelnen die World Meteorological Organization (WMO), um die Bürokratie innerhalb jeder nationalen Regierung zu kontrollieren, abseits jeder legislativen Überwachung. Jene Bürokratien leiteten Forschungsgelder auf die eine Seite der Debatte und ernannten Personen zur Mitarbeit im IPCC. Die Forschung war einzig auf allein vom Menschen verursachte Änderungen limitiert und mit vorbestimmten Ergebnis. Das politische Ziel wurde eingekleidet in das United Nations Environment Program (UNEP) und hier im Besonderen in die Agenda 21, welche auf der Rio-Konferenz 1992 erstellt wurde, organisiert und geleitet von Maurice Strong.

Mit der Grundlage der Agenda 21 auf Klima und Umwelt verlieh man dieser die moralische Überlegenheit, mit der sie Kontrolle ausübten und Macht zentralisierten. Vaclav Klaus erkannte dies, als er in seinem Buch „Blauer Planet in grünen Fesseln“ (hier) schrieb:

Die heutige Debatte um globale Erwärmung ist im Wesentlichen eine Debatte um Freiheit. Die Umweltaktivisten würden gerne jeden einzelnen und alle möglichen (und unmöglichen) Aspekte unseres Lebens lenken“.

Es ist wahrscheinlich die Agenda 21, über die als „The Cause“ in den durchgesickerten E-Mails diskutiert wird.

Man kann gar nicht den GEWALTIGEN Umfang politischer Interessen in dem Projekt überschätzen, dem Projekt der Botschaft der Regierung bzgl. Klimawandel. Sie wollen, dass diese Story eine sehr starke ist und wollen nicht dumm dastehen“.

Peter Thorne fühlte, was vor sich ging, und gab folgende Warnung aus:

Ich denke außerdem, dass die Wissenschaft manipuliert ist, um ihr einen politischen Anstrich zu geben, was um unser aller Willen langfristig nicht allzu klug ist“.

Die allgemeine Haltung, vorgegeben durch Kommentare und Maßnahmen zeigt, dass das Ziel die Mittel rechtfertigt.

Offensichtlich hat die demonstrierte Fähigkeit, unbesonnen für das vorgegebene Ziel agierende Wissenschaftler zu schützen, diese weiter dazu ermutigt.

Die erste Maßnahme, welche den modus operandi offenbar machte, kam mit dem zweiten IPCC-Bericht 1995. Benjamin Santer ist ein CRU-Absolvent. Tom Wigley war sein Doktorvater. Wigley folgte Hubert Lamb als Direktor der CRU, aber Lamb erkannte seinen Fehler, wie er in seiner Autobiographie 1997 deutlich machte (Titel: Through all the Changing Scenes of Life: A Meteorologists Tale), und zwar als er erklärte, wie eine große Zuwendung von der Rockefeller Foundation gescheitert ist, weil:

…es eine verständliche Differenz der wissenschaftlichen Beurteilung gab zwischen mir und dem Wissenschaftler Dr. Tom Wigley, den wir mit der Koordinierung der Forschung betraut haben“.

Wenn man die durchgesickerten Klimagate-Mails so durchsieht, erfährt man, dass Wigley die relevante Person in Streitfällen war, der Gottvater.

Santers These mit dem Titel „Regional Validation of General Circulation Models“ zog drei Spitzen-Computermodelle heran in dem Versuch, die Bedingungen im Nordatlantik nachzustellen – eine Art der Validierung. Offensichtlich hat er diese Region gewählt, weil es trotz unzureichender Daten die am besten verfügbare Region war. Die Modelle konnten bekannte allgemeine Luftdruck-Verteilungen nicht abbilden. Stattdessen erzeugten sie massive Druckgebilde, die in der Realität niemals existieren. Santer wusste also besser als alle anderen um die ernsten Grenzen und Unfähigkeiten der Modelle bei der Nachbildung der Realität.

Er vervollständigte seine These im Jahre 1987 und wurde ein paar Jahre später beauftragt, Leitautor des 8. Kapitels im IPCC-Bericht 1995 zu werden. Das Kapitel war betitelt mit „Detection of Climate Change and Attribution of Causes“. In dieser Position erzeugte Santer das erste belegbare Beispiel der Manipulation der Wissenschaft seitens des IPCC für eine politische Agenda. Er nutzte seine Stellung, um die Schlagzeile zu etablieren, dass Menschen ein Faktor bzgl. der globalen Erwärmung seien, indem der die Bedeutung dessen, was das Komitee beschlossen hatte, bei einer vorbereitenden Tagung in Madrid als Ganzes veränderte.

Kommentare, die Zustimmung gefunden hatten:

1. Keine der erwähnten Studien hat klare Beweise dafür gefunden, dass wir den beobachteten Klimaänderungen Änderungen der spezifischen Zunahme von Treibhausgasen in der Atmosphäre zuordnen können.

2. Während einige der hier diskutierten Studien die Entdeckung eines signifikanten Klimawandels proklamierten, hat keine Studie bis heute den gesamten oder teilweisen Klimawandel anthropogenen Ursachen zuordnen können.

3. Jedwede Behauptungen einer positiven Erkennung und Zuordnung eines signifikanten Klimawandels werden wahrscheinlich kontrovers bleiben, solange die Unsicherheiten bzgl. der natürlichen gesamt-Variabilität des Klimasystems nicht reduziert werden.

4. Während keine dieser Studien das Thema Zuordnung im Einzelnen angesprochen hatte, ziehen sie doch oftmals Schlussfolgerungen bzgl. Zuordnung, für die es aber kaum eine Rechtfertigung gibt.

Die ersten beiden Punkte änderte Santer still und heimlich folgendermaßen:

1. Es gibt Beweise einer zum Vorschein kommenden Verteilung der Reaktion des Klimas auf Antriebe durch Treibhausgase und Sulfat-Aerosole … aus der geographischen, jahreszeitlichen und vertikalen Verteilung von Temperaturänderungen … Diese Ergebnisse deuten auf einen menschlichen Einfluss auf das globale Klima.

2. Die Gesamtheit statistischer Hinweise in Kapitel 8 ergibt jetzt, wenn man sie im Zusammenhang mit unserem physikalischen Verständnis des Klimasystems betrachtet, einen erkennbaren menschlichen Einfluss auf das globale Klima.

Avery und Singer schrieben dazu im Jahre 2006:

Santer kehrte eigenmächtig die ,Klimawissenschaft‘ des gesamten IPCC-Berichtes um und damit auch den politischen Prozess bzgl. globaler Erwärmung! Der vermeintlich vom IPCC entdeckte ,erkennbare menschliche Einfluss‘ wurde seitdem tausendfach in den Medien auf der ganzen Welt erwähnt und war der ,Aufhänger‘ in Millionen Debatten unter Nicht-Wissenschaftlern.

Bald wurde klar, dass die Bloßstellung eine rasche Vertuschung erforderte. Am 4. Juli 1996 veröffentlichte das offensichtlich als Komplize fungierende Journal Nature einen Beitrag mit dem Titel „A Search for Human Influences on the Thermal Structure of the Atmosphere“ mit einer Autorenliste bekannter Namen – Santer, Wigley, Jones, Mitchell, Oort und Stouffer. Darin fanden sich beobachtete Hinweise, die bewiesen, dass die Modelle richtig waren. Eine Graphik ist so viel wert wie 1000 Worte, wie der Mann’sche ,Hockeyschläger‘ zeigte. Gleiches gilt für Santers ,erkennbaren menschlichen Einfluss‚. John Daly vollzog die Graphik von Santer et al. (Abbildung 1) eines aufwärts gerichteten Temperaturtrends in der oberen Atmosphäre nach:

Abbildung 1

Dann erzeugte Daly eine Graphik mit dem umfangreicheren Datensatz in Abbildung 2 und erklärte:

man erkennt, dass die in Santers Version gezeigte Erwärmung ausschließlich das Produkt der gewählten Daten ist(Hervorhebung von Daly):

Abbildung 2

Zum einfacheren Vergleich sind hier beide Graphiken überlagert:

Abbildung 3

Fehler wurden rasch erkannt, aber Nature hat über die Offenbarung derselben erst 5 Monate später berichtet (am 12. Dezember 1996). Ein Fehler beruhte auf Rosinenpickerei, der andere darauf, dass es eine natürliche Erklärung gab. Allerdings war die PR-Kampagne da schon weltweit im Gange.

Am 25. Juli 1996 sandte die American Meteorological Society (AMS) einen verteidigenden Brief an Santer. Der Brief scheint ein Beweis zu sein für den Einfluss der CRU und ein PR-Meisterstück. In dem Brief wurden zwei Fragen angesprochen: die Wissenschaft und was die Gesellschaft tun muss hinsichtlich der wissenschaftlichen Ergebnisse und der dadurch ausgelösten Debatte. Wissenschaft sollte ausschließlich in ,begutachteten wissenschaftlichen Publikationen – und nicht in den Medien‚ diskutiert werden. Diese Strategie wurde in einer durchgesickerten E-Mail von Michael Mann bestätigt:

Das war die Gefahr, die Skeptiker immer dafür zu kritisieren (sic), die ,begutachtete Literatur‘ nicht zu veröffentlichen“.

Dazu schrieb die AMS:

Was bedeutende wissenschaftliche Informationen sind und wie diese in der politischen Debatte interpretiert werden, ist ein wichtiger Bestandteil unserer Arbeit“. – „Damit sind die ureigenen Gründe der Mischung von Wissenschaft und Politik im IPCC gemeint“.

Nein, das stimmt nicht! Die Mischung ist das ureigene Zentrum des Problems, wie Santer zeigt. Daly bezeichnete dies korrekt als „Scientism“.

Dem Vernehmen nach räumte Santer später ein, „… Abschnitte des IPCC-Kapitels gelöscht zu haben, in welchen es geheißen hatte, dass Menschen nicht für Klimawandel verantwortlich seien“.

Er räumte diese Veränderungen aber nicht zu jener Zeit ein und erreichte sein Ziel, die Botschaft des erkennbaren menschlichen Einflusses weltweit zu etablieren. Er wurde durch die Gruppe geschützt, welcher die Kontrolle über die Begutachtung, über Journale, Fachgesellschaften und Medien oblag – und zwar bis zu dem Zeitpunkt, an welchem die E-Mails durchgesickert waren (November 2009) und dann noch einmal 2011.

In ihrem Buch mit der Zusammenfassung der E-Mails (hier) schrieben Mosher und Fuller:

Man sorgte aktiv dafür, die Forderung von Steve McIntyre im Rahmen des Informationsfreiheits-Gesetzes zu umgehen, indem man E-Mails, Dokumente und sogar Klimadaten einfach löschte.

Man versuchte, die Prinzipien der Begutachtung zu korrumpieren, welche ein Eckpfeiler moderner Wissenschaft sind. Man begutachtete ihre Arbeiten gegenseitig, sabotierte Bemühungen von Opponenten, ihre eigene Arbeiten zu veröffentlichen und bedrohte die Herausgeber von Journalen, welche sich nicht ihren Forderungen beugten.

Man veränderte die Ansichten ihrer eigenen Daten in Materialien, welche den Politikern vorgelegt wurden, damit diese sich daran machen können, die Welt zu verändern und den ,Stillstand zu verschleiern‘, welcher zeigte, dass man ihren Daten nicht vertrauen konnte.

Selbst wenn nur die Hälfte dieser Vorwürfe zuträfe – dann sind das immer noch Aktivitäten, die zu akademischen, wissenschaftlichen und legalen Tadeln führen oder hätten führen sollen, wenn nicht sogar zu Vorwürfen krimineller Akte. Man stelle sich vor, sein eigener Name steht im Zusammenhang mit diesen Dingen. Man würde sich nicht moralisch ergehen bzgl. anderer Wissenschaftler hinsichtlich deren Untätigkeit. Bishop Hill legte eine umfassende Zusammenfassung der E-Mails vor, worin er Personen und Kommentare identifizierte.

[Im Original folgt hier das Bild des Trios, das jedoch wegen urheberrechtlicher Bedenken nicht wiedergegeben wird. Übersetzter Kommentar im Original zu dem Bild: „Hier ist die Bande, bevor der Deckel vom Kochtopf ihrer schändlichen Perversion der Wissenschaft in die Luft flog“. Anm. d. Übers.]

Das gesamte Debakel illustriert meine Bedenken von Anfang an. Wissenschaftler wie Santer sind ihren wissenschaftlichen Stellungen verpflichtet sowie der damit einher gehenden Verantwortung. Meiner Ansicht nach werden sie dieser Verantwortung nicht gerecht. Ebenfalls meiner Ansicht nach legen sie eine unentschuldbare Haltung an den Tag, aber das zu beurteilen ist Sache von Anderen. Ich sage das, weil es genau der Grund ist, warum sich Gerichtshöfe nicht an wissenschaftlichen Streitereien beteiligen. Sie argumentieren zu recht, dass es eine Causa ,deine Studie‘ vs. ,meine Studie‘ ist, und hier ein Urteil zu fällen sind sie nicht qualifiziert. Jetzt wird ein vollständig neuer Satz von Verantwortlichkeiten angeordnet, von denen die Glaubwürdigkeit deiner ,Studie‘ und deiner Maßnahmen nicht die kleinste ist. Jetzt wird es zu meiner ,Studie‘ vs. deiner ,korrumpierten Studie‘.

Santers scheinheilige Kommentare zeigen eindeutig, dass er unfähig ist, seine Politik von seiner Wissenschaft zu trennen. Es ist diese Konfusion und dieser Missbrauch von Klima für eine politische Agenda, welche die wirkliche Bedrohung bzgl. Klimawandel ist – auf beiden Seiten der Mauer.

Link: https://wattsupwiththat.com/2019/01/24/a-history-of-dr-ben-santer-and-his-ipcc-trick/

Übersetzt von Chris Frey EIKE




Reichliche Winter­nieder­schläge 2018/19 in Mittel­europa – ein Grund zur Besorgnis?

Langfristig etwas feuchtere Winter in Deutschland

Das DWD-Flächenmittel des Winterniederschlages für Deutschland liegt seit 1881/82 vor. Bei genauerer Betrachtung erweist sich die langfristige Niederschlagszunahme als moderat, denn sie liegt innerhalb der einfachen Standardabweichung; seit etwa 25 Jahren ist keine weitere Zunahme erkennbar, und der nasseste Winter dieser Reihe liegt mit 1947/48 schon über 70 Jahre zurück:

Abbildung 1: Etwas feuchtere Winter in Deutschland; doch könnten dazu in den Anfangsjahren auch Messfehler beigetragen haben, etwa durch Abschirmung der Beobachtungsorte oder unvollständiges Auffangen und nicht sachgerechtes Auftauen fester Niederschläge. Die pinkfarbene Linie kennzeichnet den Mittelwert der Reihe (172mm); die beiden rotbraunen Linien die Grenzen Mittelwert plus und minus einfache Standardabweichung. Der laufende Winter 2018/19 wurde optimistisch auf 285mm geschätzt; hierzu müsste der Februar aber ähnlich nass wie Dezember und Januar verlaufen, was ungewiss ist.

Die Ursachen der reichlicheren Winterniederschläge – ein Dilemma für die Klimaforschung

Ein möglicher Grund für die langfristig höheren Winterniederschläge könnten höhere Wassertemperaturen des zentralen Nordatlantiks sein. Ein grobes Maß hierfür ist die AMO (Atlantische Mehrzehnjährige Oszillation), welche langfristig anstieg und außerdem eine etwa 60ig- bis 80ig- jährige Rhythmik aufweist (die gegenwärtige AMO-Warmphase begann um 1990 und scheint momentan zu enden). Doch der gefundene Zusammenhang zwischen AMO und Winterniederschlagsmengen in Deutschland ist äußerst dürftig und nicht signifikant:

Abbildung 2: Die Gesamtvariabilität der Winterniederschläge in Deutschland wurde im Zeitraum 1881/82 bis 2017/18 nur zu kümmerlichen 3,5% von der AMO beeinflusst; auch während der AMO-Warmphasen waren die Winter nur undeutlich feuchter. Um beide, zahlenmäßig sehr unterschiedlichen Größen in einer Grafik zu veranschaulichen, wurden die AMO- und Niederschlagsdaten in Indexwerte umgerechnet.

Wesentlich besser lässt sich das winterliche Niederschlagsverhalten durch die langfristige Häufung der Großwetterlagen mit westlichem Strömungsanteil in Mitteleuropa erklären:

Abbildung 3: Mit der langfristigen Häufigkeitszunahme von Großwetterlagen mit westlichem Strömungsanteil wurden die Winter feuchter; in Phasen mit häufigerem Westwetter gab es auch häufiger nasse Winter. Über 30% der Niederschlagsvariabilität werden von der Westlagenhäufigkeit bestimmt; das ist signifikant. Am Ende des 20. Jahrhunderts erreichten Westlagenhäufigkeit und nasse Winter ihr Maximum seit Aufzeichnungsbeginn; seitdem verharren sie auf hohem Niveau. Um beide, zahlenmäßig sehr unterschiedlichen Größen in einer Grafik zu veranschaulichen, wurden nur die Niederschlagsdaten in Indexwerte umgerechnet.

Doch warum häuften sich die winterlichen Westwetterlagen? Das lässt sich bislang nicht umfassend und vollständig erklären. Als Ursachen kommen die schwankende Sonnenaktivität und die NAO (Nordatlantische Oszillation, ein Maß für das Luftdruckgefälle zwischen Azoren und Island) in Betracht; vor allem jedoch ist es das Temperaturgefälle zwischen den niederen und den hohen Breiten. Ist dieses groß (warme niedere und kalte nördliche Breiten), so intensiviert sich der Jet-Stream und mit ihm die Westströmung. Deshalb sind auch winterliche Stürme in Mitteleuropa viel häufiger, ausgedehnter und intensiver als im Sommer, denn während es in den Tropen ganzjährig annähernd gleich warm bleibt, erwärmt sich die Arktis im Sommer auf um oder knapp über Null Grad; während im Winter dort zweistellige Minusgrade herrschen. Aber genau letzterer Zusammenhang bringt die Klima-Aktivisten und Alarmisten in Erklärungsnöte, denn mit der Arktis-Erwärmung und der flächenmäßigen Abnahme des Arktischen Meereises müsste das Temperaturgefälle zwischen niederen und hohen Breiten auch im Winter abnehmen und dann zu weniger Westlagen in Deutschland führen – aber bislang lässt sich kein eindeutiger Zusammenhang finden:

Abbildung 4: Keine Abnahme der Westlagenhäufigkeit in Deutschland trotz schrumpfender, winterlicher Arktiseisfläche. Hier musste zur besseren Veranschaulichung die Westlagenhäufigkeit in Indexwerte umgerechnet werden. Leider liegen die Daten der Meereisbedeckung erst seit Ende der 1970er Jahre vor (Satelliten-Technik). Während seitdem die eisbedeckte Fläche deutlich sank, was aber auch natürliche Ursachen, wie Sonnenaktivität und AMO-Warmphase, haben kann, blieb die Häufigkeit der winterlichen Westlagen in Deutschland seit 1979/80 unverändert.

Gibt es eine Häufung sehr nasser Wintermonate?

Als objektives Maß für einen nassen Wintermonat kann die schon in Abbildung eins dargestellte einfache Standardabweichung dienen – alle Winter oder Wintermonate, welche ihre jeweilige Summe aus Mittelwert und einfacher Standardabweichung überschreiten, können als sehr nass gelten. Es lag also nahe, einmal alle Januar-, Februar- und Dezembermonate eines jeweiligen Jahres in dieser Hinsicht zu untersuchen; anschließend wurde dekadenweise die Häufigkeit der sehr nassen Wintermonate gezählt und grafisch für Deutschland und das vom „Schneechaos“ besonders betroffene Bundesland Bayern dargestellt. Die Ergebnisse sind nicht eindeutig. Zwar ergab sich eine leichte Häufung der pro Dekade nassen Wintermonate; jedoch ohne Signifikanz, und deren größte Häufung trat auch nicht in den wärmsten zwei letzten Dakaden auf, sondern in den 1980er und 1990er Jahren:

Abbildung 5: Die meisten sehr nassen Wintermonate gab es im Deutschen Flächenmittel in den 1980er und 1990er Jahren.

Abbildung 6: Mit 10 sehr nassen Wintermonaten fällt im Flächenmittel für Bayern die Dekade von 1981 bis 1990 auf.

Starke Häufung sehr nasser Wintermonate nur in den Nordalpen – warum?

Wegen der jüngsten starken Schneefälle in Südbayern und dem nördlichen Österreich war es naheliegend, einmal einzelne Orte der Alpenregion zu untersuchen. Leider gibt es nur wenige, langfristig lückenlose Niederschlagsmessreihen, denn die sich anbietende Zugspitze weist kriegsbedingte Lücken auf; und sie beginnt erst 1901. Die HISTALP-Daten sind ebenfalls mit Vorsicht zu genießen – anhand früherer Temperaturuntersuchungen zeigten sich beispielsweise bei der Zugspitze große Diskrepanzen vor 1975 zwischen dem Original-DWD-Datensatz und dem HISTALP-Zugspitzdatensatz. Aber mit dem Säntis am Nordrand der Schweizerischen Alpen fand sich dann doch eine Messreihe mit guter Aussagefähigkeit für den Alpennordrand, wenngleich erst seit 1883/84; außerdem wurde Lugano auf der Alpensüdseite zum Vergleich herangezogen.

Abbildung 7: Merkliche winterliche Niederschlagszunahme auf dem etwa 2.500m hohen Säntis (Alpennordseite), kaum Zunahme in Lugano (Alpensüdseite).

Nun verwundert es kaum, dass auf dem Säntis auch die Anzahl der sehr nassen Wintermonate stark zunahm; in Lugano fehlt hingegen jeglicher Trend:

Abbildung 8: Viel mehr nasse Wintermonate auf dem Säntis; besonders in der aktuellen Dekade.

Abbildung 9: Keinerlei Häufung nasser Wintermonate in Lugano.

Hier stellt sich die Frage nach diesem unterschiedlichen Verhalten – es sind die Häufigkeitsverhältnisse der Großwetterlagen im Winter. Den Nordstau begünstigende Lagen mit nördlichem Strömungsanteil wurden im Winter langfristig häufiger, solche mit südlichem hingegen seltener.

Abbildung 10: Bei starker Fluktuation wurden winterliche Großwetterlagen mit nördlichem Strömungsanteil häufiger. Aktuell tragen sie zu erhöhter Wahrscheinlichkeit starker Niederschläge auf der Alpennordseite ganz wesentlich bei; doch in Zukunft kann auch nicht ausgeschlossen werden, dass sie wieder seltener auftreten.

Schon im Dezember 2018, besonders aber in den ersten zwei Januardekaden 2019, traten Nordwest- und nördliche Troglagen, verbunden mit höhenkalter Luft und starken West- bis Nordwinden, immer wieder in Erscheinung. Sie lenkten feuchte Atlantikluft heran, was im Stau der Alpennordseite zu den massiven Schneefällen führte, eine Lage, die trotz ihrer beeindruckenden Schneemassen so immer wieder mal bei der großen Variabilität unserer Winterwitterung auftreten kann. Ein gutes Beispiel war die Lawinenkatastrophe von Galtür im Februar 1999; die Wetterlagen von damals und heuer ähneln sich sehr:

Abbildung 11a und 11b: Ähnliche Wetterlagen – ähnliche Ereignisse. Oben die Lage vom 05.02.1999; eine Häufung derartiger Lagen führte im Winter 1998/99 zur Lawinenkatastrophe von Galtür. Unten die vom 14.01.2019. Jeweils kräftiges Skandinavien-Tief mit höhenkalter Nordluft und einem kräftigem Ostatlantik-Hoch; zwischen beiden kräftige NW-Strömung mit Stau und starken Schneefällen in den Nordalpen.

Zusammenfassung: Trotz insgesamt leichter langfristiger Zunahme der Winterniederschläge in Mitteleuropa bewegen sich die im Dezember 2018 und Januar 2019 aufgetretenen Niederschlagsereignisse im Rahmen der natürlichen Schwankungsbreite; sie wurden durch intensive, so immer wieder gelegentlich zu beobachtende nordwestliche Großwetterlagen ausgelöst. Die momentane Häufung sehr niederschlagsreicher Wintermonate in den Nordalpen ging mit einer langfristigen Häufigkeitszunahme westlicher bis nördlicher Großwetterlagen einher; ein eindeutiger Zusammenhang mit dem Rückgang der Fläche des Arktiseises oder den hohen AMO-Werten in der jüngeren Vergangenheit lässt sich nicht nachweisen; außerdem fehlen eindeutige Häufigkeitszunahmen sehr niederschlagsreicher Wintermonate außerhalb der Nordalpen. Niederschläge schwanken ohnehin räumlich-zeitlich sehr stark; ihre Erfassung ist oft fehlerhaft, und sie lassen daher kaum Rückschlüsse auf einen möglichen Klimawandel zu.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher