Kollaps des CAGW-Wahns: Nach 2020 nicht mehr haltbar

1. Die Probleme des IPCC mit Globalen Vorhersagemodellen

Harrison und Stainforth schreiben hier:

Dem Reduktionismus zufolge sind deterministische Annäherungen an die Wissenschaft und positivistische Ansichten von Kausalität geeignete Verfahren, um komplexe, multivariable Systeme zu erkunden … wobei das Verhalten eines komplexen Systems abgeleitet werden kann aus dem fundamentalen reduktionistischem Verständnis. Große komplexe Systeme können besser verstanden werden und vielleicht nur verstanden werden hinsichtlich beobachtetem auftretendem Verhalten. Die praktische Auswirkung ist, dass es Verhaltensweisen des und Strukturen im System gibt, die mit Erklärungen oder Prophezeiungen durch reduktionistische Verfahren nicht zugänglich sind … das Globale Zirkulationsmodell GCM ist die numerische Lösung eines komplexen, jedoch rein deterministischen Satzes nichtlinearer Differentialgleichungen über ein definiertes zeitliches und räumliches Netz, und kein Versuch wird unternommen, irgendeine Quantifizierung der Unsicherheit in das System einzuführen … Das reduktionistische Argument, dass großräumiges Verhalten repräsentiert werden kann durch kumulierende Effekte von Prozessen in kleinerem Scale wurde im Zusammenhang mit natürlichen umweltlichen Systemen niemals validiert.

Das Modellierungs-Verfahren ist inhärent wertlos bei der Vorhersage zukünftiger Temperaturen mit irgendeiner berechenbaren Sicherheit, und zwar wegen der Schwierigkeit, die initialen Bedingungen zu spezifizieren in einem hinreichend engmaschigen räumlichen und zeitlichen Netz einer großen Anzahl von Variablen mit hinreichender Präzision vor multiplen Iterationen. Mehr dazu hier und hier.

In Abschnitt IPCC AR4 WG1 8.6 geht es um Antriebe, Rückkopplungen und Klimasensitivität. Die Unzulänglichkeiten der Modelle werden erkannt. Die Schlussfolgerungen finden sich in Abschnitt 8.6.4, wo es unter Anderem heißt:

Außerdem ist noch nicht klar, welche Tests kritisch sind hinsichtlich der Zukunfts-Projektionen, konsequenterweise mit einem Satz von Modellmetrik, der herangezogen werden könnte, um die Bandbreite plausibler Klimawandel-Rückkopplungen und der Klimasensitivität einzuengen. Ein solcher Satz muss noch entwickelt werden“.

Was könnte klarer sein. Im Jahre 2007 sagte das IPCC selbst, dass es noch nicht einmal weiß, welche Metriken man in die Modelle stecken muss, um ihre Zuverlässigkeit zu testen (d. h. wir wissen nicht, wie die Temperatur in der Zukunft sein wird, und wir können nicht die Klimasensitivität hinsichtlich CO2 berechnen). Dies enthält außerdem die Frage, welche irrigen Hypothesen (z. B. dass CO2 der Haupt-Klimatreiber ist) in die „plausiblen“ Modelle eingegangen sind, die auf irgendeine Weise getestet werden sollen.

Selbst das IPCC hat jetzt aufgegeben, die Klimasensitivität CS zu schätzen – im AR5 heißt es (versteckt in einer Fußnote):

Kein Best Estimate für die Gleichgewichts-Klimasensitivität kann angegeben werden wegen fehlender Übereinstimmung bei Werten über abgeschätzte Beweislinien und Studien hinweg“.

Paradoxerweise behaupten sie immer noch, dass das UNFCCC eine gewünschte Temperatur einstellen kann mittels Kontrolle des CO2-Niveaus. Dies ist so extrem unsinnig, dass es irrational ist. Es gibt keine empirischen Beweise dafür, dass das CO2 mehr als nur vernachlässigbare Auswirkungen auf die Temperaturen hat.

Was genauso wichtig ist: Die Klimamodelle, auf denen der gesamte CAGW-Wahn beruht, sind strukturiert ohne jede Berücksichtigung der natürlichen Periodizitäten über ±60 und – noch wichtiger – 1000 Jahre (beobachtetes Verhalten), welche sich so deutlich in den Temperaturaufzeichnungen zeigen. Das Verfahren der Modellierer ist einfach nur eine wissenschaftliche Katastrophe, dem sogar jeder gesunde Menschenverstand fehlt. Es ist genauso, als ob man die Temperaturentwicklung von Februar bis Juli nimmt und diese linear 20 Jahre oder so in die Zukunft projiziert. Die Modelle sind nur für weniger als 100 Jahre zurück ausgelegt, während doch der relevante Zeitrahmen Jahrtausende beträgt.

Abbildung 1: (überarbeitet {grüne Linie hinzugefügt} von Syun_Ichi Akasofu) aus: http://www.scirp.org/journal/PaperInformation.aspx?paperID=3217

Bildinschrift: Die Abbildung zeigt, dass der lineare Trend zwischen 1880 und 2000 eine Fortsetzung der Erholung aus der Kleinen Eiszeit ist, zusammen mit der überlagerten multidekadischen Oszillation. Sie zeigt auch den vom IPCC prophezeiten Temperaturanstieg nach dem Jahr 2000. Es wird angenommen, dass die Erholung aus der Kleinen Eiszeit sich bis zum Jahr 2100 fortsetzen wird, zusammen mit der überlagerten multidekadischen Oszillation. Dies könnte den Stopp der Erwärmung nach dem Jahrtausendwechsel erklären. Die im Jahre 2008 gemessene Temperatur wird mit einem roten Punkt dargestellt mit einem grünen Pfeil. Das IPCC hat vorgegeben, dass der Anteil der dicken blauen Linie hauptsächlich dem Treibhauseffekt geschuldet ist, so dass deren Zukunfts-Prophezeiung eine Art Ausdehnung der blauen Linie ist. – Ende der Bldinschrift.

Abbildung 1 vergleicht die IPCC-Vorhersage mit der Vorhersage aus der Akasofu-Studie und mit der einfachen, aber höchst ökonomischen Arbeitshypothese dieses Beitrages (grüne Linie), dass nämlich der Spitzenwert um das Jahr 2003 der jüngste Spitzenwert im Milleniums-Zyklus ist, der so offensichtlich aus den Temperaturdaten hervorgeht. Die Daten zeigen außerdem, dass der gut dokumentierte 60-Jahre-Temperaturzyklus zufällig etwa zur gleichen Zeit seinen Spitzenwert erreicht.

Die Temperatur-Projektionen der Modelle des IPCC und des UK Met.-Office sowie alle Studien bzgl. der Auswirkungen, die sich daraus ableiten, haben in der empirischen Wissenschaft keine solide Grundlage, sind sie doch aus inhärent nutzlosen und im Besonderen strukturell falschen Modellen abgeleitet. Sie sind keine Grundlage für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Als Grundlage für die Klima- und Energiepolitik der Regierungen muss man diese Vorhersagen als umfangreich falsch und daher schlimmer als nutzlos ansehen.

Ein neues Vorhersage-Paradigma muss her.

2. Die Vergangenheit ist der Schlüssel zu Gegenwart und Zukunft. Herausfinden, wie man die natürlichen Quasi-Periodizitäten vorhersagen kann, die das Erdklima regieren – die geologische Annäherung

2.1 Allgemeine Prinzipien

Die Kern-Kompetenz in den geologischen Wissenschaften ist die Fähigkeit, die sich mit Zeit und Raum ändernden Verteilungen von Ereignissen zu erkennen und zu korrelieren. Dies erfordert eine Denkweise und vielfältige Erfahrung, die sich sehr unterscheidet von der reduktionistischen Annäherung an die Natur, welche jedoch angemessen und notwendig ist, um das Klima der Vergangenheit zu untersuchen und zukünftige Klimatrends vorherzusagen. Wissenschaftler und Modellierer mit physikalischem und mathematischem Hintergrund haben wenig Erfahrung, multiple und oft fragmentarische Datensätze multipler Variablen miteinander zu korrelieren.

Es ist notwendig, das Verständnis dieser Vorgänge zu entwickeln, ebenso wie ein Narrativ allgemeiner Trends aus der tatsächlichen individuellen lokalen und regionalen Zeitreihe bestimmter Variablen. Das Erdklima ist das Ergebnis von Resonanz und Berührungen verschiedener quasi-zyklischer Prozesse mit variierender Wellenlänge.

Die Zukunft vorherzusagen ist nicht möglich, solange wir nicht verstehen, wo sich die Erde gerade befindet relativ zu den gegenwärtigen Phasen dieser unterschiedlichen und in Wechselwirkung stehenden natürlichen Quasi-Periodizitäten, die sich in zwei Hauptkategorien unterteilen:

a) Die orbitalen langwelligen Milankovitch-Zyklen, also Exzentrizität, Schiefe und Präzession, welche moduliert werden durch

b) Solare „Aktivitäts“-Zyklen in möglichen Zeitrahmen von vielen Jahrtausenden, Jahrtausenden, Jahrhunderten und Jahrzehnten.

2.2 Die gegenwärtige Erwärmung in Relation zu den Milankovitch-Zyklen:

Abbildung 2 (aus Wiki-Milankovitch)

Wir haben den Höhepunkt der jüngsten Zwischeneiszeit-Erwärmung überschritten (Abbildung 2) mit einem abnehmenden Trend während der letzten 3500 Jahre (Abbildung 3).

2.3 Die Quasi –  Millennial Solar Cycle -Periodicity:


Abbildung 3: (von http://www.climate4you.com/). Siehe auch den Übersichts-Abschnitt von Humlum)

Man beachte die Spitzen vor 10.000; 9000; 8000; 7000; 2000 und 1000 Jahren vor heute und dann die jüngste Spitze um das Jahr 900, die sich klarer in Abbildung 4 zeigt, und diejenige das Jahres 2003 in Abbildung 5.


Abbildung 4: (Christiansen and Ljungqvist 2012 (Fig 5)   http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf)


Abbildung 5

Den Abbildungen 4 und 5 zufolge erstreckt sich der jüngste Milleniums-Zyklus von etwa 900 bis 2003, also über 1013 Jahre. Dies ist bemerkenswert konsistent mit der Periodizität von 1024 Jahren, die sich in der Analyse der Wellenlänge der Sonnenaktivität abzeichnet (hier). Es ist von Interesse, dass die quasi-millenialen Spitzen in Abbildung 3 aus Grönland stammen, während die 1024-Jahre-Periodizitäten in Abbildung 6 aus der Antarktis stammen:

Abbildung 6

2.4 Der quasi-milleniale Temperaturzyklus – Amplitude

Eine nützliche empirische Schätzung der Amplitude des millenialen Temperaturzyklus‘ auf der Nordhemisphäre kann man mit dem über 50 Jahr gleitenden Mittel (rote Kurve in Abbildung 4) vornehmen. Sie beträgt etwa 1,7°C vom Spitzenwert um das Jahr 900 bis zum Minimum um das Jahr 1640 während der Kleinen Eiszeit. Dies ist übereinstimmend mit der Schätzung von Shindell, Schmidt, Mann et al. (2001) mit dem Thema [übersetzt] Solarer Antrieb der regionalen Klimaänderung während des Maunder-Minimums (hier).

2.5 Der solare Treiber

Der wichtigste Faktor bei der Klimavorhersage ist, wo sich die Erde hinsichtlich des quasi-millenialen natürlichen solaren Aktivitätszyklus‘ befindet, der eine Periode von 960 bis 1024 Jahren aufweist. Aus Abbildung 4 geht trivial hervor, dass die Erde sich unmittelbar vor oder nach einem Spitzenwert im Milleniums-Zyklus befindet.

Das beste Proxy für die Sonnenaktivität sind die Neutronenzählung und die 10 Be-Daten.

Die allgemeine Zunahme der Sonnenaktivität, die für den Temperaturanstieg seit der Kleinen Eiszeit ursächlich ist, zeigt sich offensichtlich in den 10 Be-Flussdaten im Eisbohrkern zwischen etwa dem Jahr 1700 und dem Ende des 20.Jahrhunderts.

Abbildung 7 (von Berggren et al) http://www.eawag.ch/forschung/surf/publikationen/2009/2009_berggren.pdf

Mein Standpunkt auf der Grundlage der Oulu-Neutronenzählung (Abbildung 8) in Kombination mit den Abbildungen 4, 5, 6 und 7 lautet, dass das milleniale Maximum der Sonnenaktivität im Zyklus 22 um das Jahr 1991 erfolgte.

Abbildung 8.

Es gibt eine variierende Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und dem korrespondierenden Spitzenwert der verschiedenen Temperatur-Metriken. Es gibt eine Verzögerung von 12 Jahren zwischen dem solaren Aktivitäts-Höhepunkt und dem millenialen Temperatur-Spitzenwert, wie aus den RSS-Daten im Jahre 2003 hervorgeht (Abbildung 5).

3. Vorhersagen

3.1 Langfristig

Ich glaube fest an den Wert von Ockhams Rasierer. Daher lautet die einfachste Arbeitshypothese auf der Grundlage der Wichtung aller Daten, dass der milleniale Temperaturzyklus um das Jahr 2003 seinen Spitzenwert erreicht hat und dass sich die allgemeinen Trends von 990 bis 2003 (Abbildung 4) von 2003 bis 3016 wiederholen, wobei der Tiefpunkt der nächsten Kleinen Eiszeit um das Jahr 2640 erreicht werden wird.

3.2 Mittelfristig

Betrachtet man die kürzere ±60-Jahre-Wellenlänge, lautet die einfachste Hypothese, dass der Abkühlungstrend seit 2003 einfach ein Spiegelbild des Anstiegs-Trends ist. Dies wird illustriert durch die grüne Kurve in Abbildung 1, welche Abkühlung bis zum Jahr 2038 zeigt, dann eine leichte Erwärmung bis 2073, gefolgt von einer weiteren Abkühlung bis zum Ende dieses Jahrhunderts.

3.3 Gegenwärtige Trends

Der Abkühlungstrend seit dem millenialen Höhepunkt im Jahre 2003 wird in Abbildung 5 in blau illustriert. Ab dem Jahr 2015 ist der dekadische Abkühlungstrend verschleiert durch den gegenwärtigen El Nino. Der SOI erreichte Ende 2015 seinen Höhepunkt. Die Temperaturspitze läuft dem SOI-Höhepunkt gewöhnlich um 6 bis 7 Monate hinterher, so dass es bis April 2016 zu einer weiteren moderaten Erwärmung kommen kann. Danach jedoch, also von 2017 bis 2019 können wir mit guten Gründen eine Abkühlung erwarten, die mindestens so stark ist wie Abkühlung nach dem El Nino im Jahre 1998, wie es aus Abbildung 5 hervorgeht – etwa 0,9°C.

Erwähnenswert ist, dass die Zunahme der Neutronenzählung im Jahre 2007 (Abbildung 8) eine mögliche Änderung des Sonnen-Regimes zeigt, welche eine unerwartet scharfe Abnahme der RSS-Temperaturen 12 Jahre später erzeugen könnte um das Jahr 2019 auf ein signifikant niedrigeres Niveau, als die blaue Linie in Abbildung 5 zeigt.

4. Conclusions

Zum Schaden des Rufes der Wissenschaft allgemein haben die etablierten Klimawissenschaftler zwei ungeheuerliche Fehler der Beurteilung gemacht mit ihrem Verfahren zur Klimavorhersage und folglich mit ihren Ratschlägen an Politiker in den folgenden SPMs. Erstens, sie stellten ihre Analysen auf die Grundlage von inhärent nicht überprüfbarer und vor allem strukturell falscher Modelle, welche viele fragwürdige Hypothesen enthalten. Zweitens, sie haben vollständig die natürlichen, solar angetriebenen millenialen und multidekadischen Quasi-Zyklen ignoriert. Solange wir nicht wissen, wo wir uns relativ dazu befinden und die Phase des millenialen Zyklus‘ im Einzelnen nicht einbeziehen, ist eine sinnvolle Vorhersage schlicht unmöglich.

Es ist in etablierten Klimakreisen Mode, Klimavorhersage als ein „verzwicktes“ [wicked] Problem darzustellen. Ich würde im Gegensatz dazu den Standpunkt verfechten, dass bei einer Berücksichtigung geeigneter Zeit-Scales und Analyseverfahren dies vollständig machbar ist, so dass mit dem gesunden Menschenverstand folgenden Arbeitshypothesen mit hinreichender Genauigkeit und Erfolgschancen eine Anleitung für die Politik formuliert werden kann.

Falls die wirklichen Ergebnisse den kurzfristigen Vorhersagen in Abschnitt 3.3 oben folgen, dann folgere ich daraus, dass die Position des Establishments nach dem Jahr 2020 nicht mehr haltbar ist. Dies ist hinsichtlich Klima unmittelbar bevorstehend. Der wesentliche Punkt dieses Beitrages lautet, dass der Spitzenwert des Jahres 2003 in Abbildung 1 einen millenialen Spitzenwert markiert, der komplett in allen IPCC-Projektionen ignoriert wird.

Link: http://wattsupwiththat.com/2016/03/24/collapse-of-the-cagw-delusion-untenable-past-2020/

Übersetzt von Chris Frey EIKE




Die Epistemologie [= Erkenntnistheorie], die Vorhersage des Klimas so zu erklären, dass auch 8-jährige das verstehen

2. Enkelin Ava fragt: „Wird die Welt verbrennen und woher können wir das wissen?“

Ava – denken wir an wärmere oder kältere Temperaturen draußen. Es ist wärmer, wenn die Sonne tagsüber scheint und nachts kälter, wenn sich unser Teil der Welt von der Sonne abgewandt hat. Du weißt doch schon, dass die Erde 24 Stunden für eine Umdrehung braucht, also für etwas, das wir einen Zyklus nennen von warm zu kalt und wieder zurück.

Du weißt auch, dass es im Sommer viel heißer ist als im Winter und kennst auch den Grund dafür: im Sommer scheint die Sonne länger und steht viel höher am Himmel als im Winter. Jedes Jahr gibt es einen Zyklus von warm zu kalt und wieder zurück – dieser Zyklus dauert 365 Tage. Wissenschaftler haben auf vielfältige Weise gemessen oder geschätzt, wie die Temperatur der Erde hunderte und tausende Jahre in der Vergangenheit war – und haben dabei erkannt, dass es weitere Warm-Kalt-Zyklen gibt. Zwei der bedeutendsten Zyklen haben eine Länge von 60 bzw. 1000 Jahren. Hier ist ein Bild, das einige der 1000-Jahres-Zyklen zeigt:

Abbildung 1. Quelle: http://www.climate4you.com/

Um zu wissen, was in Zukunft passieren könnte, müssen wir als Erstes wissen, wo sich die Erde relativ zu dem 1000-Jahre-Zyklus befindet. Hier folgt eine weitere Graphik, die den Temperaturverlauf der Nordhemisphäre während der letzten 2000 Jahre zeigt. Man beachte besonders, was während der letzten 1000 Jahre passiert ist.

Abbildung 2. Quelle: http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf

Man beachte die Wärmespitze um das Jahr 1000 – dann schaue man darauf, wo wir uns augenblicklich befinden, am rechten Rand der Graphik. Man erkennt deutlich, dass die Erde vor kurzem eine weitere Wärmespitze des 1000-Jahre-Zyklus durchlaufen hat.

Was bedeutet das? Wir wissen, dass die Menge der unseren Teil der Erde erreichenden Sonnenstrahlung oftmals zu Temperaturänderungen um Zehnergrade führt zwischen Tag und Nacht sowie bis zu 100 Grad Temperaturunterschied zwischen den kältesten Winter- und den heißesten Sommertagen. Wir wissen auch, dass die Sonne selbst während der Maxima ihrer zahlreichen Zyklen mehr Energie ausstößt und ein stärkeres Magnetfeld aufweist.

Was macht die Sonne derzeit? Hier folgt eine Graphik, die uns dies zeigt. Man erkennt, dass die Sonne selbst Aktivitätszyklen mit einer Dauer von 11 bis 12 Jahren durchläuft. Je näher die rote Linie dem unteren Rand der Graphik kommt, umso aktiver ist die Sonne, umso stärker ist ihr magnetisches Feld und umso weniger kosmische Strahlung trifft auf die Erde.

Abbildung 3. Quelle: http://cosmicrays.oulu.fi/

Man erkennt, dass die Sonnenaktivität zugenommen hat, das heißt, die rote Linie näherte sich immer mehr dem unteren Rand der Graphik, und zwar in jedem Zyklus bis etwa zum Jahr 1991. Danach liegen die Maxima und Minima näher an der oberen Kante der Graphik, was eine Abnahme der Sonnenaktivität bedeutet. Dies zeigt, dass der Höhepunkt des 1000-Jahre-Zyklus‘ der Sonnenaktivität im Jahre 1991 erreicht worden ist und jetzt eben hinter uns liegt.

Weil es einige Zeit dauert, bis sich die Ozeane erwärmen bzw. abkühlen, gibt es eine zeitliche Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und der Temperatur auf der Erde. Die besten Messungen der globalen Temperatur, die wir haben, stammen von Satelliten. Hier folgt eine Graphik, die die Temperaturänderungen während des Satelliten-Zeitalters zeigt:

Abbildung 4. Quelle: www.woodForTrees.org

Man erkennt, wie sich der Höhepunkt der Sonnenaktivität im Jahre 1991 in einer Wärmespitze der mittleren globalen Temperatur (die grüne steigende und die blaue fallende Linie) etwa 12 Jahre später im Jahre 2003 spiegelt, und dass sich die Erde seitdem leicht abgekühlt hat, was genau zu der abnehmenden Sonnenaktivität seit 1991 bis heute passt.

Aber was ist nun mit der Zukunft?

Nun, die einfachste und wahrscheinlichste Aussage für Anfänger lautet, dass der 1000-Jahre-Zyklus von 2003 bis 3003 einen Temperaturverlauf zeigen wird, der im Allgemeinen ähnlich dem während des Zyklus‘ von 1000 bis 2003 ist – siehe Abbildung 2.

Betrachtet man diese Graphik noch einmal, erkennt man, dass die mittlere Temperatur der Nordhemisphäre um etwas unter 2°C von 1000 bis 1635 zurück gegangen ist, so dass wir eine ähnliche Abkühlung erwarten können von 2003 bis 2638 – natürlich mit zahlreichen Höhen und Tiefen während des Verlaufs.

Die Wärmespitze um das Jahr 1000 war eine gute Zeit für die Menschen. Die Wikinger waren in der Lage, in Grönland zu siedeln. Die Ernten waren gut, und die Menschen in Europa hatten Zeit und Mittel, um mit dem Bau von Kathedralen zu beginnen. Die Kaltzeit der Jahre von 1635 bis 1700 wird das ,Maunder-Minimum‘ genannt. Damals war die Sonne so ruhig, dass die Sonnenflecken verschwanden. In jener Zeit folgten einige besonders kalte Jahre nacheinander, und Millionen Menschen verhungerten, weil die Ernten vernichtet wurden.

Das vom Menschen ausgestoßene CO2 hatte keinerlei Auswirkungen auf diese Temperaturänderungen. Tatsächlich liegt Präsident Obama absolut falsch, wenn er CO2 einen Verschmutzer nennt. Vielmehr ist es das unabdingbar notwendige Nahrungsmittel für Pflanzen. Ohne dieses Gas könnte das Leben, so wie wir es kennen, nicht existieren. Pflanzen wachsen umso besser, je mehr der CO2-Gehalt in der Luft zunimmt. Etwa 25% der Zunahme der Erzeugung von Nahrungsmitteln im 20. Jahrhundert geht einfach auf die Zunahme des CO2-Gehaltes während jener Jahre zurück – ein großer Vorteil für die Menschheit.

Ava fragt: Die blaue Linie verläuft nahezu waagerecht. Wann werden wir sicher wissen, dass wir uns auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden und uns in Richtung einer neuen Kleinen Eiszeit bewegen?

Großvater antwortet: Ich freue mich zu sehen, dass du ein frühes Interesse an Epistemologie entwickelt hast.

Erinnere dich mal, ich habe den 60-Jahre-Zyklus erwähnt. Nun, die Daten zeigen, dass die Wärmespitze des Jahres 2003 nahe eines Maximums sowohl des 60- als auch des 1000-Jahre-Zyklus‘ lag. Falls wir uns jetzt auf dem absteigenden Ast des 1000-Jahre-Zyklus‘ befinden, dürfte das nächste Maximum des 60-Jahre-Zyklus‘ etwa im Jahre 2063 erneut schwächer ausfallen, so dass wir dann in jener Zeit sagen können, dass wir ziemlich sicher auf die nächste Kleine Eiszeit zusteuern.

Das ist jedoch noch lange hin, aber wir werden eine Reihe sehr nützlicher Hinweise schon lange vorher bekommen. Schau noch einmal die rote Kurve in Abbildung 3 – man erkennt darin, dass von Anfang 2007 bis Ende 2009 die Sonnenaktivität auf ihren niedrigsten Stand seit sehr langer Zeit fiel. Erinnerst du dich an die Verzögerung von 12 Jahren zwischen dem Maximum der Sonnenaktivität 1991 und der Wärmespitze 2003? Falls es eine ähnliche Verzögerung als Reaktion auf die geringere Sonnenaktivität gibt, sollte die Erde von 2019 bis 2021 eine Kaltphase durchlaufen.

Es dürfte auch deutlich kühler sein als während der kältesten Zeit des 60-Jahre-Zyklus‘ – auf halbem Weg durch den gegenwärtigen 60-Jahre-Zyklus um das Jahr 2033.

Wir können abwarten, dass diese Dinge geschehen, aber inzwischen behalte im Hinterkopf, dass zyklischen Trends insgesamt zeitweise einige Jahre lang gestört werden können durch El Nino-Ereignisse im Pazifik und die damit verbundenen hohen Temperaturen der Jahre 1998 und 2010 (Abbildung 2) und die wir vor Ende dieses Jahres 2015 sehen könnten.

3. Ava fragt: Es sieht so aus, als würde es kälter werden auf der Erde – warum sagen dann mein Lehrer und Präsident Obama, dass es auf der Erde sehr heiß werden wird und dass die Eisbären alle aussterben werden, wenn ich nicht mehr zur Schule gehe?

Nun, Ava – ich müsste ein Buch schreiben um zu erklären, warum so viele unterschiedliche Menschen so falsch liegen können über so lange Zeit – manchmal mit den besten Absichten. Lass mich dir kurz erzählen, wie das kam.

Im Jahre 1968 hat ein Mann namens Ehrlich ein Buch veröffentlicht mit dem Titel The Population Bomb. Er glaubte, dass die Anzahl der Menschen auf der Welt so stark zunehme, dass es schon bald nicht mehr genug Nahrungsmittel geben würde, um jeden satt zu bekommen. Er schrieb in seinem Buch:

In den siebziger Jahren werden Millionen Menschen den Hungertod sterben trotz einiger Notfallprogramme, die jetzt beginnen. Zu diesem späten Zeitpunkt kann niemand mehr eine substantielle Zunahme der Todesrate in der Welt verhindern“.

Einige Menschen zu jener Zeit wurden sehr besorgt und wollten derartige Dinge abschätzen wie etwa das zukünftige Bevölkerungswachstum, die Erzeugung von Nahrungsmitteln, die Ölversorgung, Industrieproduktion und Mineralreserven. Dazu benutzten sie ein Computerprogramm. Sie wollten mögliche Probleme in der Zukunft erkennen und auch die Möglichkeit erkunden, dass die Völker und Regierungen der Welt sich auf einen Weg einigen können, die Weltwirtschaft so zu betreiben, dass sie nachhaltig ist, das heißt für längere Zeit laufen kann. All das steckten sie in ein Buch mit dem Titel Die Grenzen des Wachstums, das im Jahre 1972 veröffentlicht worden ist.

Ein sehr agiler Geschäftsmann namens Maurice Strong, der eine Menge einflussreicher Leute kannte, überzeugte die UN von dem, was er selbst glaubte und tatsächlich immer noch sehr stark glaubt, dass nämlich dieses Nachhaltigkeits-Problem sehr ernst war. Die UN und Schweden organisierten im Jahre 1972 ein Treffen in Stockholm, um die Wechselwirkungen der Menschen mit der Umwelt zu diskutieren. Strong ist von Natur aus sehr bestimmend, und er und die Konferenz erstellten einen unglaublich detaillierten 109-Punkte-Plan als Information für die UN und als Werkzeug, um sogar Kontrolle über die individuelle Umweltpolitik von Regierungen weltweit zu erlangen. Als eine der Maßnahmen wurde das United Nations Environmental Program ( UNEP) ins Leben gerufen mit Mr. Strong höchstselbst als geschäftsführendem Direktor. Zehn Jahre später war offensichtlich, dass die Prophezeiungen bzgl. bevorstehender Todesfälle und Katastrophen falsch waren. Die Leute bei beim UNEP trachteten aber immer noch danach, Kontrolle über die Weltwirtschaft zu erlangen. Sie erkannten, dass falls sie zeigen könnten, dass Kohlendioxid aus der Verbrennung von Kohle und Öl zur Stromerzeugung und für Autofahrten zu einer gefährlichen Erwärmung der Erde führen könnte, sie in der Lage sein würden, Regierungen und Völker so stark zu ängstigen, dass sie sich unter den Kontrollschirm der UN begeben könnten und zulassen würden, dass diese mittels Kontrolle der Art des Energieverbrauchs und der Preise die Kontrolle über die Wirtschaft erlangen könnten.

Das UNEP organisierte ein Treffen von Wissenschaftlern in der Ortschaft Villach in Österreich im Jahre 1985, um auszuloten, wie sie zeigen könnten, dass CO2 gefährlich ist. Die Wissenschaftler sagten: „Obwohl die beobachtete großräumige Erwärmung der letzten rund 100 Jahre kompatibel ist mit den Modellschätzungen der Größenordnung des Treibhauseffektes, ist eine eindeutige und statistisch überzeugende Erkennung der Effekte eines sich ändernden CO2-Gehaltes auf das Klima noch nicht möglich. Ein bedeutendes Problem hinsichtlich der positiven Identifikation eines Treibhausgaseffektes auf das Klima ist es, die mittel- und langfristigen (Jahrzehnte oder mehr) Fluktuationen in der Vergangenheit zu erklären. Versuche, derartige Änderungen zu modellieren, weisen bis heute eine Anzahl von Schwächen auf“.

Liebe Ava – mit anderen Worten, sie können keinerlei Auswirkungen des menschlichen CO2 auf das Klima beweisen.

Aber wer auch immer das offizielle Statement der Summary und der Empfehlungen geschrieben hat sagte:

„Man glaubt jetzt, dass es als Folge der zunehmenden Konzentration von Treibhausgasen während der ersten Hälfte des nächsten Jahrhunderts zu einem Anstieg der globalen mittleren Temperatur kommen könnte, der stärker ist als alles, was es bisher in der Geschichte der Menschheit gab“.

Der Bericht gab zwei wichtige Empfehlungen. Als Folge der einen davon wurde das IPCC ins Leben gerufen, das die Beweise auswählen und von Zeit zu Zeit Berichte erstellen sollte, die zeigen würden, dass CO2 der Haupttreiber eines gefährlichen Klimawandels sei. Die zweite Empfehlung führte zu einem Treffen in Rio im Jahre 1992 unter Vorsitz von Maurice Strong selbst. Auf diesem Treffen wurde das United Nations Framework Convention on Climate Change (UNFCCC) erstellt, das danach von 196 Regierungen unterzeichnet worden ist.

Sinn und Zweck des Vertrages ist es, die Konzentrationen von Treibhausgasen in der Atmosphäre auf einem Niveau zu halten, das ihrer Ansicht nach eine gefährliche Einmischung des Menschen in das Klimasystem verhindern würde. Dieser Vertrag ist wirklich ein umfassender, politisch getriebener politischer Aktionsplan mit der Bezeichnung ,Agenda 21′. Er soll zu einer zentral gesteuerten globalen Gesellschaft führen, die jeden Aspekt des Lebens eines jeden Einzelnen auf diesem Planeten kontrollieren soll.

Es heißt in diesem Vertrag: „Die Unterzeichneten sollten Vorsichtsmaßnahmen ergreifen, um die Ursachen des Klimawandels zu erfassen, zu verhindern oder zu minimieren und dessen nachteilige Effekte abzuschwächen. Wo ernste oder irreversible Schäden drohen, sollte das Fehlen einer vollen wissenschaftlichen Gewissheit nicht als Grund herangezogen werden, diese Maßnahmen zu verschieben“.

Mit anderen Worten, falls die Modelle zeigen, dass es auch nur eine sehr geringe Wahrscheinlichkeit dafür gibt, dass sehr schlimme Dinge passieren, sollten die Unterzeichneten aber trotzdem agieren, um diese zu stoppen. Aber wie gut sind die Computermodelle?

Die fünf ersten aufeinanderfolgenden Berichte des IPCC in den Summaries for Policymakers, geschrieben von Repräsentanten der Regierungen, machen eine zunehmende Gewissheit ihrer modellbasierten Projektionen geltend hinsichtlich zukünftiger Temperaturen, die in den wissenschaftlichen Abschnitten der Berichte oder von den aktuellen Daten nicht gestützt werden.

Noch einmal zurück zum Treffen in Villach. Von dort hieß es: „in der ersten Hälfte des kommenden Jahrhunderts könnte es zu einem Anstieg der globalen mittleren Temperatur kommen, der stärker ist als alles, was es in der Menschheitsgeschichte bisher gegeben hat“.

Alle Modelle und Projektionen seit 1985 beruhten auf der Hypothese, dass CO2 der Hauptklimatreiber war – aus diesem Grunde und auch aus vielen anderen Gründen sind diese Modelle nutzlos für die Vorhersage zukünftiger Temperaturen.

Hier folgt eine Graphik, was wirklich geschah, als der CO2-Gehalt im 21. Jahrhundert rapide gestiegen war:

Wie man sieht, gab es seit etwa dem Jahr 1997 keinerlei globale Erwärmung mehr.

Die Klimamodelle, auf denen die gesamte Wahnvorstellung der katastrophalen globalen Erwärmung beruhen, wurden ohne Rücksicht auf die natürlichen 60-Jahre- und noch wichtiger auf die 1000-Jahre-Zyklen erstellt, die so deutlich in den Temperaturaufzeichnungen hervortreten. Die Vorgehensweise der Modellierer ist einfach eine wissenschaftliche Katastrophe, der sogar jeder normale gesunde Menschenverstand fehlt. Es ist genauso, als ob man den Temperaturtrend von Februar bis Juli heranzieht und diesen linear auf die kommenden 20 Jahre oder so projiziert. Sie frisieren ihre Modelle so, dass sie weniger als 100 Jahre in die Vergangenheit reichen, obwohl sich der relevante Zeitrahmen über Jahrtausende erstreckt. Dies ist wissenschaftswidriges Verhalten in großräumigem Maßstab.

Die Temperaturprojektionen der Modelle des IPCC und des UKMO sowie sämtliche Studien über die Folgen aus diesen Projektionen haben keine solide Grundlage in der empirischen Wissenschaft, die abgeleitet ist aus durchweg nutzlosen und speziell strukturell betrügerischen Modellen. Sie bilden keine Basis für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Man erkennt schon jetzt, dass deren Prophezeiungen als Fundament für eine regierungsamtliche Klima- und Energiepolitik vollkommen falsch und daher noch schlimmer als nutzlos sind.

Hier folgt eine Graphik, die zeigt, was geschieht, wenn man einen zyklischen Trend in eine gerade Linie projiziert, wie sie es gemacht haben:

Ein neues Vorhersageverfahren muss übernommen werden. Für Vorhersagen von Timing und Ausmaß der auf natürlichen solaren Zyklen beruhenden kommenden Abkühlung – am Wichtigsten ist dabei der Zeitrahmen von Jahrtausenden – siehe meinen Beitrag hier. Dessen Abschnitt 1 enthält eine vollständige Diskussion der Nutzlosigkeit der Klimamodelle.

Im ,Novum Organum‘ (das neue Instrumentarium zur Aneignung von Wissen) klassifizierte Francis Bacon die intellektuellen Trugschlüsse seiner Zeit in vier Bereiche, die er Idole [idols] nannte. Der vierte davon wurde beschrieben als:

Idols des Theaters sind jene, die auf Spitzfindigkeiten und falsches Lernen beruhen. Diese Idols bestehen in den Bereichen Theologie, Philosophie und Wissenschaft; und weil sie durch gelehrte Gruppen vertreten werden, werden sie ohne Nachfrage von den Massen akzeptiert. Wenn falsche Philosophien kultiviert worden sind und eine große Dominanz in der Welt des Intellekts erreicht haben, werden sie nicht mehr in Frage gestellt. Falsche Über-Strukturen werden auf der Grundlage falscher Fundamente erhoben, und am Ende zeigen Systeme ohne jeden Wert ihre Pracht auf der Weltbühne.

Die Klimawissenschaft ist Opfer dieser vierten Art von Idols geworden. (Zu den 4 Idols mehr hier)

Link: http://wattsupwiththat.com/2015/08/31/the-epistemology-of-explaining-climate-forecasting-so-an-8-year-old-can-understand-it/

Übersetzt von Chris Frey EIKE