Die Menschen werden immer dümmer – und der Klima­wandel ist nicht schuld daran

Forschung: Menschen werden immer dümmer …

lautete die informative Überschrift einer renommierten Postille [1]. Wissenschaftler in Norwegen haben festgestellt, dass die Bewohner von Norwegen von 1905 bis heute dümmer geworden sind. Sie sind sich darin so sicher, dass sie die Vermutung äußern, der IQ der norwegischen Bevölkerung würde in den nächsten hundert Jahren um weitere sieben, bis zehn Prozent abfallen [5].
BUSINESS INSIDER: [1]Seit Jahren gibt es Anzeichen dafür, dass der durchschnittliche IQ weltweit sinkt. Die norwegischen Forscher Bernt Bratsberg und Ole Røgeberg vom Frisch Centre der Universität Oslo konnten das nun erstmals anhand der norwegischen Bevölkerung nachweisen.
Während der Schnitt seit der Entwicklung des ersten massentauglichen Intelligenztests im Jahr 1905 immer weiter anstieg und im Jahr 1975 sogar einen Durchschnittswert von 102 erreichte, sank er danach bis zum Jahr 1990 stetig auf unter 100 Punkte ab. Wie die Forscher vermuten, könnte der IQ innerhalb der nächsten hundert Jahre sogar um ganze sieben bis zehn Punkte abfallen.

Das sind nicht hoch genug zu achtende Forschungsergebnisse – wie man sie sonst nur aus der modernen Klima(Folgen)-Forschung kennt. Anhand genauer und mit heutigen IQ-Messungen bestimmt vergleichbaren Daten von 1905 wurden komplexe, statistische Analysen durchgeführt [6]. Mit erschreckendem Ergebnis und noch erschreckenderer, aber präziser Hochrechnung für die kommenden 100 Jahre.
Norwegens Bevölkerung ist dann mit einer – dank hochwertiger, wissenschaftlicher Arbeitsweise engen Vorhersage-Genauigkeit, um 8,5 +-1,5 (7 … 10) Intelligenzpunkte dümmer geworden.
Ein solcher „IQ-Proxy“ erlaubt auch eine Hochrechnung auf die Welt-Gesamtpopulation „ ,,, der durchschnittliche IQ weltweit sinkt“.

Nicht Klima- sondern Umweltfaktoren sollen der Grund dafür sein

Klar wurde mit wissenschaftlicher Akribie auch nach den Gründen gesucht. Und es fand sich kein Klimawandel darunter! Es sollen nun „Veränderungen im Bildungswesen“ und Mediennutzungen sein … Wer wäre bisher ohne neue Forschungen nur auf solche weit, weit weg vom Thema liegende Möglichkeiten gekommen?
BUSINESS INSIDER: [1]Für ihre Studie ermittelten die Wissenschaftler den Intelligenzquotienten von Testpersonen … und untersuchten außerdem genetische Veränderungen und Veränderungen, die verschiedenen Umweltfaktoren zuzuschreiben sind … Vielmehr sollen Umweltfaktoren für diesen negativen Trend verantwortlich sein. Dazu zählen den Forschern zufolge Veränderungen im Bildungswesen, bei der Nutzung verschiedener Medien sowie bei der Ernährung …

Statistik

Wenn man schon beim Nachsehen ist, anbei ein paar Daten [7]:
– Singapur hat Rang 1 mit einem IQ von 108
– Deutschland Rang 15 mit einem IQ von 100 (gleichauf mit Österreich)
– Norwegen Rang 19 mit einem IQ von 99
– Frankreich und USA Rang 26/27 mit einem IQ von 98
(der gleiche IQ wählt einmal Trump und einmal Macron. Vielleicht unterscheiden sich die Beiden gar nicht so stark)
– Äquatorialguinea steht an letzter Stelle mit Rang 109 und einem IQ von 56

Obwohl die Norweger also dümmer geworden sind, liegen sie lediglich einen einzigen, wohl kaum unterscheidbaren Punkt niedriger als Deutschland. Nun wäre es interessant zu wissen, wo Deutschland im Jahr 1905 stand.

Es gibt verschiedene Korrelationen

Anbei die Korrelation zwischen den Bildungsausgaben und IQ-Rang eines Landes (Rang 0 ist der Spitzenplatz). Leider ist nicht erkennbar, wie sich diese Bildungsausgaben zusammensetzen. Manche werden ahnen, welche Länder weit links stehen. Der Kontinent mit den meisten Länderprobanden liegt auf dem Globus in Südrichtung direkt unter uns.

Bild 1 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Bildungsausgabe/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Fast identisch sieht das Diagramm zwischen dem IQ-Länder-Ranking und mittlerem Einkommen aus.

Bild 2 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), Einkommen/Einwohner, logarithmische Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Trotzdem war noch etwas mit Intelligenz und Klima

Laenderdaten.Info: [7]Ist Intelligenz abhängig vom Klima?
Schon seit 1991 besteht die Vermutung, dass über Generationen anhaltende Wärme sich auf den IQ auswirkt. Man ging zunächst davon aus, dass ein Leben in niedrigeren Temperaturen eine höhere körperliche Fitness voraus setzt und höhere soziale Anforderungen an das Leben stellt. Richard Lynn, Professor an der nordirischen University of Ulster geht zudem davon aus, dass die kälteren Temperaturen das Gehirnvolumen ansteigen lassen. Ob die Gehirngröße mit der Intelligenz überhaupt in Verbindung steht, ist allerdings umstritten.
Generell gilt ein heißes Klima als nachteilig für die Entwicklung von Intelligenz. Der Grund hierfür wird heutzutage vorwiegend in dem hohen körperlichen Energiebedarf und dem
dadurch entstehenden Stress gesehen. Insbesondere Kleinkinder verwenden bis zu 90% der Körperenergie für das Gehirn. Wenn in dieser für die Entwicklung wichtigsten Lebensphase die Energie anderweitig benötigt wird, kann sich das Gehirn nicht entsprechend entwickeln.
Dazu die Grafik mit dem Scatterdiagramm zwischen IQ-Rang (Rang 0 ist der Spitzenplatz) und der mittleren Tageshöchsttemperatur. Es zeigt sich ein eindeutiger Zusammenhang. Mehr Tageshitze macht das Landesranking und damit den IQ schlechter.
Nach anderen Ursachen braucht niemand mehr zu suchen, erlauben es sich Klimawandel-Forscher zu solch eindeutigen Diagrammen zu sagen. Diese „eindeutige“ Bild wird nur dadurch gestört, dass die schlimmen Ausreißer erfolgreiche, asiatische Staaten sind.

Bild 3 Scatterdiagramm IQ-Länderrang (Rang 0 = bester Platz), mittlere Tageshöchsttemperatur °C, Lineare Regressionskurve. Datenquelle: [7] Grafik vom Autor erstellt

Damit kann jeder relativ leicht entscheiden, ob das Klima (wie es Wissenschaftler vemuten), oder Anderes (mehr) am IQ „dreht“.
Noch etwas Interessantes findet sich auf der IQ-Infoseite. Der IQ schwankt je nach psychischer Verfassung mit einer Spanne von 20 (+-10) Punkten:
Laenderdaten.Info: [7]Der Intelligenzquotient wurde so bemessen, dass der Mittelwert bei 100 liegt. Bei einer Standardabweichung von 15% ist also ein IQ zwischen 85 und 115 als normal anzusehen. Je nach psychischer und physischer Verfassung des Probanden können zudem die Messergebnisse um bis zu 10 Punkte nach oben und unten schwanken.
Nun stelle man sich vor, die psychische Verfassung der Proband*innen hat sich die letzten Jahre durch die dauernde, mediale Klimawandelfolgen-Hysterie verändert. Dann ließen sich die wenigen Punkte „Verdummung“ und der minimale Abstand zu Deutschland leicht erklären.
Mit ganz geringem „Bildungsaufwand“ wäre es dann auch möglich, die Norweger vor dem 8,5 +-1,5 IQ-Punkteverlust in 100 Jahren durch einfache (psychische) Maßnahmen zu heilen.

Quercheck

Keine Sichtung ohne den obligatorischen Quercheck. Gibt es etwa in Deutschland Anzeichen, dass – wie in [7] berichtet wird -, die Temperatur im Babyalter Einfluss auf den IQ hat.
Es findet sich eine Quelle mit umfassender Information:
P.M. Magazin (gekürzt): [8] Der Geburtsmonat prägt unser Leben entscheidend
… Der Geburtsmonat eines Menschen hat nachweislich Einfluss auf seine Entwicklung, Gesundheit, Charakter und Beruf, berichtet die Zeitschrift P.M. MAGAZIN in ihrer Februar-Ausgabe. Eine große Rolle spielen dabei die äußeren Einflüsse, denen ein Kind zum Zeitpunkt der Geburt und in den Monaten zuvor im Mutterleib ausgesetzt ist.
Ausgewählte Merkmale für jeden Geburtsmonat:
Januar: höheres Risiko für Schizophrenie, Epilepsie und Alzheimer; tendenziell Frühaufsteher
Februar: höheres Risiko für Essstörungen und Pollenallergien
März: überdurchschnittlich früh einsetzende Wechseljahre bei Frauen; höheres Risiko für Alkoholismus und Kindheit-Diabetes
April: höhere Kinderzahl und Körpergröße bei Männern; tendenziell geringerer Intelligenzquotient
Mai: überdurchschnittlich viele Selbstmorde; erhöhtes Multiple-Sklerose-Risiko; eher Nachtmenschen
Juni: geringes Geburtsgewicht; viele Nobelpreisträger …

So wirklich Hilfreiches findet sich darin nicht. Im April geborene Männer haben einen geringeren Intelligenzquotient. Aber drei Monate später im Hochsommer Geborene können bereits Nobelpreisträger werden. Das war es aber schon über das gesamte Jahr mit einem Temperatureinfluss. Richtig zwingend Temperatur-korrelativ erscheint dies nicht.
Zur wichtigen Eigenanamnese vor Besuchen beim Arzt oder Psychologen ist diese Listung allerdings gut zu gebrauchen. Man kann sich damit als kompetenter Patient fühlen.
Quellen
[1] BUSINESS INSIDER Deutschland 14.06.2018, Jessica Dawid: Die Menschen werden immer dümmer — jetzt gibt es einen wissenschaftlichen Beweis
[2] EIKE 20.02.2018: Der Klimawandel macht dumm
[3] WUWT October 17, 2012: Claim: CO2 makes you stupid? Ask a submariner that question
[4] EIKE 14. Juni 2018: AfD Abgeordnete führen Ministerin Schulze vor – Auf klare einfache Fragen nur verschwiemelte, ausweichende Antworten
[5] Bernt Bratsberg and Ole Rogeberg, Studie: Flynn effect and its reversal are both environmentally caused
[6] Bernt Bratsberg and Ole Rogeberg: Supplementary Information for “The Flynn effect and its reversal are both environmentally caused” Authors:
[7] Laenderdaten.Info: Der IQ im Ländervergleich
[8] Gruner+Jahr, P.M. Magazin, 16.01.2014: Der Geburtsmonat prägt unser Leben entscheidend




Jenseits ENSO: Neue Signale jahres­zeitlicher und mehr­jähriger Vorhersag­barkeit

Das Climate Forecast Application Network CFAN* hat seine Prognose-Bemühungen auf die Überbrückung dieser Lücke konzentriert, indem es Prognosen extremer Ziel-Abschätzungen des Vertrauens in die Vorhersage abgibt.

[*Man könnte das etwa übersetzen zu Netzwerk der Anwendung von Klima-Prognosen. Anm. d. Übers.]

Abbildung 1: Brauchbarkeit von Vorhersagen für das Risiko-Management


Diese Abbildung illustriert das Konzept der probabilistischen Wettervorhersage mittels eines globalen Prognose-Systems von Ensemble-Modellen.

Für jede Vorhersage errechnet das globale Modell ein Ensemble multipler Vorhersagen, initialisiert mit leicht unterschiedlichen Anfangszuständen. Das Modell der europäischen Wetterzentrale ECMWF hat eine Ensemble-Größe von 51 Vorhersagen. Eine Einzelvorhersage (sagen wir mal der goldene Punkt in Abbildung 2) kann ziemlich weit entfernt liegen vom tatsächlich beobachteten Ergebnis (der rote Punkt). Falls das Ensemble groß genug ist, kann eine bedeutsame probabilistische Vorhersage gegeben werden. Ziel der probabilistischen Vorhersage ist es, das beobachtete Ergebnis (der rote Punkt) in einen Probabilitäts-Raum zu bringen (reflektiert durch die dunkelblaue Fläche), welcher deutlich kleiner ist als der der Klimatologie (hellblaue Fläche).

Die tatsächliche Modellprognose wird durch die grüne Fläche charakterisiert. Die potentielle Vorhersagbarkeit des Modells wird charakterisiert durch die dunkelblaue Fläche. Diese potentielle Vorhersagbarkeit kann sich in einer Vorhersage niederschlagen mittels Kalibrierung der Vorhersage und Verfahren der Interpretation der Ensembles.

Abbildung 2: Ensembles und probabilistische Wettervorhersage

Die Herausforderung der probabilistischen Klimavorhersage ist: um das beobachtete Ergebnis zu erfassen, muss die Ensemble-Größe sehr groß sein und so groß werden wie die Klimatologie. Die Herausforderung wird noch stärker, wenn sich das Klima ändert, etwa in Gestalt einer allmählichem globalen Erwärmung oder einer abrupten Verschiebung in einem Klimaregime wie etwa der Atlantischen Multidekadischen Oszillation AMO.

Abbildung 3: Ensembles und probabilistische Klimavorhersage

Für Wettervorhersagen in einer zeitlichen Größenordnung von 2 Wochen oder weniger können Ensemble-Vorhersagemodelle bedeutsame Probabilitäten liefern. Dieser Zeitrahmen wird zu einem Zeitrahmen kürzer als Jahreszeiten erweitert, potentiell bis zu 6 Wochen. Allerdings zeigen Vorhersagen, die über 2 Monate hinaus gehen, oftmals wenig Bezug zur Wirklichkeit, und derartige probabilistische Vorhersagen können tatsächlich Entscheidungsträger in die Irre führen. Im Zeitrahmen von Jahreszeiten werden typischerweise prognostische Einsichten vermittelt, während ein Prognostiker die Modellprognosen in eine Analyse von Analogien und vielleicht ein paar statistischen Vorhersageverfahren integriert.

Abbildung 4: Vorhersagbarkeit, Vorhersage und Szenarien

Eine Lücke in der Vorhersagbarkeit ist um 1 Jahr erkennbar, sie ist dort nur sehr gering. Vergrößert man den Zeitrahmen, steigt die Vorhersagbarkeit wieder, und zwar assoziiert mit längerfristigen Klima-Regimes. Allerdings werden die Vorhersagen zunehmend unsicher, wenn man den Zeitrahmen immer mehr verlängert.

Mögliche Zukunfts-Szenarien können nummeriert, aber nicht eingeordnet werden, z. B. wegen Unsicherheit.

Eine brauchbare Langfristvorhersage lässt die Möglichkeit offen, falsch oder auch überraschend zu sein in Verbindung mit abrupten Änderungen oder Schwarzer-Schwan-Ereignissen. Es ist höchst sinnvoll, derartige Ereignisse von vornherein als Möglichkeit zuzulassen.

Die entscheidende Herausforderung der Vorhersage ist es, den Zeitrahmen für bedeutsame Probabilitäts-Vorhersagen und für die prognostischen Abschätzungen der Wahrscheinlichkeit zukünftiger Ereignisse auszuweiten.

Wie können wir diese Prognose-Horizonte erweitern?

ECMWF ENSO Prognosegüte

Verbesserungen der globalen Klimamodelle helfen, den Zeitrahmen für bedeutsame probabilistische Vorhersagen auszudehnen.

Die folgende Abbildung vergleicht Vorhersagen der El Nino Southern Oscillation ENSO mittels der jüngsten Version des europäischen Modells ECMWF im Vergleich mit der vorherigen Version dieses Modells. Die Y-Achse ist der Monat der Initiierung, und die X-Achse repräsentiert den Vorhersage-Zeithorizont in Monaten. Die Farben repräsentiert die Stärke der Korrelation zwischen historischen Vorhersagen und Beobachtungen.

Abbildung 5: ECMWF ENSO Prognosegüte

Das bemerkenswerteste Phänomen in diesem Diagramm ist der Einbruch der Vorhersagbarkeit im Frühjahr [ein unter Synoptikern von Anfang an bekanntes Phänomen]. Initialisiert man eine Vorhersage im April, wird die Prognosegüte bis Juli rapide abnehmen, und der Korrelationskoeffizient sinkt unter 0,7 (weiße Fläche). Wird jedoch eine Prognose im Juli initiiert, bleibt die Vorhersagegüte für die folgenden 7 Monate und auch darüber hinaus sehr hoch.

Die Güte der neuen ECMWF-Version findet sich rechts, und man erkennt eine substantielle Verbesserung. Zwar unterscheidet sich das Farbschema etwas, doch kann man erkennen dass die weiße Fläche mit einem Korrelationskoeffizienten unter 0,7 viel kleiner ist. Dies ist ein Anzeichen, dass das Modell hinsichtlich des Einbruchs im Frühjahr viel besser agiert.

Die verbesserte Güte in Version 5 wird Verbesserungen des Ozean-Modells zugeordnet, ebenso wie Parametrisierungen der tropischen Konvektion.

Abbildung 6: Klima-Vorhersage: Signale des Problems des Rauschens

In Zeitrahmen über ein paar Wochen hinaus besteht die Herausforderung darin, die vorhersagbaren Komponenten zu identifizieren. Unter diesen Komponenten sind:

jedweder langfristige Trend

Regimes und Fern-Wechselwirkungen

sowie jedwede zyklische oder jahreszeitliche Effekte.

Hat man vorhersagbare Komponenten erst einmal identifiziert und isoliert, kann man loslegen.
Die Herausforderung besteht darin, die vorhersagbaren Komponenten vom ,Rauschen‘ zu trennen. Darunter sind:

unvorhersagbare chaotische Komponenten

Zufallsvariabilität des Wetters

Modellfehler

Die größte Herausforderung sind Verschiebungen der Regimes, vor allem, wenn diese Verschiebungen durch Zufallsereignisse ausgelöst wurden. Man erinnere sich, im Jahre 2015 sah es wirklich so aus, als würde sich ein El Nino entwickeln. Dessen Entwicklung wurde jedoch vereitelt durch zufällige starke Ostwinde im tropischen Pazifik. Diese fehlgeschlagene Entwicklung des Jahres 2015 bahnte den Weg für den Super El Nino des Jahres 2016.

Abbildung 7: Klimavorhersage: können wir die Klimatologie schlagen?

Die große Frage bei einer Klimavorhersage ist, ob man die Klimatologie schlagen kann. Die Vorhersagegüte ist von vielen Dingen abhängig.

Die Initialisierung einer Vorhersage relativ zum jahreszeitlichen Zyklus ist eine bedeutende Determinante der Güte. Auch ist eine Vorhersage, die während eines fest bestehenden Regimes initialisiert wird wie etwa einem El Nino, besser.

Eine der bedeutendsten prognostischen Erkenntnisse, den ein Prognostiker liefern kann ist, ob die aktuelle Vorhersage die Klimatologie schlagen kann.

Das Vorhersagefenster der Gelegenheit, Fenster bzgl. Raum und Zeit zu identifizieren ist größer, wenn die erwartete Vorhersagegüte größer als gewöhnlich ist, weil dann bestimmte Phasen großräumiger Zirkulationen vorherrschen.

Ich verwende oft eine ,Poker‘-Analogie, wenn ich dies Energiehändlern erkläre – man muss wissen, wie man weitermachen soll [im Original steht hier das unübersetzbare Wortspiel ,hold‘ or ,fold‘. Anm. d. Übers.]. Hinsichtlich einer Vorhersage ist dies der Unterschied zwischen Vorhersagen mit geringem oder hohem Vertrauen.

Abbildung 8: von Daten bestimmte Prognoseverfahren

Statistische Vorhersagen wurden viele Jahrzehnte lang verwendet, bevor globale Klimamodelle entwickelt worden sind, besonders für die Monsunregen in Asien. Traditionelle statistische Vorhersagen waren Zeitreihen auf der Grundlage von Analogien während der Vergangenheit. Während in diese Verfahren Erkenntnisse der Klimadynamik einfließen, haben sie sich als zu simplizistisch erwiesen, und außerdem gibt es nur eine unzureichende Anzahl von Analogien während der Vergangenheit.

Die größte Herausforderung für statistische Vorhersagen ist, dass sie bei einer Verschiebung von Regimes keinerlei Aussagekraft mehr haben. Man erinnere sich an das Jahr 1995, als das statistische Hurrikan-Vorhersagemodell von Bill Gray nicht mehr funktionierte, nachdem sich die atlantische Zirkulation verändert hatte. Ein Beispiel aus jüngerer Zeit ist die Bewertung der Schneebedeckung im Oktober in Sibirien. Diese heranzuziehen funktionierte auch nicht mehr, nachdem sich das Klimaregime verändert hatte.

Gegenwärtig ist die Analytik von Big Data der letzte Schrei bzgl. der Vorhersage von Wetter und Klima. IBM-Watson ist ein Beispiel. Mathematiker und Statistiker bringen Verfahren der Datengewinnung und künstlicher Intelligenz ins Spiel für die Wetter- und Klimavorhersage.

Der Guru künstlicher Intelligenz Richard DeVeaux nennt das folgende Rezept dafür, erfolgreich zu sein:

Gute Daten + Fachkenntnisse + Datengewinnung + Nachdenken = Erfolg

Die eingrenzenden Zutaten sind Fachkenntnis und Nachdenken. Ohne gute Kenntnisse der Klimadynamik wird Katzengold das Ergebnis jedweder Klimavorhersage auf der Grundlage von Datengewinnung sein.

Abbildung 9: Jahreszeitliche bis jährliche Vorhersagen: Prognostische Erkenntnisse → probabilistische Vorhersagen.

Der Weg zu einer Ausdehnung des Zeithorizonts für bedeutsame probabilistische Vorhersagen ist es, globale Klimamodelle mit Erkenntnissen von Vorhersageverfahren auf der Grundlage von Daten zu integrieren.

Das Problem der Klimamodell-Vorhersagen ist, dass sie nach ein paar Monaten unvermeidlich in die Klimatologie abgleiten. Das Problem von Vorhersagen auf der Grundlage von Daten ist deren schlechte räumlich-zeitliche Auflösung.

Diese können integriert werden, indem die Klimamodell-Ensemble-Mitglieder anordnet um Prädiktoren aus auf Daten basierenden Vorhersagen zu Gruppen zusammengefasst werden.

Vertrauensabschätzungen können vorgenommen werden auf der Grundlage der Wahrscheinlichkeit einer Regime-Verschiebung.

Vorhersagen auf Daten-Grundlage: Analyse der Klimadynamik

Bei Verfahren zur Klimavorhersage auf der Grundlage von Daten ist es unabdingbar, die Bandbreite der Klimaregimes zu kennen, welche unsere Vorhersage beeinflussen können. Diese Regimes zeigen die Erhaltensneigung im Klimasystem. Die Herausforderung besteht darin, die geeigneten Regimes zu identifizieren, deren Auswirkung auf die gewünschten Vorhersage-Variablen zu verstehen und die Vorhersage zukünftiger Verschiebungen dieser Regimes.

Die CFAN-Analyse der Klimadynamik enthält die Betrachtung dieser 5 Zeitrahmen und deren damit assoziierten Regimes. Sie reichen vom jährlichen Zyklus bis zu multidekadischen Zeitrahmen.

Zustände der Zirkulation: Quellen der Vorhersagbarkeit

Unsere Bemühungen zur Datengewinnung haben eine Anzahl neuer Zirkulations-Regimes identifiziert, die als Prädiktoren brauchbar sind über eine Bandbreite von Zeitmaßstäben. Darunter sind:

Nordatlantische ARC-Zirkulation

Indo-Pazifik-Atlantik-Zirkulation

Anomalien hemisphärischer stratosphärischer Zirkulation auf beiden Hemisphären

Bipolare Zirkulation in der Stratosphäre

NAOX: Nordatlantische SLP/Windzirkulation

Globale Zirkulationen von Nord-Süd-Winden in der oberen Troposphäre/unteren Stratosphäre

Nordatlantische ARC-Zirkulation

Abbildung 10: Nordatlantische ARC-Zirkulation

Im Atlantik ist aktuell eine faszinierende Entwicklung zu beobachten. Abbildung 10 zeigt Anomalien der Wassertemperatur im Atlantik für den Monat Mai. Man erkennt einen Bogen kalter blauer Temperaturanomalien, welcher sich vom äquatorialen Atlantik entlang der Küste von Afrika erstreckt und dann in ein von Ost nach West verlaufendes Band südlich von Grönland und Island mündet. Diese Verteilung bezeichnet man als die atlantische ARC-Zirkulation.

Abbildung 11: ARC-Wassertemperatur-Anomalien im Nordatlantik

Eine Zeitreihe von Wassertemperatur-Anomalien im ARC-Gebiet seit 1880 zeigt, dass sich Änderungen mit scharfen Verschiebungen manifestieren. Man erkennt derartige Verschiebungen in den Jahren 1902, 1926, 1971 und 1995.

In der unteren Graphik erkennt man, dass die ARC-Temperaturen während der letzten paar Monate einen schroffen Rückgang zeigen. Ist dies jetzt lediglich eine Kalt-Anomalie wie im Jahre 2002? Oder wird hier eine Verschiebung in die Kaltphase eingeläutet?

Die CFAN-Forschungen haben Präzedenzen der Verschiebungen identifiziert. Gegenwärtig arbeiten wir aktiv daran, die jetzige Lage richtig einzuordnen.

Kaltphase der atlantischen AMO: Auswirkungen

Es wird erwartet, dass eine Verschiebung hin zur Kaltphase der AMO ausgeprägte Auswirkungen haben wird. Diese Erwartung speist sich aus Verschiebungen während der Vergangenheit:

verringerte Hurrikan-Aktivität im Atlantik

verstärkte Regenfälle in den USA

verringerte Regenfälle in Indien und der Sahel-Zone

Verschiebung der Fischbestände im Nordatlantik

Beschleunigung des Meeresspiegel-Anstiegs an der nordöstlichen US-Küste

Abbildung 12: Auswirkungen der AMO auf atlantische Hurrikane

Die Atlantische Multidekadische Oszillation übt auf atlantische Hurrikane einen substantiellen Einfluss aus. Die obere Graphik zeigt die Zeitreihe der Anzahl starker Hurrikane seit dem Jahr 1920. Die Warmphasen der AMO sind gelb schattiert. Man erkennt eine substantiell höhere Anzahl starker Hurrikane während der gelb schattierten Zeiträume.

Einen ganz ähnlichen Effekt zeigt die Accumulated Cyclone Energy:

Abbildung 13: Auswirkungen der AMO auf auf das US-Festland übergreifende Hurrikane

Im Gegensatz dazu erkennt man, dass die Warmphasen im Vergleich zu den Kaltphasen der AMO kaum Auswirkungen auf die Häufigkeit von auf das US-Festland übergreifende Hurrikane hat.

Abbildung 14: Auswirkungen der AMO auf Hurrikane in Florida

Allerdings hat die Phase der AMO einen gewaltigen Einfluss auf Florida. Während der vorangegangenen Kaltphase gab es zu keiner Jahreszeit mehr als einen Übertritt auf Florida, während es während der Warmphase mehrere Jahre gab mit drei derartigen Ereignissen oder mehr. Dass ein starker Hurrikan auf Florida übergreift ist mehr als doppelt so wahrscheinlich in einer Warmphase als in der Kaltphase.

Diese Variationen der Übertritte auf das Festland in Verbindung mit Änderungen der AMO haben einen substantiellen Einfluss auf die Entwicklung in Florida. Die Reihe von Hurrikanen des Jahres 1926 tötete den ökonomischen 1920 angefangenen Boom. Bevölkerung und Entwicklung beschleunigten sich während der siebziger Jahre, unterstützt durch eine Periode schwacher Hurrikan-Aktivität.

Die jahreszeitlichen Vorhersagen atlantischer Hurrikane von CFAN

Das CFAN-Verfahren untersucht globale und regionale Wechselwirkungen zwischen Ozean-, Troposphären- und Stratosphären-Zirkulationen. Vorlaufende Prozesse werden identifiziert durch Datenerfassung, interpretiert im Zusammenhang der Klimadynamik-Analyse. Damit werden dann statistische Tests mit Nachhersagen durchgeführt.

Wir betrachten in unserer Analyse drei Perioden, definiert durch gegenwärtige Regimes der Zirkulation:

Die Periode seit 1995, welche mit der Warmphase der AMO korrespondiert

Die Periode seit 2002, definiert durch eine Verschiebung der Nordpazifischen Oszillation im Jahre 2001

Die Periode seit 2008, charakterisiert durch eine Vorherrschaft von El Nino-Ereignissen alle drei Jahre.

Abbildung 15: CFAN-Vorhersage der atlantischen Hurrikan-Saison 2018

Vorige Woche haben wir unsere dritte Vorhersage für die atlantiche Hurrikan-Saison 2018 herausgegeben. Wir prognostizieren eine unternormale Aktivität mit einem ACE-Wert von 63 und 4 Hurrikanen.

Die Graphik rechts zeigt die Nachhersage-Verifikation unserer Juni-Vorhersage bzgl. der Anzahl von Hurrikanen. Die Prognose wird erstellt mittels historischer Daten aus drei verschiedenen Perioden, die jeweils mit den drei oben beschriebenen Regimes korrespondieren.

Abbildung 16: Prädiktoren von CFAN für die jahreszeitliche atlantische Hurrikan-Vorhersage

Die jahreszeitlichen Prädiktoren von CFAN werden für jede Vorhersage ermittelt durch ein Datengewinnungs-Verfahren mit unterschiedlichen Prädiktoren für jeden Zeitraum. Die ausgewählten Prädiktoren werden dann einer Klimadynamik-Analyse unterzogen, um zu verifizieren, dass die Prädiktoren aus verfahrenstechnischer Sicht sinnvoll sind.

Die von uns herangezogenen Prädiktoren sind bezogen auf atmosphärische Zirkulationsmuster. Unsere Prädiktoren unterscheiden sich substantiell von denen, die von anderen Gruppen für statistische Vorhersagen herangezogenen werden, welche sich vorherrschend auf die Wassertemperatur und den Luftdruck über dem Wasser stützen.

Jahreszeitliche Vorhersage 2017

Abbildung 17: Vorhersage atlantischer Hurrikane: worst case-Szenario

Hier folgt die von uns ausgegebene Vorhersage von vor einem Jahr zur Hurrikan-Saison 2017. Wir prognostizierten eine aktive Saison mit 3 Übertritten auf das US-Festland. Diese Anzahl war korrekt, aber wir haben substantiell die ACE unterschätzt.

Aus der Perspektive des Finanzsektors ist es entscheidend, ob wir eine weitere extrem aktive Hurrikan-Saison erleben und wie viele Hurrikane auf das US-Festland übergreifen.

Wir führten ein Datensammel-Verfahren durch, um Verteilungen zu identifizieren, welche die extrem aktiven Saisons der Jahre 1995, 2004, 2005 und 2017 erklären. Unser gegenwärtiges Vorhersagemodell ist zwar hinsichtlich der Extreme in den Jahren 1995 und 2017 korrekt, nicht jedoch für die Jahre 2004 und 2005.

Der einzige Prädiktor, der 2004/2005 auftauchte, war ein Vorgang in der Stratosphäre nahe der Antarktis. Zu diesem Zeitpunkt haben wir keine Ahnung, ob dieser Vorgang ein plausibler Prädiktor auf physikalischer Grundlage für die atlantische Hurrikan-Aktivität ist. Verstörend ist, dass Prädiktoren der polaren Stratosphäre eine extrem aktive Saison 2018 vorhersagen. Dies steht im Gegensatz zu den anderen von uns herangezogenen Prädiktoren.

Fazit: Zu diesem Zeitpunkt wissen wir nicht, ob wir echtes Gold oder Katzengold ausgegraben haben. In jedem Falle ist dies ein gutes Beispiel des Nutzens und der Gefahren bei der Datensammlung.

Link: https://judithcurry.com/2018/06/07/beyond-enso-new-signals-of-seasonal-to-interannual-predictability/
Übersetzt von Chris Frey EIKE




Auszüge aus dem Rundbrief der GWPF vom 13. Juni 2018

Gar nicht mehr grün: Deutschland torpediert ambitionierte EU-Energieziele

Die Wähler in ganz Europa haben das Vertrauen in die Politik verloren – auch aufgrund der „unerreichbaren Ziele“ für erneuerbare Energien, sagte der deutsche Wirtschafts- und Energieminister Peter Altmaier gestern.

Altmaier wies die Forderungen einer Gruppe anderer EU-Länder zurück, den Anteil der erneuerbaren Energien bis 2030 auf 33 bis 35 Prozent des Energiemixes zu erhöhen. Der Minister äußerte sich während eines Austauschs mit den übrigen 27 EU-Energieministern, die gestern in Luxemburg zu einem Treffen des Energierats zusammengekommen waren.

Die Energieminister müssen aktuell eine gemeinsame Position zu drei Gesetzen für saubere Energien erarbeiten, die derzeit in den EU-Institutionen ausgehandelt werden: Die Richtlinie über erneuerbare Energien, die Richtlinie über Energieeffizienz sowie eine Verordnung über die Führung der Energieunion.

„Deutschland unterstützt verantwortungsvolle, aber erreichbare Ziele,“ betonte Altmaier von Anfang an. Er unterstrich außerdem, dass die Bemühungen Berlins, den Anteil der erneuerbaren Energien zu steigern, bisher lediglich dazu geführt hätten, dass dieser Anteil am Gesamtenergiemix des Landes bei nun 15 Prozent liegt.

Allein diese Bemühungen würden die deutschen Steuerzahler bereits 25 Milliarden Euro pro Jahr kosten, so Altmaier. „Wenn wir uns jetzt ein Ziel setzen, das deutlich über 30 Prozent hinausgeht, bedeutet das: Wir müssen unseren Anteil in zehn Jahren deutlich mehr als verdoppeln.“

„Das werden wir nicht schaffen,“ konstatierte der Minister auch mit Blick auf das vormalige Ziel, bis zum Jahr 2020 eine Million Elektroautos auf deutschen Straßen zu haben. Dies werde allerdings auch nirgendwo sonst in Europa erreicht. Altmaier weiter: „Selbst, wenn wir es schaffen würden, hätten wir nicht genügend erneuerbaren Strom, um alle diese Autos zu betreiben.“

Was daher benötigt werde, sei „ein Kompromiss [auf europäischer Ebene], der verhindert, dass wir innerhalb kurzer Zeit wieder ein Ziel haben, das nicht erreicht worden ist.“ Der CDU-Politiker warnte: „Die Bürgerinnen und Bürger in Europa verlieren auch das Vertrauen in die Politik, wenn sie feststellen, dass wir sehr ambitionierte Ziele haben, und einige Jahre später sich herausstellt, dass wir weit von ihrer Erfüllung entfernt sind.“

Altmaiers Kompromissvorschlag ist „erbärmlich“

Claude Turmes, dem Verhandlungsführer des Parlaments über die Energieunion-Verordnung, nannte Altmaiers Erklärung „erbärmlich“. Dennoch dürften die vom Wirtschaftsminister geäußerten deutschen Ansichten die Erwartungen anderer EU-Länder, die mehr Ehrgeiz für das EU-Gesetzgebungspaket für saubere Energie gefordert haben, deutlich enttäuscht haben.

Luxemburg und Spanien, deren Vertreter vor Altmaier sprachen, unterstützen beide die Forderung des Europäischen Parlaments nach mehr Ehrgeiz in Bezug auf erneuerbare Energien und Energieeffizienz. Sie fordern ein Ziel von 35 Prozent für beide Punkte.

Die Niederlande, Frankreich, Dänemark, Schweden, Italien und Portugal gehörten ebenfalls zu denjenigen, die höhere Ambitionen im Bereich der erneuerbaren Energien und der Energieeffizienz anstreben.

Brune Poirson, französische Staatssekretärin für Ökologie, unterstrich die Notwendigkeit „starker Ambitionen“ auf EU-Ebene, um die Ziele des Pariser Klimaabkommens zu erreichen. Frankreich, so Poirson, sei bereit, bei der Energieeffizienz einen Kompromiss von „rund 33 Prozent“ zu unterstützen. Dies wäre ein Mittelweg zwischen den Positionen des Europäischen Parlaments und der EU-Mitgliedstaaten. Zu den erneuerbaren Energien sagte die Staatssekretärin, ein Anteil von 32 Prozent sei „ein guter Kompromiss“.

Ebenso wichtig sei der vorgeschlagene Gap-filler-Mechanismus („Lückenfüller“), sollten die EU-Länder bei der Erreichung des vereinbarten Ziels auf EU-Ebene hinterherhinken. Poirson erhielt in diesem Punkt Unterstützung von Altmaier, der erklärte, Deutschland sei bereit, einen Gap-Filler für beide Ziele – also erneuerbare Energien und Energieeffizienz – zu befürworten.

Auch im Bereich Wärme- und Kältesektor seien Deutschland und der Europäische Rat gewillt, sich „noch einmal ein Stück weit auf das Europäische Parlament zuzubewegen“. Die Gespräche über die drei vorgeschlagenen EU-Gesetze werden voraussichtlich am morgigen Mittwoch im Trilog-Gespräch zwischen dem Europäischen Parlament, dem EU-Rat und der Kommission abgeschlossen.

Widerstand von den Visegrad-Staaten

Die Chancen, in den Trilogen eine „ehrgeizige“ Einigung zu erzielen, die näher an der Position des EU-Parlaments liegt, erscheinen ohne die volle Unterstützung Deutschlands nun allerdings geringer.

Die Visegrad-Gruppe, bestehend aus der Tschechischen Republik, der Slowakei, Ungarn und Polen, bekräftigte ihren Widerstand gegen eine Anhebung der Ziele der EU im Bereich der erneuerbaren Energien und der Energieeffizienz.

Ungarn sagte zum Beispiel, dass jede Erhöhung des Ziels für erneuerbare Energien mit einer neuen Folgenabschätzung der Europäischen Kommission einhergehen sollte – ein langwieriges Verfahren, das die Annahme der Richtlinie weiter verzögern würde.

Aber es sind noch nicht alle Hoffnungen verloren, so Turmes, der darauf hinwies, dass der Wechsel hin zu neuen Regierungen in Spanien und Italien die Sperrminorität gegen ein Ziel von 33 Prozent sowohl für erneuerbare Energien als auch für Energieeffizienz aufgehoben habe. – Frédéric Simon, EurActive.com.

Die ganze Story steht hier.

[Hinweis: Diese Übersetzung aus dem GWPF-Newsletter stammt nicht von mir, sondern ist direkt aus der Quelle EurActive übernommen. Anm. d. Übers.]

—————————————

Deutsche Regierung: Das Klimaziel 2020 wird erheblich verfehlt werden


Die deutsche Regierung steht kurz davor, offiziell einzugestehen, dass sich das Land auf einem Weg befindet, auf welchem es die Klimaziele bis zum Jahr 2020 erheblich verfehlen wird.

Der wirtschaftliche Boom, der Immigrationsdruck sowie hohe Emissionen im Transportsektor bedeuten, dass der Energiewende-Pionier die Treibhausgas-Emissionen nur um 32% verglichen mit dem Jahr 1990 wird reduzieren können. Die steht im Gegensatz zum offiziell verkündeten Ziel einer Reduktion um 40%, jedenfalls dem neuen Klimaschutzbericht der Regierung zufolge. Clean Energy Wire konnte dieses Dokument einsehen, welches am 13.Juni zur Veröffentlichung vorgesehen ist.

Es wird erwartet, dass mit den bis heute durchgeführten Maßnahmen die Treibhausgas-Emissionen bis 2020 um rund 32% abnehmen werden im Vergleich mit 1990“, heißt es darin.

Im Jahre 2014 hat die Regierung ein „Klima-Aktionsprogramm“ initiiert. Aber die dafür erforderliche Politik reichte nicht aus, um die Lücke zu einer Reduktion von 40% bis 2020 zu schließen. Als Gründe werden genannt „eine überraschend starke wirtschaftliche Entwicklung sowie ein überraschend hohes Bevölkerungswachstum“, schreibt die Regierung in dem Report.

Es wird darin sogar davor gewarnt, dass Emissions-Vorhersagen „als ziemlich optimistisch bewertet werden müssen hinsichtlich der gegenwärtigen Klimaschutz-Trends“. – Sören Amelang, Clean Energy Wire.

Die ganze Story steht hier.

[Hinweis: Der Autor dieses Beitrags ist Verfechter von CO2 als vom Menschen verursachtes Haupt-Treibhausgas. Anm. d. Übers.]

—————————————

Deutschlands Energiewende: Eine Warnung für Europa!

Colin Stevens

Deutschland wurde als herausragender Pionier für seine Politik der Energiewende gewürdigt und besonders für die eingegangene Verpflichtung gepriesen, innerhalb der nächsten fünf Jahre vollständig aus der Kernenergie auszusteigen. Und dennoch – obwohl eine „Kohleausstiegs-Kommission“ eine Road Map für den Kohleausstieg präsentieren soll, bleibt Deutschland viel zu sehr abhängig von seinen umfangreichen Braunkohle-Reserven zur Energieversorgung seiner Wirtschaft und für das Backup für Wind- und Solarenergie-Ausfälle.

Trotz der ganzen Angeberei ist Deutschlands Energiewende viel mehr eine Warnung für Europa als eine Erfolgsstory, auf die andere Nationen blicken, um ihre Energiesektoren zu modernisieren. Im Zentrum der Politik liegt eine fundamentale Scheinheiligkeit: Trotz der Verpflichtung, seine Kapazität erneuerbarer Energie immer weiter auszubauen, um die verloren gehenden Kernkraftwerke zu ersetzen, steigen die Kohlenstoff-Emissionen des Landes derzeit.

Die hastige Entscheidung, alle 19 Kernkraftwerke in Deutschland bis zum Jahr 2022 stillzulegen, erfolgte im Zuge der Fukushima-Katastrophe im Jahre 2011 – nur ein Jahr, nachdem Kanzlerin Angela Merkel entschieden hatte, die Lebensdauer dieser Kraftwerke zu verlängern. Diese politische Kehrtwende war an Pläne gekoppelt, den Verbrauch fossiler Treibstoffe zu eliminieren, indem der Anteil von Erneuerbaren am deutschen Energie-Mix bis zum Jahr 2050 auf 60% steigen sollte.

Trotz der scheinbar vernünftigen Grundlagen haben die ersten fünf Jahre der Energiewende die Probleme aufgezeigt, welche das Modell für Deutschland und das übrige Europa birgt. Energiewende ist kaum lediglich ein innerdeutsches Thema: eine der grundlegenden Lehren ist, dass das Land neun Nachbarn hat, mit denen es Energie austauschen kann – entweder, indem man überschüssige Energie an diese Länder verkauft, wenn Erneuerbare zu viel Strom erzeugen, oder Energie von dort importiert, wenn Deutschlands Erneuerbare nichts liefern.

Während es Deutschland geschafft hat, den Anteil Erneuerbarer bei der Stromerzeugung auf 30% zu bringen, hat sich die zuvor stetige Abnahme der Kohlenstoff-Emissionen – um 27% von 1999 bis 2009 – drastisch umgekehrt, seit Deutschland den Ausstieg aus der Kernkraft beschlossen hat. Anstatt weiter zu fallen, sind die Emissionen seitdem um 4% gestiegen. Warum dieser besorgliche Anstieg der Emissionen? Weil erneuerbare Energie immer noch inhärent periodisch ist.

Ohne erhebliche Fortschritte bei der Batterie- und Speicher-Technologie wird Deutschland gezwungen sein, noch Jahrzehnte lang andere heimische Energiequellen zu nutzen. Falls Kernkraft wirklich stillgelegt wird, werden Kohlekraftwerke an deren Stelle weiter betrieben werden und die Atmosphäre bei diesem Prozess verschmutzen. Noch schlimmer ist, dass viele thermische Kraftwerke in Deutschland Braunkohle verbrennen, eine spezielle Art Kohle, welche mehr CO2 emittiert als jeder andere fossile Treibstoff. Während bei der Verbrennung von Erdgas zwischen 150 und 430 g CO2 pro Kilowattstunde emittiert werden, sind es bei Braunkohle atemberaubende 1,1 kg CO2. Kernkraft emittiert lediglich 16 g CO2 pro Kilowattstunde.

Die ganze Story steht hier.




Stimmen der Vernunft im ,Klima-Krieg‘

Matthew Nisbet hat eine provokative neue Studie veröffentlicht:

[Es folgen eine längere Betrachtung sowie ausführliche Zitate aus der gleichen Studie, zu der bereits Anthony Watts Stellung genommen hat {hier, auf Deutsch beim EIKE hier}. Diese Zitate werden hier nicht noch einmal übersetzt. Autorin Judith Curry greift aber die Kommentare auf diese Studie auf und zitiert aus Tweets eines Autors:]

Die Twitter-Angriffe auf Nisbet und Pielke Jr. sind zu zahlreich und langweilig, um sie hier wiederzugeben.

Ted Nordhaus vom The Breakthrough Institute reagierte mit der folgenden Serie von Tweets:

1. Ich möchte dazu Folgendes sagen: Das zugrunde liegende Problem sind nicht die unterschiedlichen Theorien der Änderung, sondern wie wir sowohl mit den Unsicherheiten in Verbindung mit Klimawandel als auch mit unterschiedlichen Bewertungen dieser Unsicherheiten umgehen.

2. Die Bemühungen, Roger herauszuhalten, waren der Höhepunkt jahrelanger Bemühungen von verschiedenen Seiten, seine und unsere Arbeit zu delegitimieren. Die Strategie war a) die grüne Klima-Agenda mit einem Mantel der Klimawissenschaft zu verschmelzen und b) die Debatte zwischen Klima-Befürwortern und -Leugnern auf Null zu reduzieren.

3. Wie ich schon im vorigen Jahr hier geschrieben habe: Falls man die grüne Agenda in Frage stellt, ist man ein „Zauderer“, und falls man den Klima-Katastrophismus in Frage stellt, ist man ein „Leugner“.

4. Rogers spezielle Sünde war es, Behauptungen zu hinterfragen, denen zufolge Katastrophen-Trends AGW zugeordnet werden können. Dies unterminierte langfristige Bemühungen seitens der Befürworter, die politische Dimension des Themas hervorzuheben, eine Strategie, die bereits Mitte der neunziger Jahre begonnen hatte, als man TV-Wettermoderatoren vorschob, um Kyoto hochzujubeln.

5. Es gab niemals irgendwelche besonders überzeugenden Beweise, dass die Strategie aufgegangen ist. Bereits im Jahre 2000 zeigten Forschungen des Frameworks Institute, dass die Kanone dieser Strategie eher nach hinten losgeht. Aber sie diente einer ganzen Reihe anderer weitschweifiger Notwendigkeiten, so dass die Klima-Befürworter sie inbrünstig weiter verfolgten.

6. Aus ähnlichen Gründen wurde die Infragestellung der grünen Politik-Orthodoxie mehr als ein einfacher politischer Disput behandelt. Schon sehr früh haben Befürworter die Klimawissenschaft mit der grünpolitischen Formel verschmolzen, die man angeben könnte mit Vertrag + Vorschriften bzgl. Emissionen + sanfte Energie.

7. Die Infragestellung der Agenda wurde de facto als Klimawandel-Leugnung behandelt. Jedwede Einordnung des Problems in einen anderen Zusammenhang oder eine Lösung desselben musste unterdrückt werden. Und während die Politik dadurch in keiner Weise einfacher gemacht worden ist, wurden andere Ziele erreicht, wie der Report von Matt Nisbet gezeigt hat.

8. Die fortwährenden persönlichen Angriffe, Schuldzuweisungen und Fehlinterpretationen machen einen fertig und ändern einen. Ohne namentlich genannt zu werden, sind einige von uns besser damit fertig geworden, und das ist so im gesamten politischen Spektrum. Auf diese Weise dämonisiert zu werden radikalisiert die Menschen oftmals.

9. Und es hat auch die Klimadebatte radikalisiert. Katastrophismus auf der linken Seite und Nichts-Wissen auf der rechten Seite schaukelten sich gegenseitig hoch. Wie @atrembath und ich selbst im vorigen Jahr geschrieben haben, sammeln sich die Vorteile dieses Tuns primär bei Gegnern von Maßnahmen.

[hier]

10. Können wir den Geist der Polarisierung zurück in die Flasche drücken, auf Klima oder irgendetwas anderes beschränken? Ich weiß es wirklich nicht. Aber ich frage mich, wie diese Befürwortung der weiteren Radikalisierung der Klima-Debatte jemals enden soll.

11. Noch radikalere Forderungen zu erheben mag eine gute Strategie sein, wenn es denn jemanden gäbe, mit dem man verhandeln könnte. Aber beim Betrachten der prominentesten Klima-Falken gibt es niemanden.

12. Auch scheint es nicht so, dass eine breitere Klima-Koalition größere Mehrheiten im Kongress zustande bringt. Jede Klima-Strategie der Demokraten allein muss nicht nur auf gewinnen wollen fußen, sondern auch auf das Halten roter Bereiche über multiplen Wahlen.

13. Dies sind genau die Bereiche, welche die radikalisierte Klima-Rhetorik kulturell gegen sich aufbringt und welche die grüne Politik-Agenda ökonomisch bestrafen. Seit dem Scheitern von cap and trade im Jahre 2010 haben die Klima-Aktivisten die Rhetorik auf 11 [?] gebracht, und was ihnen das eingebracht hat, war Trump.

14. Ich mache mir keine Illusionen, viele der Befürworter dieser Strategien überzeugen zu können. Aber ich hoffe doch, dass wir herausfinden können, wie wir eine zivilisiertere Diskussion über unsere Differenzen führen können.

15. Meiner Ansicht nach muss dies damit beginnen, wie wir über Wissenschaft reden. Man sollte unterscheiden. Klimawissenschaftler sind auch engagierte Bürger. Und sie bringen bedeutendes Expertenwissen mit, welches einer Überlegung wert ist. Aber das ist nicht das Gleiche wie Wissenschaft, geschweige denn wie Konsens-Wissenschaft.

16. Klimaaktivisten haben jedes Recht, hinsichtlich des Potentials für katastrophale Klima-Auswirkungen alarmiert zu sein. Aber das ist nicht Konsens-Wissenschaft. Es gibt keine Konsens-Wissenschaft, welche konsistent ist mit zurückhaltenden Ansichten [lukewarmist views].

17. Und schließlich, Abschwächung ist schwierig nicht einfach, und bringt wirklichen Menschen Nachteile, nicht nur den Koch Brothers und anderen Gemeinschafts-Dämonen. Niemand weiß um die Durchführbarkeit sozio-technologischer Wege. Mehr Bescheidenheit hinsichtlich von Lösungen würde den Bemühungen zur Klima-Abschwächung sehr nützen.

Kommentar von JC dazu: Nun, es gibt sicher einige sehr vernünftige Stimmen da draußen. Man kann nur hoffen, dass die Extremisten auf beiden Seiten aufhören, diese zu dämonisieren und dass sie diese hören.

Link: https://judithcurry.com/2018/06/10/voices-of-reason-in-the-climate-wars/

Übersetzt von Chris Frey EIKE




Das IPCC: Niemals wurde mit so wenig Wissen von so Vielen so viel ange­richtet zu so gewal­tigen Kosten

Man kann sich irgendein Segment des Kohlenstoff-Zyklus‘ herauspicken, welches sie in Abbildung 1 zeigen (ihre Abbildung 6-1 im 5. Zustandsbericht). Keines davon basiert auf tatsächlichen Messungen, also realen Daten. Alles ist nichts als eine Schätzung und kann noch nicht einmal als vernünftige Vermutung durchgehen:

Abbildung 1


Sie erklären dazu:

Zahlen repräsentieren die Größe des Reservoirs, auch ,Kohlenstoff-Speicher‘ genannt PgC (1 PgC = 1015 gC) sowie jährliche Flüsse des Kohlenstoff-Austauschs (in PgC yr–1).

Was sie sagen sollten ist, dass jede einzelne Zahl eine sehr grobe Schätzung ist, verzerrt, um ihre Behauptungen einer unbewiesenen Hypothese zu stützen, der zufolge menschliches CO2 die globale Erwärmung AGW verursacht. Sie müssen in aller Klarheit sagen, dass sie keine tatsächlichen Messungen von irgendwas haben, es gibt keine realen Daten. Sie zeigen lediglich einen sehr vagen Hinweis in Box 2.1 „Unsicherheiten bei Messaufzeichnungen“ in Kapitel 2 des Physical Science Basis Report, aber das ist irreführend und lenkt vom eigentlichen Thema ab.

Die große Mehrheit historischer (und aktueller) Wetterbeobachtungen waren nicht dazu gedacht, zum Zwecke des Klima-Monitoring herangezogen zu werden.

Also sind sogar die Wetterdaten ungeeignet oder unangemessen. Sie müssen auch sagen, dass von den anderen Daten praktisch kein einziges existiert.

Die schwarzen Zahlen repräsentieren die geschätzte Reservoir-Masse und die Austausch-Flüsse für die Zeit vor der industriellen Ära (1750). Das für sich ist schon lächerlich. Sogar heute noch haben wir keine Ahnung von den wirklichen Reserven fossiler Treibstoffe. Saudi Arabien hat es permanent abgelehnt, Auskunft über das Niveau seiner Reserven zu geben. Man würde denken, dass Leute aus der Limits to Growth crowd aus ihrer gescheiterten „Peak Oil“-Kampagne gelernt haben würden, dass man sich auf keine globale Ressourcen-Statistik verlassen darf. Ein Standardprojekt in meiner Vorlesung über Geopolitik war es für die Studenten, die Reserven fossiler Treibstoffe in Kanada und der Welt zu bestimmen. Sie waren fassungslos durch die Bandbreite der Zahlen, auf die sie stießen. Wenn man sich vor Augen führt, dass die beiden vermeintlich genauesten Schätzungen der Weltbevölkerung (aus den USA und von den UN) um fast 6 Millionen Menschen differieren (2011) bekommt man eine Ahnung von der Größenordnung des Problems. Wir haben heute nicht einmal ansatzweise genaue Schätzungen, geschweige denn von vor 268 Jahren. Aber genau diese Menschen sind es, die uns mit einem ängstigenden und vollkommen ungerechtfertigten Grad an Sicherheit mitteilen, dass sie genau wüssten, welche Temperatur global im Jahre 1750 geherrscht hatte.

Ich will hier nur ein Segment des Diagramms betrachten mit der Bezeichnung Vegetation und soils [Böden]. Ich unterstelle, dass mir niemand eine Schätzung der Ausdehnung der Wälder der Welt im Jahre 1750 geben kann mit einer Genauigkeit von nur 20%. Aber genau das ist es, was das IPCC tut.

Das terrestrische Biosphären-Reservoir enthält Kohlenstoff in organischen Verbindungen lebender Biomasse der Vegetation (450 bis 650 PgC; Prentice et al., 2001) und in totem organischen Material in Abfall und Böden (1500 bis 2400 PgC; Batjes, 1996).

Man beachte, das war zum Höhepunkt der Kleinen Eiszeit LIA. Meine Forschungen für das zentrale Kanada auf der Grundlage genauer Karten zeigten, dass sich die Baumgrenze am Nordrand des borealen Waldes zwischen 1772 und 1972 um rund 200 km verschoben hat. Dies ist eine Bewegung von 1 km pro Jahr in einer der härtesten Wachstums-Bedingungen der Welt. Die Verschiebung repräsentiert außerdem eine massive Steigerung der Biomasse nur bei dieser Art der Vegetation.

Eine der großen natürlichen Paradoxa ist, dass der tropische Regenwald auf mit den nährstoffärmsten Böden der Welt wächst. Dass Verständnis, warum das so ist, unterstreicht, warum die IPCC-Behauptungen fälscher nicht sein können. Die meisten Menschen wissen, dass es zwei grundlegende Klassifizierungen aller Bäume gibt – Nadelbäume und Laubbäume; mal mit, mal ohne Laub. Der tropische Regenwald ist beides. Er steht niemals ohne Laub da, aber Blätter fallen ununterbrochen und werden sofort durch neue Blätter ersetzt. Ohne diesen Umstand könnte der Wald nicht existieren. Klimatisch gesehen gibt es eine jährliche Niederschlagsmenge von 2000 mm oder mehr bei einer Mitteltemperatur, die das ganze Jahr über zwischen 20°C und 30°C liegt.

Diese Bedingungen waschen die meisten Mineralien aus dem Boden und lassen nur Eisen und ein wenig Aluminium zurück. Dies sind die roten Laterit-Böden* tropischer Regionen (Abbildung 2). Rodet man den Wald, so dass der Boden frei liegt, wird er entweder durch die schweren tropischen Regenfälle rasch erodiert oder unter der tropischen Sonne steinhart gebacken.

[Wer es genauer wissen will: Zu Laterit steht hier bei Wikipedia mehr, sofern man Wikipedia trauen kann. Anm. d. Übers.]

Abbildung 2: Laterit

Im Grunde existiert der Regenwald nur, weil er sich selbst immer wieder erneuert. Die Blätter fallen kontinuierlich und verrotten rasch, um den Bäumen wieder Nährstoffe zuzuführen. Die beiden größten natürlichen CO2-Quellen sind die Ozeane und die verrottende Vegetation, das tote organische Material beim IPCC. Es gibt eine verstörende Analogie zum IPCC-Verfahren in dieser Sequenz. Sie produziert verrottende Daten, mit denen es sich immer wieder erneuert.

Die Menschen in den tropischen Regenwäldern praktizieren eine einheitliche Landwirtschaft, welche den Prozess beschreibt: „slash and burn“ [einschlagen und verbrennen]. Sie roden eine kleine Fläche und verbrennen das Material, um ausreichend Mineralstoffe für ein paar Jahre Getreideanbau betreiben zu können. Dann geben sie das Gebiet auf und lassen die Vegetation auf der geringen Menge zurück gebliebener Mineralien sich regenerieren. Im 20. Jahrhundert scheiterten drei Experimente der Einführung einer großräumigen Landwirtschaft in den tropischen Regenwäldern, hauptsächlich weil man die unerbittliche Unfruchtbarkeit des Bodens ignoriert hatte.

Das erste Experiment war das von Henry Ford, Gummibäume auf Plantagen in Brasilien anzubauen. Im Zentrum dieser Bemühungen lag eine Gemeinde namens Fordlandia. Das zweite gescheiterte Experiment ist bekannt unter der Bezeichnung Groundnut Scheme [Erdnuss-Schema. ,Groundnut‘ ist britisches Englisch für das amerikanische ,peanut‘. Anm. d. Übers.]. Darin involviert war ein Plan der britischen Regierung, die Versorgung mit dem wichtigsten landwirtschaftlichen Produkt der Welt sicherzustellen – Pflanzenöl. Das Experiment begann in Tanganjika (heute Tansania) und dauerte zehn kurze Jahre. Es scheiterte ebenfalls wegen des nährstoffarmen Bodens. Das dritte gescheiterte Experiment beruhte auf einer Idee des amerikanischen Milliardärs Daniel Ludwig. Er glaubte, dass die Kaltklima-Wälder nicht den Bedarf für Papier aus Holz decken konnten. Also veranlasste er eine Anpflanzung einer rasch wachsenden Baumsorte rund um eine Stadt namens Jari, ebenfalls im Amazonas-Becken.

Hier folgt ein Zitat aus einem im Jahre 2017 veröffentlichten Artikel, in dem atemlos verkündet wird:

Eine von brasilianischen und britischen Forschern durchgeführte, in Nature veröffentlichte Studie zeigte, dass Sumpfgebiete im Amazonas-Regenwald Jahr für Jahr zwischen 15 und 20 Millionen Tonen Methan produzieren – das Äquivalent aller Ozeane zusammen.

Hat das IPCC jene Daten bis zum Niveau des Jahres 1750 zurück extrapoliert? Natürlich nicht! Wie die freigesetzte CO2-Menge durch verrottende Vegetation im Amazonas-Regenwald ist es nichts als eine weitere riesige Unbekannte. Die vom IPCC angeführten Zahlen für CO2 aus den Ozeanen und verrottende Vegetation weisen einen Fehlerfaktor auf, der jeder für sich weit über die gesamte menschliche Produktion hinausgeht. Aber dennoch behauptet es, dass die jährliche Zunahme von CO2[-Emissionen?] – nach seinen eigenen Worten – sehr wahrscheinlich (90 bis 100%) für die Zunahme des atmosphärischen CO2 seit 1950 ursächlich ist. Das passt sehr gut zum Trend des Mauna Loa, aber die Messungen und die verwendete Instrumentierung werden von der Keeling-Familie patentiert und kontrolliert, zuerst der Vater und jetzt der Sohn. Diese Messungen sind die Quelle des vom IPCC herangezogenen atmosphärischen CO2-Niveaus. Der Vater war ein glühender Anhänger des Glaubens an das menschliche CO2 als Ursache der Erwärmung, und der Sohn ist Mitglied des IPCC. In einem perversen Twist zur Sicherstellung der Qualität falscher Daten erzeugt das IPCC seine eigenen Schätzungen der jährlichen Erzeugung von menschlichem CO2.

Falls die Ozeane wirklich die hauptsächliche Quelle und Senke für atmosphärisches CO2 sind, warum zeigen sich dann die warmen El Nino-Ereignisse nicht in den Mauna Loa-Aufzeichnungen? In einer Story aus dem Jahr 2015 über El Nino heißt es:

El Nino spielt in diesem Jahr bei vielen Dingen eine Rolle: Nicht nur, dass das Ereignis dazu beiträgt, das Jahr 2015 zum wärmsten Jahr jemals zu machen, sondern auch, dass es eine zentrale Rolle bei der Hurrikan-Aktivität im Pazifik spielt. Außerdem trägt es zu einem wesentlichen weltweiten Korallensterben bei.

Nichts davon hat sich als korrekt erwiesen.

Dem Vernehmen nach war es im Jahre 1998 zu einem starken El Nino gekommen, welcher die globalen Temperaturen auf einen Höhepunkt seit instrumentellen Aufzeichnungen hat steigen lassen. Warum aber zeigt sich diese Wärmespitze nicht in den Aufzeichnungen des Mauna Loa, während doch die jahreszeitliche Variation der Vegetationsbedeckung so klar zum Ausdruck kommt? (Abbildung 3):

Man beachte, dass die Quelle dieser Abbildung das Scripps Institute of Oceanography ist. Dort beschäftigt ist auch der Patentinhaber des Mauna Loa Ralph Keeling und des Befürworters des AGW-Alarmismus‘ Naomi Oreske (Abbildung 4). Wo ist die Reflektion der CO2-Zunahme infolge der dramatischen Ozeanerwärmung, verursacht durch den El Nino?

Abbildung 4: Keeling, Oreske und Talley, photographiert bei Scripps nach der Nominierung zum Nobelpreis (Quelle)

Die gesamte AGW-Hypothese ist der größte Betrug der Geschichte. Es kommt nicht überraschend, dass sie auf dem größten Betrug hinsichtlich tatsächlicher Daten beruht. Die offene und eklatante Repräsentation aller Daten in den IPCC-Berichten als reale Daten ist weit mehr als nur beschämend.

Es ist angemessen, dass der 5. IPCC-Zustandsbericht einen Nachruf auf Stephen Schneider enthält. Er versuchte erstmals, den Gedanken zu rechtfertigen, dass Unehrlichkeit eine Voraussetzung war, um die falsche Story über AGW in Umlauf zu bringen. Er hatte im Jahre 1989 ausgeführt:

Einerseits sind wir als Wissenschaftler ethisch der wissenschaftlichen Methode verpflichtet, die Wahrheit zusagen, die ganze Wahrheit und nichts als die Wahrheit. Das bedeutet, dass wir alle Zweifel, Schwächen, Unsicherheiten usw. ansprechen müssen. Andererseits sind wir aber nicht nur Wissenschaftler, sondern auch Menschen. Und wie die meisten Menschen wollen wir die Welt zu einem besseren Ort machen, was in diesem Zusammenhang bedeutet, dass unsere Arbeit darauf ausgerichtet sein muss, das Risiko eines potentiell gefährlichen Klimawandels zu reduzieren. Um das zu erreichen müssen wir uns um breit angelegte Unterstützung kümmern, um der Vorstellung der Öffentlichkeit zu genügen. Das bedeutet natürlich auch eine umfangreiche Berichterstattung in den Medien. Also müssen wir ängstigende Szenarien an die Wand malen; vereinfachende und dramatische Erklärungen abgeben und nicht die Zweifel ansprechen, die wir vielleicht haben. Diese ,doppelte ethische Bindung‘, in der wir uns immer wieder befinden, kann nicht mittels irgendeiner Formel gelöst werden. Jeder von uns muss für sich entscheiden, welches das richtige Gleichgewicht ist zwischen ehrlich und effektiv zu sein. Ich hoffe, dass beides der Fall ist.

Der vorletzte Satz ist falsch, genau wie die Daten des IPCC. Was er in Wirklichkeit meint ist, dass falls man Klimawissenschaft studiert, man sich entscheiden muss ob man ehrlich oder unehrlich sein will. Wir wissen aufgrund der als realistische Daten präsentierten unrealistischen ,Daten‘, für was sie sich entschieden haben.

Link: https://wattsupwiththat.com/2018/06/the-ipcc-never-has-so-much-been-made-out-of-so-little-by-so-many-at-so-great-a-cost/
Übersetzt von Chris Frey EIKE