Moderne Klimawandel-Wissenschaft

Sie liefern auch einen wahrscheinlichen Wert von 2,4°C auf Seite 9, obwohl sie auf Seite 2 einen Wert „nahe 3,0“ angeben. Der Wert auf Seite 9 ist nicht weit entfernt von der empirischen Schätzung von 2°C von Guy Callendar aus dem Jahr 1938, aber deutlich höher als der von Nic Lewis und Judith Curry (Lewis & Curry, 2018) angegebene Wert von 1,2°C bis 1,95°C (Bereich von 17% bis 83%, best estmate 1,5°C).

Das IPCC schätzt in seinem AR5-Bericht (Bindoff & Stott, 2013) die ECS auf einen Temperaturbereich zwischen 1,5°C und 4,5°C und liefert kein best estimate. Diese Spanne entspricht genau der des Charney-Berichts vor 34 Jahren. Während sich die empirischen, auf Beobachtungen basierenden Schätzungen deutlich verringert haben, hat sich die theoretische Bandbreite nicht verändert, obwohl Tausende von staatlich finanzierten Wissenschaftlern Milliarden von Dollar dafür ausgegeben haben. Die Daten sind heute sehr ähnlich, und es scheint keine Rolle zu spielen, dass sie mit leistungsfähigeren Computern und Milliarden von Dollar schneller ausgegeben werden. Mit Dung funktioniert es auf dieselbe Weise.

[Hervorhebung vom Übersetzer]

Wenn wir den AR5 genau unter die Lupe nehmen, wie es Monckton et al. in MSLB15 taten, einem Aufsatz mit dem Titel „Why Models run hot: results from a irreducially simple climate model“ (Monckton, Soon, Legates, & Briggs, 2015), sehen wir, dass die Elemente der theoretischen AR5-Berechnungen darauf hindeuten, dass sich der Bereich nach unten verengt. Angesichts des politischen Umfelds beim IPCC kann man leicht vermuten, dass die Politiker nicht zugeben wollen, dass die theoretischen Risiken des CO2-bedingten Klimawandels abnehmen. Je mehr empirische Schätzungen des CO2-Effekts erscheinen und je mehr theoretische Arbeit geleistet wird, desto mehr fragt man sich, wie lange die Politiker die deutlich überhöhte Spanne von 1,5°C bis 4,5°C noch unterstützen können.

Die Schätzungen der ECS sind seit langem rückläufig, wie Nicola Scafetta und Kollegen 2017 gezeigt haben. Abbildung 1 stammt aus ihrer Studie:

Abbildung 1: Der Rückgang der Schätzungen der ECS von 2000 bis 2015. Quelle: Scafetta, Mirandola und Bianchini, 2017.

In den 1980er Jahren wurde die Idee der katastrophalen, vom Menschen verursachten (oder anthropogenen) globalen Erwärmung (CAGW) entwickelt. Seitdem schlagen die Alarmisten Jahr für Jahr die Trommel. In den Vereinigten Staaten fand am 23. Juni 1988 im Dirksen-Senatsbürogebäude in Washington, DC eine Senatsausschusssitzung zum Thema CAGW statt, die von Senator Tim Wirth ausgerichtet wurde. Es war ein heißer und feuchter Tag im sumpfigen Washington, DC. Das Treffen war ein Wendepunkt, was nicht zuletzt Dr. James Hansen von der NASA zu verdanken war. In seiner Präsentation vor dem Kongressausschuss sagte er:

1988 ist es wärmer als jemals zuvor in der Geschichte der instrumentellen Messungen.

Alles in allem sind die Beweise dafür, dass sich die Erde um einen Betrag erwärmt, der zu groß ist, um eine zufällige Fluktuation zu sein, und die Ähnlichkeit der Erwärmung mit der durch den Treibhauseffekt zu erwartenden, ein sehr starker Fall. Meiner Meinung nach … ist der Treibhauseffekt entdeckt worden, und er verändert jetzt unser Klima.

Die gegenwärtig beobachtete globale Erwärmung liegt nahe 0,4 Grad C, relativ zur ‚Klimatologie‘, die als Mittelwert der dreißig Jahre (1951 – 1980) definiert ist. … können wir mit etwa 99-prozentiger Sicherheit feststellen, dass die gegenwärtigen Temperaturen eher einen echten Erwärmungstrend als eine zufällige Schwankung über den Zeitraum von 30 Jahren darstellen“. (Hansen, 1988)

ExxonMobil glaubte, dass die natürliche Variabilität ±0,5°C betrug. Man war der Meinung, dass eine Veränderung größer als diese sein musste, um signifikant zu sein. Offensichtlich schränkte Hansen diesen natürlichen Bereich irgendwie ein. Die Welt kühlte sich von 1944 bis 1977 global ab und begann sich dann 1978 zu erwärmen. Ein Anstieg von 0,4°C ist nicht viel, so dass die Verwendung dieses Wertes, um festzustellen, dass der „Treibhauseffekt“ nach einer langen Abkühlungsperiode festgestellt wurde, hätte Stirnrunzeln und Fragen hervorrufen müssen. Man beachte, dass Hansen „Treibhauseffekt“ sagt, wenn er den „vom Menschen verursachten Treibhauseffekt“ oder „verstärkter Treibhauseffekt“ meint. Es gibt einen natürlichen Treibhauseffekt, der durch natürliches CO2 und andere Treibhausgase, insbesondere Wasserdampf, verursacht wird. Dies ist der Beginn einer Täuschungstaktik, die von den Alarmisten häufig angewendet wird. Um die natürlichen Ursachen des Klimawandels zu ignorieren, setzen sie den „Treibhauseffekt“ mit dem „vom Menschen verursachten Treibhauseffekt“ gleich. Außerdem verwenden sie „globale Erwärmung“ als Synonym für „vom Menschen verursachte globale Erwärmung“, und „Klimawandel“ ist gleichbedeutend mit „vom Menschen verursachter Klimaänderung“. Diese Art von trügerischer und manipulativer Sprache wird auch heute noch verwendet.

Die IPCC-Berichte

Der erste IPCC-Bericht (FAR) unter dem Vorsitz von Bert Bolin stellte fest, dass die globale Erwärmung bis 1992, als der Bericht veröffentlicht wurde, in den Bereich der „natürlichen Klimavariabilität“ fiel und nicht unbedingt auf menschliche Aktivitäten zurückzuführen war (IPCC, 1990, S. XII). Sie hielten den eindeutigen Nachweis eines menschlichen Einflusses „für ein Jahrzehnt oder länger für unwahrscheinlich“. Bert Bolin war der Meinung, dass James Hansens Aussage im Kongress 1988 die Bedeutung der jüngsten globalen Erwärmung übertrieben habe.

Der zweite, 1996 veröffentlichte Bericht SAR kam zu dem Ergebnis, dass „die Abwägung der Beweise auf einen erkennbaren menschlichen Einfluss auf das globale Klima hindeutet“. (IPCC, 1996, S. 4). Dies basierte jedoch auf unveröffentlichten und nicht überprüften Arbeiten von Benjamin Santer und Kollegen. Seine Studie legte nahe, dass die Vorhersagen der Klimamodelle über die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre dem entsprachen, was sich abspielte. Er nannte dies einen „Fingerabdruck“ des menschlichen Einflusses auf das Klima (Santer, et al., 1996a). Nach der Veröffentlichung der Studie stellte sich heraus, dass Santer bzgl. dieses Fingerabdrucks „Rosinenpickerei“ betrieben hatte (Michaels & Knappenberger, 1996). Die Studie wurde zurückgewiesen, und der IPCC wurde gedemütigt. Diese Demütigung wurde noch dadurch verstärkt, dass die für den IPCC verantwortlichen Politiker dabei erwischt wurden, wie sie die wissenschaftlichen Berichte innerhalb der SAR veränderten, um sie ihrer Summary for Policymakers anzupassen (Seitz, 1996).

Der 2001 veröffentlichte dritte Bericht TAR stellte fest, dass „der Großteil der in den letzten 50 Jahren beobachteten Erwärmung wahrscheinlich auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist“. (IPCC, 2001, S. 10). Sie stützten diese Entscheidung auf den „Hockeyschläger“, der sich später als fehlerhaft erwies. Bis zur Veröffentlichung des vierten Berichts (AR4) im Jahr 2007 zeigten zahlreiche Untersuchungen des Hockeyschlägers, dass er fehlerhaft war und zu wenig Variabilität aufwies. Dies wurde im vierten Bericht, AR4, von Keith Briffa eingeräumt, der, etwas beschönigend, schrieb, dass der Hockeyschläger zu empfindlich auf bestimmte Proxies (Baumringe) und die statistischen Verfahren (Hauptkomponenten) reagierte, welche zu seiner Konstruktion verwendet worden waren (IPCC, 2007b, S. 436). Willie Soon und Sallie Baliunas zeigten, dass der Hockeyschläger nicht die Daten widerspiegelte, die zu seiner Konstruktion verwendet wurden (Soon & Baliunas, 2003). Der Hockeyschläger entpuppte sich als eine ausgeklügelte Fiktion, die einzig und allein aus einem fehlerhaften statistischen Verfahren und einem schlecht ausgewählten Satz von Temperaturproxies entstand (National Research Council, 2006, S. 112-116) und (Wegman, Scott, & Said, 2010, S. 4-5, 48-50).

Als AR4 im Jahr 2007 veröffentlicht wurde, hatte die Führung des IPCC aufgegeben, direkte Beweise dafür zu finden, dass der Mensch den Klimawandel beherrscht. Sie hatten es mit dem „Fingerabdruck“ von Santer und dem „Hockeyschläger“ von Michael Mann versucht und konnten die Öffentlichkeit mit beidem nicht überzeugen. So versuchten sie im AR4, die Öffentlichkeit mit Klimamodellen zu überzeugen, dass „der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. (IPCC, 2007b, S. 10) sehr wahrscheinlich der beobachteten Zunahme von Treibhausgasen in der Atmosphäre geschuldet ist“. Sie präsentieren keine Beobachtungen, sondern lediglich Modellergebnisse. Der fünfte Bericht, AR5, war lediglich eine Wiederholung von AR4. Dieselben zwei Modelle, dasselbe Ergebnis. Wie bereits erwähnt, zeigte MSLB15 (Monckton, Soon, Legates, & Briggs, 2015), dass die neueren Ergebnisse des AR5-Modells darauf hindeuteten, dass die Schlagzeilen des IPCC die Empfindlichkeit des Klimas gegenüber CO2 überbewerten, aber dieses Ergebnis wurde im Bericht weder erklärt noch eingeräumt.

Während also die empirischen Berechnungen der Klimasensitivität gegenüber CO2 nun eine ECS zwischen 1,1°C und 2,45°C zeigen (siehe Tabelle 1), blieben die theoretischen Schätzungen bei 1,5 bis 4,5 – mit Ausnahme von AR4, als diese auf 2,0 bis 4,5 geändert wurde. Die Bereiche in Tabelle 1 sind allesamt 5% bis 95% Bereiche, soweit ich das beurteilen kann.

Tabelle 1. Verschiedene Schätzungen der ECS. Alle sind theoretische Berechnungen mit Ausnahme von Lewis und Curry, deren Schätzung auf Beobachtungen beruht:

Tausende von Wissenschaftlern und Milliarden von Dollar später haben wir also immer noch die gleiche theoretische Unsicherheit über die Auswirkungen von CO2 auf das Klima. Die einzige empirische Schätzung der ECS, die gezeigt wird, liegt bei etwa 1,5°C. Die meisten dieser empirischen Schätzungen liegen unter 2°C und gruppieren sich um 1,5°C bis 1,6°C (Lewis & Curry, 2018). Die empirische Schätzung von Guy Callendar lag bei 2°C (Callendar, 1938) und die theoretische Schätzung von Arrhenius (Arrhenius, 1908) bei 4°C. Man kann also sagen, dass die gesamte Arbeit und das Geld, das seit 1938 aufgewendet wurde, um den Klimawandel dem Menschen zuzuschreiben, verschwendet wurde.

[Hervorhebung vom Übersetzer]

Wird es nun besser? Wie steht es mit der neuesten Generation theoretischer Modelle, CMIP6? Erste Anzeichen deuten darauf hin, dass die Ergebnisse nicht besser, sondern schlechter werden, wie Ron Clutz und John Christy berichten. Während die meisten der neuen Modelle absurd überhöhte Werte für die ECS zeigen, ist es interessant, dass die neueste Version des russischen Modells, INM-CM4, auf das ich in meinem vorherigen Beitrag Bezug genommen habe, jetzt eine ECS von 1,83 vorhersagt. Mit Ausnahme des INM-CM4 haben wir also seit 1938 keine Fortschritte gesehen. Wie meine verstorbene Großmutter Marie McCartney sagen würde, „ist das jetzt nicht einfach großartig?“.

This is a condensed excerpt, with minor modifications, from my new book, Politics and Climate Change: A History.

To download the bibliography, click here.

Link: https://wattsupwiththat.com/2020/11/12/modern-climate-change-science/

Übersetzt von Chris Frey EIKE




Saisonale Viren-Todesfälle in Deutschland in 2020 sind erheblich niedriger als in 2017 und 2018.

Datenbasis

Wie im vorhergehenden Beitrag wird die Zahl der pro Zeiteinheit Verstorbenen zugrunde gelegt als der mit Abstand ‘härteste‘ Endpunkt eines ‘Gesundheits-‘ bzw. Krankheitsindikators. Fehler sind hier nur noch bei der zeitlichen Einordnung des Todesfalls möglich – wenn man absichtliche Unterschlagung oder Erfindung von Todesfällen bei den Meldeämtern sowie bei der datentechnischen Weiterverarbeitung ausschließt. Die Zahl der möglichen Fehler bei der ärztlichen Zuordnung von Todesursachen geht demgegenüber in die Myriaden. Sie können beruhen auf ‘ehrlichem‘ Irrtum, unzureichender Sorgfalt bzw. auch Fähigkeit – persönlich bedingt oder mangels Ausrüstung und Kapazität – bis hin zu tendenziöser bis bewusst falscher Diagnose. Wie viele der gemeldeten Influenza Opfer hauptursächlich an Influenza und nicht nur mit Influenza verstorben sind, das wird und kann in der Regel nie mit vertretbarem Aufwand diagnostiziert werden. Gleiches wie bei Influenza gilt für „an“ bzw. „mit“ Covid-19 Verstorbene. Somit bleibt die Gesamtzahl der Sterbefälle allen anderen Zahlen haushoch an Qualität überlegen.

Sterblichkeit insgesamt, Deutschland 2016 bis 2020

Im vorhergehenden Beitrag (hier) wurden die von DeStatis veröffentlichten Sterbefälle (hier) mit logarithmischer Skalierung der Y-Achsen präsentiert, weil nur so die Aufteilung der Sterblichkeit auf die verschiedenen Altersklassen optisch überhaupt erst sichtbar gemacht werden kann. Dem einen oder anderen Leser sowie Kommentator war die Interpretation dieser Kurven möglicherweise nicht geläufig. Abbildung 1 präsentiert jetzt die wöchentlichen Todesfälle der Jahre 2016 bis 2020 (2020 bis erste Oktoberwoche), und zwar diesmal nur die Todesfälle insgesamt in linearer Skalierung der Y-Achse. Die gestrichelten Geraden sind grobe Schätzungen des Verlaufs, den man erwarten würde, wenn die Sterblichkeit nur dem kalenderjährlichen Trend ohne die typischen winterlichen (meist) Virus bedingten Todesfälle verliefen und wie er auch während des Anstiegs in der zweiten Jahreshälfte in Erscheinung tritt.

Abbildung 1: Pro Kalenderwoche gemeldete Todesfälle insgesamt in Deutschland der Jahre 2016 bis 2020 (bis KW 41 in 2020). Gestrichelte Linien schätzen den Verlauf der Sterblichkeitbei Abwesenheit einer ‘Grippe‘ Welle. (eigene Graphik)

Überschuss-Sterblichkeit

Die gelbe Linie in Abb. 2 zeigt einen solchen jahreszeitlich typischen Verlauf der Sterblichkeit in den U.S.A. für die Jahre 2017 bis 2020. Um eine signifikante Zahl für die Überschuss Sterblichkeit schätzen zu können, ist dem tatsächlichen Verlauf noch die statistische Schwankungsbreite zu addieren. Nur das, was diese statistische Schwankung übersteigt, kann statistisch gesichert als Überschuss Sterblichkeit interpretiert werden. In Abb. 2 wurden entsprechende Wochen mit Überschuss Sterblichkeit vom US Center of Disease Control mit roten „+“-Zeichen markiert. Im Januar 2017 und 2018 wurden diese zusätzlichen Todesopfer durch Influenza Epidemien verursacht. In 2020 sind sehr markant die (mutmaßlichen) Opfer der Corona-CoV-2 Epidemie in den U.S.A. zu erkennen. Die Ende 2017/Anfang 2018 erkennbare Überschuss-Sterblichkeit war auch in Deutschland mit einem erheblichen Anstieg der Sterblichkeit zu registrieren.

Abbildung 2: Wöchentliche Gesamtsterblichkeit in den U.S.A der Jahre 2017 bis 2020. Die gelbe Linie stellt die Basis dar für die Schätzung der Exzeß Sterblichkeit in den mit roten „+“-Zeichen markierten Epidemien. Der markante Überschuß in 2020 wird der Covid-19 Epidemie zugeordnet. (Graphik modifiziert aus dieser Quelle [8. 11. 2020])

Überschuß Sterblichkeit Deutschland

Der in Abb. 2 realistische, gekrümmte Verlauf der gelben Linie wurde in Abb. 1 wie auch in Abb. 3 durch gerade Verbindungslinien zwischen den Fußpunkten der Peaks vergröbernd approximiert. Durch diesen geraden Verkauf sowie durch die Vernachlässigung der Schwankungsbreite werden die daraus ermittelten Überschuß Todesfälle überschätzt. Neben den Winter/Frühjahrs Toten unterbrachen in Deutschland im Hochsommer 2017, 2019 und 2020 weitere Sterblichkeitsgipfel den ansonsten mit der Erwärmung abnehmenden Trend der Sterblichkeit wie er in Abb. 2 erscheint. Diese Sterblichkeitsgipfel wurden mutmaßlich durch extreme Hitzeperioden mitverursacht.

Abbildung 3: Überschuss-Sterblichkeit in der jeweiligen ‘Grippe-Saison‘ der Jahre 2016 bis 2020. Für das Jahr 2018 demonstriert die logarithmische Darstellung die für Grippe Wellen typische Altersabhängigkeit der Sterblichkeit. Die Unsicherheit der grob geschätzten Zahlen in den Feldern unten links könnte bei einigen Hundert liegen. (eigene Graphik)

Die in den Feldern der Abb. 3 unten links gezeigten Zahlen geben die Summe der dort mit senkrechten gestrichelten Linien gezeigten Differenzen zwischen den Zahlen der gemeldeten Toten und den gemäß der gestrichelten Geraden zu erwartenden Zahlen der Toten bei ‘normalem‘, ungestörtem Verlauf der Sterblichkeit wieder. Mit anderen Worten, es ist eine Schätzung der durch diese ‘Grippe-‘ Wellen verursachten Überschuß Sterblichkeit. Die ‘Welle‘ Anfang 2017 begannt schon im Dezember 2016, weswegen die gestrichelte Linie nicht den Beginn trifft.

Die 15.361 für das Frühjahr 2020 geschätzten überschießenden Toten übersteigt noch deutlich die am 12.11.2020 in der Presse (z.B. hier) für das ganze Jahr 2020 bisher vermeldeten 11.618 Corona Todesfälle. Von einem Anstieg der Todesfälle ist im übrigen in den DeStatis Daten Anfang Oktober immer noch nichts zu erkennen. Im Gegenteil, die am 06.11. zuletzt veröffentlichten Zahlen zeigen für KW41 zunächst einen weiteren Abfall von 17.241 auf 16.925 Todesfälle insgesamt pro Woche. Die Altersabhängigkeit der Sterblichkeit, die ja charakteristisch für Viren Epidemien ist, wird für 2018 zusätzlich für die Altersklassen ab 50 bis über 95 Jahre gezeigt (Abb. 3, unten Mitte, wieder mit logarithmischer Y-Achse). Sie zeigt den für Viren Epidemien typischen Anstieg der Sterblichkeit mit dem Lebensalter während der ‘Grippe Welle‘. Unter 50 Jahren ist ein solcher Trend nicht erkennbar, weswegen er ausgeblendet wurde.

Rangordnung der Überschuss-Sterblichkeit der Jahre 2016 bis 2020

Abbildung 4: Überschuss-Sterblichkeit der während der winterlichen ‘Grippe‘ Wellen der letzten 5 Jahre verstorbenen Virenopfer. (eigene Graphik)

Ungeachtet der erheblichen Fehlerbreite dieser Schätzung lässt sich eine klare Rangfolge der Jahre anhand Zahl der Todesopfer aufstellen, die in den vergangenen fünf winterlichen ‘Grippe-Wellen‘ einem Virus zum Opfer fielen. Vor 2020 waren das keine SARS-CoV-2 Viren! Daß ausgerechnet in 2020 Influenza Viren völlig unbeteiligt gewesen sein sollen, das ist im übrigen sehr fraglich. Insofern sind unter den 15.361 Toten in Frühjahr 2020 sicher einige (wenige) Tausend der üblichen Influenza Opfer zu vermuten. Die Zahl dieser bisherigen Todesopfer des Jahres 2020 entspricht – gemessen an den Jahren 2019, 2018 und 2017 – nicht nur die Anzahl eines absolut (stink-) normalen oder durchschnittlichen Jahres. Die Zahl der Nicht-Covid-19 Toten der anderen drei Jahre übertraf sie deutlich um Faktoren, um bis zu beinahe einem Faktor 3.

Fragen ohne Antworten

Angesichts dieser Zahlen drängen sich einige Fragen auf: Warum haben in den Vorjahren die verantwortlichen, vorgeblichen Lebensschützer keinen Lockdown zur Vermeidung dieser insgesamt über 100.000 Todesopfer verordnet? Ein Lockdown hätte – ihrer eigenen gegenwärtigen Logik zufolge – in 2017, 2018 und 2019 weitaus mehr Menschen das Leben retten können, als bisher in 2020 an (oder auch nur mit) Corona verstorben sind. Wer zieht die Verantwortlichen für diese Vernachlässigung ihrer Sorgfalts- und Schutzpflicht für das Leben ihrer Untertanen in diesen vorhergehenden ‘Katastrophen-‘Jahren zur Verantwortung? Was motiviert 2020 bei bisher weitaus weniger Viren-Opfern die Verantwortlichen zu ‘Schutzmaßahmen‘, deren negative Nebenwirkung die Schutzwirkung sehr wahrscheinlich deutlich übertreffen wird?

Was führte zum Ausfall der Kontrollfunktion der für das Handeln oder Unterlassen der Regierungen verantwortlichen Parlamentariern? Der gleichen Parlamentarier, die die aktuellen Maßnahmen zur Strangulierung des öffentlichen und wirtschaftlichen Lebens mit ihren noch gar nicht absehbaren Spätfolgeschäden frag- und kritiklos so abnickten, wie sie ihnen von den Regierungen als alternativlos vorgesetzt wurden – inzwischen gewohnheitsmäßig wie in den letzten Jahren eingeübt. In der gleichen kritiklosen Manier, in der sie die alternativlosen Rettungsmaßnahmen des Klimas, des Euros (der Großbanken), Europas … abgenickt hatten. Was bewegt die Volksvertreter, dem an die Notverordnung unseligen Angedenkens erinnernden Abbau des Rechtsstaates und der Grundrechte zuzustimmen? Es scheint Zeitverschwendung zu sein, danach zu fragen.

Vollends Zeitverschwendung wäre es, nach der Kontrollfunktion der vierten Gewalt, der Verlautbarungsmedien zu fragen. Folglich wird auch kein Wähler danach fragen, so daß das ungehemmt weiter gehen wird – bis zum unvermeidlichen bitteren katastrophalen Ende. Mit Sicherheit wird es keine Klima-Katastrophe sein.




Junge – Mädchen

Zusätzlich zu meiner zugrunde liegenden Ketzerei betrachte ich die verschiedenen Klimaphänomene in einer Art und Weise, die manche Leute für rückständig oder unangemessen halten. Ich interessiere mich nicht so sehr dafür, wie diese Phänomene zusammenspielen. Stattdessen interessiert mich viel mehr, was sie tun, wenn sie eben das tun. Mir wurde gesagt, dass dies eine „funktionale“ Analyse einer Lage genannt wird, was sinnvoll ist – ich will die Auswirkungen eines Phänomens sehen.

Wenn ich einen funktionalen Analysestil anwende, kann ich beispielsweise feststellen, dass Gewitter nach genau demselben Prinzip funktionieren wie Ihr Haushaltskühlschrank. Und es führt auch zu meiner ketzerischen Sicht auf ein anderes aufkommendes, die Temperatur beeinflussendes Phänomen, das gemeinhin als „El Nino“ bezeichnet wird.

Schauen wir uns in aller Ruhe die Wechselwirkungen von El Nino/La Nina an und betrachten die auftauchenden Phänomene.

Lassen Sie mich zunächst die Erscheinung und die Klasse der Phänomene, die als „emergent“ bezeichnet werden, erörtern. Hier sind die bestimmenden Merkmale der verschiedenen Phänomene.

Auftauchende Phänomene erscheinen, oft sehr schnell, aus einem, wie man es nennen könnte, „eigenschaftslosen Hintergrund“ heraus. Zum Beispiel dämmert ein Tag in den tropischen Ozeanen typischerweise mit klarem Himmel an. Das bleibt so bis zum späten Vormittag, wenn sich plötzlich und ohne Vorwarnung aus dem nichtssagenden blauen Himmelshintergrund bauschige weiße Kumuluswolken bilden und den halben Himmel bedecken. Diese Kumuluswolken sind ein emergentes Phänomen.

Im Allgemeinen sind emergente Phänomene nicht das, was man als offensichtlich vorhersehbar bezeichnen könnte, bevor sie entstehen. Nehmen wir zum Beispiel an, man hätte sein ganzes Leben unter tropisch klarem, blauem Morgenhimmel gelebt, ohne jemals Wolken gesehen zu haben oder etwas über Wolken zu wissen. Auf keinen Fall würde man aufblicken und sagen: „Wissen Sie was? Ich glaube, ein ganzer Haufen riesiger weißer, bauchiger Massen könnte plötzlich weit oben am Himmel erscheinen!“ Die Leute würden einen als verrückt bezeichnen.

● Zweitens sind auftauchende Phänomene im Allgemeinen nicht von Dauer. Beispielsweise lösen sich die tropischen Kumuluswolken typischerweise vor Sonnenaufgang auf. Emergente Phänomene haben in der Regel eine Emergenzzeit, eine Lebensdauer und eine Dissipationszeit.

● Emergente Phänomene sind oft, aber bei weitem nicht immer, mit einem Phasenwechsel verbunden. Zum Beispiel sind die oben erwähnten Wolken mit Kondensation verbunden, d.h. einem Phasenübergang von Wasserdampf in der Luft zu winzigen Flüssigkeitströpfchen in den Wolken.

● Auftauchende Phänomene sind oft mobil und wandern durch die Landschaft. Ein hervorragendes Beispiel für diese Art emergenter Phänomene sind die bekannten „Staubteufel“, die sich häufig über trocken-heiße Landschaften bilden.

● Emergente Phänomene betreffen Strömungssysteme, die weit entfernt vom Gleichgewicht sind.

● Emergente Phänomene entstehen, wie der Name schon sagt, spontan unter bestimmten Bedingungen.

Die Bedingungen für diese Entstehung sind oft von Schwellenwerten abhängig. Sobald die Schwelle überschritten ist, können schnell viele Einzelbeispiele des Phänomens auftreten. Dies gilt zum Beispiel für die oben diskutierten tropischen Kumuluswolken. Wenn der Morgen warm genug und eine lokale Temperaturschwelle überschritten wird, bildet sich schnell aus dem Nichts ein Himmel voller Kumuluswolken.

Auftauchende Phänomene sind im Allgemeinen nicht zyklisch. Sie wiederholen sich nicht und bewegen sich auch nicht in vorhersehbarer Weise. Aus diesem Grund haben die Vorhersagen z. B. von tropischen Wirbelstürmen hinsichtlich ihrer Zugbahn immer eine Bandbreite.

Von den kleinsten bis zu den größten, die auftauchenden Phänomene, die meiner Meinung nach zusammenwirken, um die globale Temperatur zu regulieren, umfassen:

● Staubteufel

● Rayleigh-Benard Zirkulation der Atmosphäre und des Ozeans

● Tägliche Cumulus-Wolkenfelder

● Tropische (konvektive) Gewitter

● Sturmlinien und andere Gewitteransammlungen

● Tropische Wirbelstürme

● Der El Nino/La Nina-Umbau, diskutiert in diesem Beitrag

● Ozeanweite Schwingungen wie die Pacific Decadal Oscillation (PDO), Atlantic Multidecal Oscillation (AMO) und ähnliches.

All dies sind die Temperatur regelnde Phänomene. Wenn die lokale Temperatur ein bestimmtes Niveau überschreitet, treten sie auf und kühlen die Oberfläche auf verschiedenste Weise ab.

Mit dieser Diskussion über auftauchende Phänomene als Prolog wollen wir uns ansehen, was im Pazifik geschieht. Hier ist ein Film über die monatlichen Meeresoberflächentemperaturen (SSTs). Man achte besonders auf die Zunge kühleren Wassers, die sich in unterschiedlicher Entfernung von Südamerika entlang des Äquators erstreckt.

Abbildung 1. Monat für Monat Temperaturschwankungen, Reynolds optimal interpolierter Meeresoberflächentemperatur-Datensatz. Das blaue Kästchen zeigt den Bereich „NINO34“, von 5°N bis 5°S und von 170°W bis 120°W

[Hinweis: Das ist eine Animation. Falls diese hier nicht dargestellt wird, bitte im Original schauen. Anm. d. Übers.]

Wo in all dieser endlosen Bewegung sind also die El Nino und die La Nina? Hier ist eine Zeichnung der NOAA, die die normalen Bedingungen im Pazifik zeigt:

Abbildung 2: Die Karte (obere Fläche) zeigt den Pazifischen Ozean von Amerika (braune Fläche, rechter Rand) bis Australien (braune Fläche, linker Rand). Die Grafik zeigt die Meeresoberflächentemperatur (Farben von blau bis rot für kalt bis heiß), die atmosphärische Zirkulation (schwarze Pfeile), die Meeresströmung (weiße Pfeile) und die „Sprungschicht“ (blaues Untergrundblatt). Die Sprungschicht ist der Boden der gemischten Schicht – oberhalb der Sprungschicht vermischt sich der Ozean regelmäßig, und unterhalb der Sprungschicht findet nur eine geringe Vermischung statt. Infolgedessen ist das Wasser oberhalb der Sprungschicht wärmer, oft viel wärmer, als das Wasser unterhalb der Sprungschicht.

Zuweilen staut sich die Wärme jedoch im östlichen Pazifik in der Nähe von Amerika. In diesem Fall ändert sich sowohl die atmosphärische als auch die ozeanische Zirkulation, wie in Abbildung 3 dargestellt. Die Sprungschicht vertieft sich mit wärmerem Wasser nahe der Küste Amerikas:

Abbildung 3: El Niño-Bedingungen. Die Oberfläche in der Nähe von Amerika ist wärmer. Die Sprungschicht vor der Küste Amerikas ist tiefer.

Um von der Theorie zur Messung überzugehen, folgt hier ist die Meeresoberflächentemperatur (Abbildung 4) sowie die Anomalie derselben (jahreszeitliche Schwankungen heraus gerechnet, Abbildung 5) während eines El Niño:

Abbildung 4: Meeresoberflächentemperatur während des Höhepunktes (November) des großen El Nino von 1997-1998. Man beachte die hohe Wassertemperatur in dem blauen Rechteck, welches das NINO34-Gebiet umreißt. Die Temperatur in diesem Gebiet ist eine Diagnose des Zustands der Veränderung von El Nino/La Nina.

Abbildung 5: Anomalie der Meeresoberflächentemperatur (jahreszeitliche Schwankungen beseitigt) während des Höhepunktes (November) des großen El Nino von 1997-1998. Dies zeigt den großen Hitzestau entlang des Äquators im östlichen Pazifik in der Nähe des amerikanischen Kontinents.

Nachdem ein El Nino-Zustand seinen Höhepunkt erreicht hat, beginnt starker Passatwind in Richtung Asien zu wehen. Dieser bläst das warme Oberflächenwasser in Richtung Asien bis zu dem Punkt, an dem die Sprungschicht vor der Küste Amerikas ganz an die Oberfläche kommt. Wenn das warme Wasser auf die Küste Asiens trifft, spaltet es sich in zwei Hälften. Ein Teil geht in Richtung Arktis und der andere Teil geht in Richtung Antarktis. Hier ist die NOAA-Grafik, die die La Nina-Bedingungen zeigt:

Abbildung 6: Schematische Darstellung der La Nina-Bedingungen

Und wie oben gezeigt, ist unten ein tatsächlicher La Nina-Zustand dargestellt. Dies ist der La Nina-Höhepunkt desselben Nino/Nina-Zyklus in Abbildung 5, der 12 Monate zuvor, im November 1997, begonnen hatte.

Abbildung 7: Optimal interpolierte Wassertemperatur nach Reynolds im November 1988.

Und hier die Temperatur-Anomalie jener Zeit:

Abbildung 8: Abbildung 8. SST-Anomalie (saisonale Schwankungen entfernt) während eines La Nina-Höchepunktes.

Man beachte in Abbildung 8 oben, wie die Passatwinde die kühleren unterirdischen Gewässer über den gesamten äquatorialen Pazifik hinweg freigelegt haben. Sie wurden freigelegt, weil das warme Wasser nach Westen gedrückt wurde. Man erkennt, wie das warme Wasser, wenn es auf Asien/Australien trifft, meist in zwei Teile gespalten wird und sich in Richtung der Pole bewegt.

Nun sagte ich oben, dass ich eine Funktionsanalyse mache. Ich schaue nicht auf die Ursachen von El Ninos oder La Ninas. Ich versuche nicht, die Prozesse zu verstehen. Stattdessen schaue ich darauf, was sie bewirken.

Dabei sehe ich, dass es falsch ist, von El Nino und La Nina als getrennte Phänomene zu sprechen. Sie funktionieren zusammen als die größte Pumpe der Welt. Sie pumpen Billionen von Tonnen warmen äquatorialen Pazifikwassers polwärts. Es wird so viel Wasser gepumpt, dass die Höhe der äquatorialen Pazifikoberfläche sinkt, und der Effekt ist an den lokalen Pegeln sichtbar.

Abbildung 9: Die Nino/Nina-Unterschiede, wie sie durch die TAU/TRITON vertäuten Bojen entlang des Äquators gezeigt werden. Sie blicken nach Westen, über den Äquator im Pazifik, von einem Aussichtspunkt irgendwo in den Anden in Südamerika. Die farbigen Flächen zeigen die Meerestemperaturen von TAO/TRITON. Die obere Fläche ist die Meeresoberfläche, von 8°N bis 8°S und von 137°E bis 95°W. Die Form der Meeresoberfläche wird durch TAO/TRITON Dynamic Height-Daten bestimmt. Die breite vertikale Oberfläche liegt bei 8°S und erstreckt sich bis in 500 Meter Tiefe. Die schmalere vertikale Oberfläche befindet sich bei 95°W. Alle diese Daten stammen von der TAO/TRITON-Anordnung vertäuter Ozeanbojen im äquatorialen Pazifik.

Also … was passiert, wenn warmes Ozeanwasser zu den Polen transportiert wird? Es geht mehr Wärme an den Weltraum verloren. Abbildung 10 zeigt, wie viel aufsteigende Oberflächenstrahlung in den Weltraum gelangt, aufgeschlüsselt nach Breitengraden:

Abbildung 10: Abbildung 10. Menge der aufsteigenden Oberflächenstrahlung, die es in den Weltraum schafft, in einem Breitenband von 1°. Dies sind Monatsdurchschnitte über den gesamten Aufzeichnungszeitraum.

In Abbildung 10 oben liegt der tiefste Punkt bei etwa 7°N die Lage der ITCZ, der intertropischen Konvergenzzone. Wenn man beginnt, sich auf einen der beiden Pole zuzubewegen, gibt es eine sofortige und kontinuierliche Zunahme des Prozentsatzes der Wärmestrahlung an der Oberfläche, die in den Weltraum entweicht.

Angesichts der funktionalen Natur meiner Analyse nehme ich nun eine andere Identifizierung von „El Nino“ und „La Nina“ vor als die, die normalerweise angegeben wird.

Es gibt mehrere Indizes, die zur Bewertung der El Nino/La Nina-Bedingungen verwendet werden. Ein Beispiel für einen Index ist, dass „El Nino-Bedingungen“ Zeiten sind, in denen die Anomalie der Meeresoberflächentemperatur (SST) in der NINO34-Region (blauer Kasten) mehr als eine bestimmte Temperatur (oft um 1°C) wärmer ist als normal. Und „La Nina-Bedingungen“ sind Zeiten, in denen sie in der NINO34-Region (blue box) mehr als ein Grad kühler als normal sind. (Es gibt noch andere Identifikationen, aber sie alle identifizieren die Nino- und Nina-Bedingungen getrennt, und sie alle legen eine Temperaturschwelle für die Nino- und Nina-Bedingungen fest. Ich tue keines von beiden).

Ich betrachte sie nicht separat und habe auch keine festgelegten Temperaturen. Das liegt daran, dass ich sie nicht als separate Phänomene betrachte.

Im Gegensatz zu den Standarddefinitionen identifiziere ich das Nino/Nina-Phänomen als zusammenarbeitende Pumpe. Bei dieser Pumpe ist die El Nino die Spitze des Ansaughubs, und die La Nina ist die Spitze des Ausstoßhubs. Wir können diese Aktivität in einem Diagramm der Temperatur in der NINO34-Region sehen (blaues Rechteck in den obigen Diagrammen).

Abbildung 11. Meeresoberflächentemperatur im NINO34-Gebiet. Blaue Abschnitte zeigen die Zeiten, zu denen der Pumpvorgang stattfindet. Rote Punkte zeigen die Spitzenwerte der El Nino-Bedingungen und blaue Punkte die Spitzenwerte der La Nina-Bedingungen. Gepunktete vertikale weiße Linien zeigen den November eines jeden Jahres.

Ich habe die Zeiten des Pumpvorgangs blau hervorgehoben. Was mir zuerst an ihnen auffiel, ist das, was die Peruaner an ihnen bemerkt haben. Das ist, dass sie alle innerhalb eines Monats oder so im November beginnen und daher oft in der Nähe von Weihnachten stark sind … daher der Name „El Nino“ für den Baby Boy.

Mir ist noch eine andere Merkwürdigkeit aufgefallen. In allen hervorgehobenen Fällen beträgt die Dauer des Pumpvorgangs vom roten Punkt oben (Spitze „El Nino“) bis zum blauen Punkt unten (Spitze „La Nina“) ein Jahr plus oder minus einen Monat oder so. Auf diese Weise können wir die Pumpaktion von Nino/Nina von den normalen Temperaturschwankungen unterscheiden, die überall in der Natur vorkommen.

Die regelmäßige Länge des Entladungszyklus‘ von etwa 12 Monaten zeigt auch, dass die beiden (El Nino und La Nina) nicht als unabhängige Einheiten existieren. Stattdessen sind sie in einem einzigen größeren, einjährigen Phänomen eng miteinander verbunden.

Erinnern Sie sich nun daran, dass die Frage in der Funktionsanalyse lautet: Was bewirkt dieses einzelne größere kombinierte Nino/Nina-Phänomen?

Ich sage, dass die El Nino/La Nina-Pumpe ein emergentes Phänomen mit einer Lebensdauer von 12 Monaten ist. Es tritt auf, wenn im östlichen äquatorialen Pazifik genügend Wärme aufgebaut wird. Sie kühlt den äquatorialen Pazifik, und damit den gesamten Planeten, um

1) das warme äquatoriale Oberflächenwasser polwärts zu exportieren, wo die Wärme schneller in den Weltraum verloren geht, und durch

2) die kühlere Schicht unter der Ozeanoberfläche freizulegen, welche die Atmosphäre kühlt.

Die Funktion der El Nino/La Nina-Alteration besteht also darin, die Erde durch einen periodischen Pumpzyklus zu kühlen.

Wie viele andere sich abzeichnende Klimaphänomene ist es das, was ich als „Selbstverriegelung“ bezeichne. Damit meine ich, dass die Nino/Nina-Pumpe, sobald sie anspringt, Bedingungen schafft, unter denen sie sich selbst verstärkt und somit dazu neigt, sich zu halten.

Und so funktioniert das: Die Stärke der Passatwinde im äquatorialen Pazifik wird durch den Ost-West-Temperaturunterschied bestimmt. Jetzt, wo der Pumpvorgang im Gange ist, wird der Osten kühler, und das warme Wasser staut sich im Westen. Dadurch erhöht sich die Ost-West-Temperaturdifferenz, was wiederum die Ost->West-Windstärke erhöht, was wiederum die Temperaturdifferenz erhöht, was …

Dadurch wird es selbsthemmend, und dieses positive Feedback ist für die lange Dauer des Phänomens verantwortlich, sobald es einmal ausgelöst wurde. Sobald das Nino/Nina-Phänomen einsetzt, erzeugt es seinen eigenen Wind. Dadurch kann es weiterlaufen, bis das kalte Wasser entlang des gesamten Äquators offen ist, wie in Abbildung 8 oben erkennen.

Prognosen und Schlussfolgerungen

Nun, jede Theorie wie meine ist nur so gut wie ihre Vorhersagen. Wie kann ich also feststellen, ob die Nino/Nina tatsächlich ein aufkommendes Phänomen ist, das den Pazifik abkühlt, wenn sich überschüssige Wärme aufbaut?

Nun … wir könnten mit der Beobachtung beginnen, dass der Auslöser für den Pumpvorgang der Hitzestau im östlichen Pazifik ist. Die Form des Phänomens ist also offensichtlich temperaturbegrenzend (abkühlend) und thermisch schwellenwertbasiert (passiert eher, wenn es wärmer ist).

Was ich bis zu dieser Analyse nie herausgefunden hatte, war, wie man feststellen kann, ob das Nino/Nina-Pumpen-Phänomen insgesamt in wärmeren Zeiten häufiger oder stärker oder beides war als in kühleren Zeiten. Das Problem ist, dass wir bereits wissen, dass es durch überschüssige Wärme ausgelöst wird … aber nimmt es zu, wenn die überschüssige Wärme zunimmt? Und wie würde man diese Zunahme messen?

Ich habe erkannt habe, dass, wenn der Pumpvorgang in wärmeren Zeiten zunimmt, wie der aktuelle Reynolds SST-Rekord nach 1981, der eine allmähliche leichte Erwärmung der gesamten Ozeanoberfläche nachweist, wir unterschiedliche Erwärmungstrends im Pazifik sehen sollten.

Und wie das Muster von größeren und kleineren Trends aussehen sollte, ist das, wie es nach einem vollständigen Pumpzyklus aussieht – die Gebiete auf dem Weg zum Pol sollten wärmere Trends aufweisen, und der östliche Pazifik sollte kühler sein. Wenn die Anzahl der Nino/Nina-Zyklen zunimmt, wird sich die Energieübertragung im Trend zeigen. Der Trend sollte in dem Gebiet entlang des Äquators, wo die Pumpe kühleres Wasser freilegt, kleiner sein, und der Trend sollte dort größer sein, wo die Pumpe das warme Wasser bewegt, also westwärts und in Richtung der Pole.

So hat sich das am Ende des großen Nino/Nina-Zyklus 1997-1998 abgespielt. Zum Vergleich hier noch einmal Abbildung 8:

Und hier sind die Trends an der Meeresoberfläche während eines Zeitraums von 36 Jahren, als es, wie die Abbildung unten zeigt, eine leichte Erwärmung des SST gab (0,10°C pro Jahrzehnt):

Abbildung 12: Dekadische Trends der Meeresoberflächentemperatur.

Meine Schlussfolgerung aus der ausgeprägten Ähnlichkeit der beiden letzten Diagramme lautet, dass die Vorhersage meiner Theorie richtig ist – die Nino/Nina-Pumpe ist in der Tat ein die Temperatur regulierendes emergentes Phänomen, das einem Anstieg der Gesamttemperatur im tropischen Pazifik entgegensteht.

Link: https://wattsupwiththat.com/2020/11/08/boy-child-girl-child/

Übersetzt von Chris Frey EIKE




Zuverlässiger Strom? Ach was, Humbug!

Jetzt haben sie offenbar auch beschlossen, dass wir das intermittierende Fasten zu unserer Energiediät hinzufügen müssen, weil die Elektrizität in entwickelten Ländern wie den Vereinigten Staaten einfach zu zuverlässig ist, als dass es zu unserem eigenen Wohl wäre! Das Licht muss ab und zu ausgehen, oder, nun ja, der Planet ist dem Untergang geweiht.

Laut Hughes „könnte für diejenigen, die ernsthaft über den Klimawandel besorgt sind, der Umkehrschluss – die Forderung nach elektrischer Kontinuität – das eigentliche Problem sein“. Ja, Sie haben das richtig gelesen, der Wunsch, rund um die Uhr Strom zur Verfügung zu haben, ist die Ursache unserer globalen Klimakatastrophe, und wir müssen lernen, mit intermittierender Energie zu leben wie die glücklichen Camper in Simbabwe und Puerto Rico, die „Modelle für das liefern, was wir als Elektrizität voller Unterbrechungen bezeichnen könnten“.

Und wer ist der Erste auf der neuen Stromdiät? Warum Sie, Sie Einfamilienhaus-Umweltketzer? Hughes erklärt, dass „…jeder Haushalt, der kontinuierlich Strom nachfragt, die Klimakrise geringfügig verschärft. Vielleicht ist es dann entscheidend, dass wir keine Energie für diese Häuser speichern. Zumindest sollten wir dies nicht in einer Weise tun, die den Übergang von fossilen Brennstoffen behindert. Wir sollten erwägen, einige Jahre auf die Speicherung zu warten, die weit mehr als sechs Stunden Ausfallzeit pro Jahr ausmacht – um den Übergang weg von fossilen Brennstoffen zu beschleunigen“.

Sicherlich können Sie „ein paar Jahre“ mit zeitweiligen Stromausfällen und Stromausfällen umgehen, nicht wahr, Vorstädter?

Diese Energie-Rationierungsagenda wurde bisher durch eine Vielzahl von Scheinversprechungen verdeckt, die den Umstieg auf erneuerbare Energien erleichtern würden. Die Batterien, so wurde uns gesagt, werden sich so schnell anpassen, dass wir einfach Wind- und Solarenergie ausbauen können, während wir konventionelle Kraftwerke verkümmern und sterben lassen, und jeder wird seinen Kuchen haben und ihn auch essen! Leider ist die Realität der Einschränkungen bei der Batteriespeicherung für Menschen, die Tag für Tag die Realität der Batterien sehen, einfach zu offensichtlich: Sie werden mit der Zeit nicht mehr so viel stärker. Mark Mills vom Manhattan Institute weist auf Folgendes hin (und es empfiehlt sich, alles zu lesen!):

 Etwa 60 Pfund Batterien werden benötigt, um das Energieäquivalent von einem Pfund Kohlenwasserstoff zu speichern.

 Für jedes hergestellte Pfund Batterie werden mindestens 100 Pfund Material abgebaut, bewegt und verarbeitet.

 Für die Speicherung des Energieäquivalents von einem Barrel Öl, das 300 Pfund wiegt, werden 20.000 Pfund Tesla-Batterien (im Wert von 200.000 Dollar) benötigt.

Die Beförderung des Energieäquivalents des Flugbenzins eines Flugzeugs, das nach Asien fliegt, würde Batterien vom Typ Tesla im Wert von 60 Millionen Dollar erfordern, die fünfmal schwerer sind als dieses Flugzeug.

Und selbst Hughes gibt jetzt zu, dass die Herstellung von Batterien umweltschädlich ist, und Umweltschützer wollen nicht, dass Sie das tun, selbst wenn Sie es können. Schließlich sind Batterien einfach nicht umweltfreundlich:

Lithium-Ionen-Batterien sind auf dem besten Weg, diese Beschränkung zu überwinden, aber sie schaffen eigene Probleme. Wie bei den meisten Formen des Bergbaus entstehen auch bei der Lithiumgewinnung Giftstoffe, die in diesem Fall bei den einheimischen Abwicklern in Chile anfallen. Wie der Bergbau konzentriert auch der Lithiumhandel Macht und Reichtum in den Händen weniger Konzerne. Dieser Prozess, der manchmal als „Engpass“ bezeichnet wird, verwandelt eine Ressource, die zu reichhaltig für Profit ist – wie Sonnenlicht – in ein knappes und lukratives Gut. Nicht einmal der Umweltretter Elon Musk ist vor Missbrauch sicher, denn, so scheint es, Tesla „scheint auf dem Weg zu sein, einen kontrollierenden Anteil an jedem intelligenten Stromnetz zu erlangen, das an Elektrofahrzeuge angeschlossen ist; seine Powerwall-Batterie ist den weniger giftigen Technologien überlegen, und sie könnte sich schließlich mit einer Software verzahnen, die als ‚Reaktion auf die Nachfrage‘ bekannt ist“.

Oh, mein Gott! Sie meinen, Elon Musk ist ein Geschäftsmann? Nicht doch!

Die Moral dieser Geschichte ist, wenn die Typen „grüne“ Energie, „grüne Wirtschaft“, „Green New Deal“ sagen, dann drücken sie damit nur aus, dass Sie weniger haben sollen. Weniger Menge, weniger Zuverlässigkeit, weniger Erschwinglichkeit und weniger Flexibilität für die Verbraucher. Und das können Sie an die Wahlurne bringen.

Autor: Kenneth Green has studied energy and environmental policy at free-market think tanks in North America for over 20 years. He holds a Doctoral degree in Environmental Science and Engineering from UCLA, and has over 850 publications to his credit.

Link: https://www.cfact.org/2020/11/01/reliable-electricity-bah-humbug-kpg/

Übersetzt von Chris Frey EIKE




„Globale Abkühlung wird uns alle umbringen“

Versuche des berüchtigten William Connolley, der in einem vergeblichen Versuch, die Geschichte mit der willkürlichen Veränderung von 5428 Wikipedia-Einträgen zu verändern und den „Global Cooling Scare“ aus dem Internet zu löschen, scheiterten. Wie James Delingpole in The Telegraph erklärt, verwandelte Connolley Wikipedia systematisch in eine Maschine, welche die vom Menschen verursachte globale Erwärmung vor sich her peitschte (Delingpole, 2009). Er schrieb Artikel zur globalen Erwärmung, zum Treibhauseffekt, zu Klimamodellen und zur globalen Abkühlung um. Dabei versuchte er, die mittelalterliche Warmzeit und die kleine Eiszeit auszulöschen. Auf den Seiten von Wikipedia machte er berühmte Klimawissenschaftler, die der vom Menschen verursachten globalen Erwärmung skeptisch gegenüberstanden, wie Richard Lindzen, Fred Singer, Willie Soon und Sallie Baliunas, nieder. Außerdem hinderte er die Menschen daran, seine Lügen zu korrigieren.

William Connolley ist mit Michael Mann und seinem Hockeyteam befreundet, zu welchem auch Phil Jones und Raymond Bradley gehören. Er ist auch Mitbegründer der alarmistischen Website Realclimate.org. Offensichtlich sorgte Connolley dafür, dass Mann und Bradley bei Wikipedia glühendes Lob erhielten, bis er 2009 gefeuert und als Wikipedia-Administrator abgesetzt wurde (Delingpole, 2009).

Es überrascht uns nicht, dass Connolley als Koautor der von Fachkollegen begutachteten Studie „The Myth of the 1970s Global Cooling Scientific Consensus“ in BAMS [= Bulletin of the American Meteorological Society] auftaucht, das von Thomas Peterson, William Connolley und John Fleck verfasst wurde (Peterson, Connolley, & Fleck, 2008). Das Papier ist Unsinn und macht keinen Unterschied, weil Fakten stur sind. Dass die Studie die Begutachtung bestanden hat, zeigt, wie korrupt die Klimawissenschaft geworden ist. Die Einleitung darin liest sich so:

In den 1970er Jahren gab es keinen wissenschaftlichen Konsens darüber, dass die Erde auf eine bevorstehende Eiszeit zusteuerte. Tatsächlich dominierte die Möglichkeit einer anthropogenen Erwärmung schon damals die von Experten begutachtete Literatur“. (Peterson, Connolley, & Fleck, 2008)

Abbildung 1. Rekonstruktion der globalen Durchschnittstemperatur seit 1850 seitens U.K. Met Office Hadley Centre und der Climatic Research Unit (CRU) an der University of East Anglia. Sie zeigt, wie auch andere Rekonstruktionen, eine globale Abkühlung um etwa 0,09°C (0,16°F) von 1944 bis 1977.

Die globale Abkühlungsangst der 1960er und 1970er Jahre war vorhanden: Sowohl Klimawissenschaftler als auch die Öffentlichkeit befürchteten, dass sich der globale Abkühlungstrend, der in den 1940er Jahren begann (siehe Abbildung 1), fortsetzen und die Welt sehr kalt werden, vielleicht sogar zu einer Gletscherperiode zurückkehren würde, wie sie vor etwa 11.700 Jahren zu Beginn des Holozäns endete.

Die Studie von Peterson, et al. sucht sich ebenso sorgfältig wie willkürlich 71 Studien heraus und behauptet, dass nur sieben davon zwischen 1965 und 1979 der „Konsens“-Position widersprachen, der zufolge die globale Erwärmung in der Zukunft stattfinden würde. Sie fanden 20, die eine neutrale Position vertraten und 44, die mit dem Konsens über die globale Erwärmung übereinstimmten. Aber die Welt kühlte sich damals ab und zwar seit 1944. Kenneth Richard untersuchte dies und erweiterte den Zeitrahmen auf 1960 bis 1989. Richard fand 285 Studien, die nicht mit der „Konsens“-Position übereinstimmten, dass die globale Erwärmung in der Zukunft stattfinden würde (Richard, 2016).

Von diesen 285 Beiträgen diskutierten 156 die Abkühlung seit 1940 und sagten eine zukünftige Abkühlung voraus. Sieben versuchten zu zeigen, dass CO2 die Abkühlung verursachen könnte. Eine vollständige Liste der Beiträge kann von Kenneth Richards Beitrag heruntergeladen werden. Die Panikmacher fälschten die Zahlen, um einen 97%igen Konsens darüber zu zeigen, dass der Mensch die globale Erwärmung verursacht hat, dann fälschten sie auf die gleiche Weise den Konsens über die globale Kühlung.

Angus McFarlane nahm die von Kenneth Richard und Peterson u.a. erstellten Datenbanken, führte sie zusammen (es gab 16 Duplikate) und führte dann eine eigene unabhängige Suche durch. Er fand zwei weitere relevante Studien, die nicht bereits in einer der beiden Datenbanken enthalten waren. Dann eliminierte er die Studien, die außerhalb des ursprünglichen Zeitraums von 1965-1979 von Peterson et al. lagen.

McFarlanes Datenbank ist kleiner als die von Richard und enthält nur 190 relevante Arbeiten, aber das sind 119 mehr als die von Peterson u.a. gefundenen, und sie decken den gleichen Zeitraum ab. McFarlanes Durchsicht der Arbeiten ergab, dass 86 eine künftige Abkühlung, 58 eine neutrale und 46 eine Erwärmung vorhersagten. Von den 86 Abkühlungs-Studien sagten 30 eine mögliche neue „Eiszeit“ voraus. Streng genommen befinden wir uns nun aber in einer Eiszeit, was bedeutet, dass eine neue Eiszeit gemeint ist, in der sich das Eis zu einem neuen großen neuen Maximum ausdehnt wie vor 19.000 Jahren im letzten großen Gletschermaximum. Die 86 Abkühlungs-Studien machen 45% der Gesamtzahl aus. Wenn wir die neutralen Papiere ignorieren, wie es John Cook, et al. (Cook, et al., 2013) in seiner 97%-Konsensstudie taten, dann machen die Abkühlungspapiere 65% der Papiere aus, die eine Stellungnahme abgegeben haben. Wenn wir Cooks Regeln verwenden, können wir bequemerweise behaupten, dass es 1979 einen globalen Konsens bzgl. Abkühlung gab.

Als sich jedoch der Abkühlungstrend Mitte des zwanzigsten Jahrhunderts umkehrte und zu einem Erwärmungstrend wurde, dauerte es nicht lange, bis sich auch der „Konsens“ umkehrte. Der globale Oberflächentemperatur-Trend änderte sich um 1977 in Erwärmung (etwa 0,017°C/Jahr, wie in der Grafik dargestellt), und die von Experten begutachteten Klimastudien von 1977-1979 änderten sich in ein Verhältnis von 52% pro Erwärmung zu 48% pro Abkühlung, eine knappe Mehrheit der Erwärmungs-Studien, wobei die neutralen Studien ignoriert wurden. In den 1980er Jahren änderten sich der Trend in den Studien schnell auf Pro-Erwärmung.

[Hervorhebung vom Übersetzer]

Mitte der siebziger Jahre berichtete die Presse, dass ein Konsens von Klimawissenschaftlern glaubte, die Welt kühle sich ab und die Abkühlung werde sich fortsetzen (Struck, 2014). Artikel über den Abkühlungskonsens erschienen in Newsweek, Time, der New York Times und National Geographic. Eine bahnbrechende Geschichte von Peter Gwynne in Newsweek vom 28. April 1975 war typisch (Gwynne, 1975). Sie trug den Titel „The Cooling World“. Im überhitzten Stil der Newsweek beginnt der Artikel: „Es gibt unheilvolle Anzeichen dafür, dass sich die Wettermuster der Erde dramatisch zu verändern begonnen haben“. Später in dem Artikel erklärt Gwynne atemlos: „… das Klima der Erde scheint sich abzukühlen … und die daraus resultierenden Hungersnöte könnten katastrophal sein“. Zu Gwynne’s zitierten Quellen gehören die National Academy of Sciences, Murray Mitchell (NOAA), George Kukla (Columbia University), James McQuigg (NOAA’s Center for Climatic and Environmental Assessment) (Gwynne, 1975).

Anders als viele seiner Kollegen änderte George Kukla von der Columbia University und dem Lamont-Doherty Earth Observatory seine Ansicht über einen langfristigen globalen Abkühlungstrend nicht. Als er am 31. Mai 2014 traurigerweise verstarb, glaubte er immer noch, dass in der Zukunft, vielleicht in 5.000 Jahren, eine neue massive Eiszeit beginnen würde. Javier Vinós sagt in seinem Blogbeitrag über „The next glaciation“ (Vinós, 2018) voraus, dass die nächste große Eiszeit in 1500 bis 2500 Jahren beginnen würde. Es ist ein Glück, dass beide Vorhersagen weit in der Zukunft liegen.

Wenn die nächste globale Abkühlungsperiode beginnt, was unvermeidlich der Fall sein wird – werden Klimawissenschaftler dann mehr Studien bzgl. globaler Abkühlung schreiben? Warum sollten wir Klimawissenschaftlern glauben, die sagen, dass sich die Welt jetzt gefährlich erwärmt, während sie noch vor 50 oder 60 Jahren sagten, dass sie sich gefährlich abkühlt? Eine vernünftige Frage. Welche direkten Beweise sind aufgetaucht, die sie überzeugt haben, den Kurs umzukehren? Wir hatten einen Konsens für die Abkühlung, als sich die Welt abkühlte, jetzt haben wir einen Konsens für die Erwärmung, und die Welt erwärmt sich. Ist das alles, was es dazu zu sagen gibt? Beides sind Hypothesen – was lässt sie zu Fakten oder Theorien werden?

Hypothesen sind spekulative Ideen. Ein echter Wissenschaftler fragt: „Ist das so? Sagen Sie mir, warum Sie das denken!“ Mit einem strengen wissenschaftlichen Verfahren muss nachgewiesen werden, warum beobachtete Ereignisse wie die globale Erwärmung oder Abkühlung eintreten. Zu zeigen, dass sie potenziell gefährlich sind, erfordert sogar noch mehr Arbeit.

Konsens ist eine politische Sache. Die Öffentlichkeit bildet eine Konsensmeinung, stimmt dann ab und erlässt Gesetze oder Regeln, die diese Meinung reflektieren. In der Wissenschaft entwickeln wir zunächst eine Hypothese oder einen Gedanken, der ein beobachtetes Naturphänomen, wie z.B. eine Erwärmung oder Abkühlung, erklärt. Der nächste Schritt ist der Versuch, dies zu widerlegen. Wenn das nicht gelingt, überlebt die Hypothese. Wir veröffentlichen, was wir getan haben, und andere versuchen, die Hypothese zu widerlegen; wenn auch sie das nicht schaffen, überlebt sie. Wenn dies lange genug so weitergeht, wird der Gedanke zu einer Theorie. Eine wissenschaftliche Theorie überlebt einfach, sie wird nie bewiesen, sie muss immer einer Prüfung unterzogen werden.

Wir haben bereits erwähnt, dass sieben der von Angus McFarlane und Kenneth Richard untersuchten Papiere darauf hinwiesen, dass CO2 eine globale Abkühlung verursachen könnte. Ein gutes Beispiel ist Sherwood Idsos Beitrag von 1984 im Journal of Climatology. Das Papier trägt den Titel [übersetzt] „Was ist, wenn ein Anstieg des atmosphärischen CO2 einen umgekehrten Treibhauseffekt hat?“ (Sherwood Idso, 1984). Idso spekuliert, dass zusätzliches CO2 die Pflanzen dazu veranlassen wird, in trockenere Gebiete zu ziehen, weil zusätzliches CO2 bewirkt, dass die Pflanzen weniger Wasser für ihr Wachstum verbrauchen. Idso glaubt, dass dies die Albedo (Reflexionsvermögen) der Erde so verändern könnte, dass die Temperaturen sinken. In ähnlicher Weise spekulierten Richard Lindzen und Yong-Sang Choi, dass zusätzliches CO2 die Luftfeuchtigkeit in den Tropen und damit die Bewölkung erhöhen würde (Lindzen & Choi, 2011). Extrem kleine Veränderungen der durchschnittlichen Bewölkung können tagsüber einen großen kühlenden Effekt haben.

Peter Webster präsentiert eine interessante Diskussion über Sherwood Idsos Arbeit in seiner Klimawandel-Studie „The Carbon Dioxide/Climate Controversy: Some Personal Comments on Two Recent Publications“ (Webster, 1984). Neben einer interessanten Diskussion über die Emotionen, die mit der Debatte über den vom Menschen verursachten Klimawandel verbunden sind, können wir aus Websters Diskussion und Idsos Papier ersehen, wie wenig wir wirklich über die Auswirkungen von zusätzlichem CO2 in der realen Welt wissen. Winzige Veränderungen in der Albedo der Erde, sei es durch Bewölkung oder durch die Verteilung von Pflanzen, können einen großen Unterschied machen.

Empirische Schätzungen der ECS (die Veränderung der Lufttemperatur aufgrund der Verdoppelung der CO2-Konzentration) haben nie mit theoretischen Berechnungen aus Klimamodellen übereingestimmt. Die empirischen Werte (wie die von Idso oder die von Lindzen und Choi) sind normalerweise nur etwa halb so groß wie die Modellschätzungen und können wie die von Idso sogar negativ sein. Dies ist wahrscheinlich, weil den Modellen etwas fehlt – u. A. vielleicht mögliche zukünftige Veränderungen der Albedo durch wechselnde Bewölkungsverhältnisse und die Verbreitung von Pflanzen.

This post is condensed and modified from my new book, Politics and Climate Change: A History.

To download the post bibliography click here

Link: https://wattsupwiththat.com/2020/11/05/global-cooling-will-kill-us-all/

Übersetzt von Chris Frey EIKE