Der Grüne Wahnsinn bürdet den Armen immer neue Kosten auf

Es gibt zahlreiche, zumeist gravierende Fakten hinsichtlich der ökologischen Auswirkungen intermittierender Stromsysteme auf Mensch und Umwelt, welche allesamt den Kaliforniern vorenthalten werden. Darunter sind viele Kalifornier, welche sich die höchsten Treibstoff- und Stromkosten am wenigsten leisten können – Preise, die schon jetzt mit die höchsten der ganzen Nation [= der USA] sind. Das sind die gleichen Kalifornier, die weniger als die Hälfte von einem Prozent (0,5%) der Weltbevölkerung (40 Millionen gegenüber 8 Milliarden) ausmachen. Zu den Informationen, die der Klimakult unbedingt geheim halten will, gehören:

● Der Umstieg auf Elektrizität ALLEIN und die Eliminierung fossiler Brennstoffe würde bedeuten, dass Amerika 100% seines Benzins und alle Erdöl- und Erdgasvorräte für Pharmazeutika, Kosmetika, Farben, synthetische Fasern, Düngemittel und Kunststoffe für Mobiltelefone, Computer, Autokarosserien, Verpackungen, Windturbinenblätter, Solarzellenfolien und mehr als 6.000 Produkte, die aus Erdölderivaten hergestellt werden, ersetzen müsste. Zur Erinnerung: Ohne das Transportwesen und die Freizeit- und Unterhaltungsindustrie, die es vor 1900 nicht gab, gäbe es keinen Handel.

● Die Abhängigkeit von intermittierendem Strom aus Wind und Solar führte dazu, dass Kalifornien bis zu 29 Prozent seines Stromes importiert, um seinen Bedarf zu decken. Zum Nachteil derer, die sich die teure Energie am wenigsten leisten können, hat dieser verschwenderisch teure Stromimport dazu beigetragen, dass die ärmsten Einwohner, insbesondere Latinos und Afroamerikaner, mehr als 50 Prozent mehr für Strom bezahlen als der Rest des Landes.

● Die Auswirkungen der Kraftwerksschließungen in Kalifornien werden die Stromkosten erhöhen, da Kalifornien plant, drei Erdgaskraftwerke und sein letztes Kernkraftwerk zu schließen. Diese vier Kraftwerke haben die Kalifornier kontinuierlich und unterbrechungsfrei mit Strom versorgt. Da der Bundesstaat keine Pläne hat, die Stilllegungskapazität durch intermittierenden Strom aus Wind- und Sonnenenergie zu ersetzen, wird der Staat mehr kostspieligen Strom importieren müssen, um die Lücke zu füllen, was Bewohner und Unternehmen teuer bezahlen müssen.

● Der Klimakult hat Angst davor, dass bekannt wird, dass alle mineralischen Produkte und Metalle, die zur Herstellung von Windturbinen, Sonnenkollektoren und EV-Batterien benötigt werden, an Orten wie Baotou, der Inneren Mongolei, Bolivien und der Demokratischen Republik Kongo, meist unter chinesischer Kontrolle, unter minimalen bis nicht existenten Arbeits-, Lohn-, Umwelt-, Rückgewinnungs- und Arbeitsschutzbestimmungen abgebaut und verarbeitet werden. Allein der Abbau dieser exotischen Mineralien bringt weltweit soziale Herausforderungen, Menschenrechtsverletzungen und Umweltzerstörung mit sich

[Hervorhebung vom Übersetzer]

● Die Schrecken, welche die Arbeiter in den Kobaltminen durchmachen müssen, d.h. das eigentliche Ausgraben der Minen von Hand zusammen mit den schrecklichen Lebensbedingungen, sind vielfach dokumentiert. Amnesty International hat das Schicksal von Kindern und Erwachsenen dokumentiert, die in engen, von Menschenhand gebauten Tunneln Kobalt abbauen, zusammen mit der Exposition gegenüber den gefährlichen Gasen, die bei der Beschaffung dieser seltenen Mineralien freigesetzt werden.

[Hervorhebung vom Übersetzer]

● Allein für Kobalt schuften mehr als 40.000 kongolesische Kinder, teils nicht älter als 4 Jahre, an der Seite ihrer Eltern für einen Dollar pro Tag in den Minen und riskieren dabei, in Höhlen einzustürzen und ständig schmutzigem, giftigem, radioaktivem Schlamm, Staub, Wasser und Luft ausgesetzt zu sein. [Siehe auch hier beim EIKE]

● Diese Verbrechen gegen Umwelt und Menschenrechte können nur unter einem System zügelloser Doppelmoral gedeihen. Der Klimakult steht hinter diesen Untaten, solange es um „Erneuerbare“ geht.

● Selbst wenn Kalifornien oder die gesamten USA morgen den gesamten Verbrauch fossiler Brennstoffe eliminieren würden – es würde keinen Unterschied für die globalen Kohlendioxidwerte machen, verfügen doch China und Indien über mehr als 5000 Kohlekraftwerke und errichten 600 weitere Kraftwerke, um ihre Bevölkerung zuverlässig und bezahlbar mit grundlastfähigem Strom zu versorgen.

Seit 1990 sind die CO2-Emissionen der Industrieländer zurückgegangen, während sich die CO2-Emissionen der Entwicklungsländer seit 1985 vervierfacht haben. Dieses Gefälle hat folgende Gründe:

● die Verlagerung wichtiger CO2-emittierender Industrien in Teile der Welt, die weniger strenge Umweltnormen haben oder die sich weniger um CO2-Emissionen kümmern, und

● die zunehmende Nutzung der Kohleverbrennung zur Stromerzeugung in den Entwicklungsländern.

Der Hauptgrund dafür, dass der Klimakult sich hemmungslos gegen die Transparenz jeglicher Daten über die von ihnen favorisierte intermittierende Elektrizität aus Wind und Sonne wendet ist, dass sie sich gegenüber den ländlichen, armen, Minderheiten- und Arbeiterfamilien und -gemeinschaften rechtfertigen müssten. Die Öffentlichkeit muss die weltweiten ökologischen, gesundheitlichen und wirtschaftlichen Schäden akzeptieren, die ihnen bei der Verfolgung ihrer pseudo-erneuerbaren Stromutopie zugefügt werden. Darüber hinaus müssen diejenigen, die sich die Leidenschaft für intermittierenden Strom am wenigsten leisten können, moralisch akzeptieren, dass Afrikaner, Asiaten und Lateinamerikaner den Status von Sklavenarbeit ertragen müssen, um die Agenda des Klimakults voranzubringen.

Hoffen wir, dass die jetzt schweigende Mehrheit Recht und Ordnung, eine zivile Debatte, eine durchdachte Reflexion über unsere komplexe Geschichte und eine rationale Lösung dieser heiklen Probleme wiederherstellen kann, denn die derzeitige Klimapolitik diskriminiert im Wesentlichen arme Menschen und Minderheiten weltweit.

[Hervorhebungen vom Übersetzer]
Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics
Link: https://www.cfact.org/2020/06/30/the-green-delusion-continues-to-push-costs-upon-the-poor/
Übersetzt von Chris Frey EIKE
Bemerkung des Übersetzers: Wie um Himmels willen kann man bloß die hier beschriebenen Skandale der Öffentlichkeit bekannt machen, wenn Medien und Politik derartig mauern?!




Das Wirrwarr von Klima­modellen

Ein Gedankenexperiment

Hier ist das Gedankenexperiment: Wir wollen eine Verbindung herstellen, die irgendwie Farbe erzeugt (der Mechanismus, wie sie das macht, ist nicht wirklich relevant). Wir wollen jedoch speziell eine gut definierte Farbe, die von der Anwendung, für die sie verwendet werden soll, vorgeschrieben wird. Sagen wir einen Türkis-Ton.

Nun haben unsere Geologen und Chemiekollegen einige Mineralien und Verbindungen vorgeschlagen, die Kandidaten für unser buntes Unternehmen sein könnten. Leider gibt es keinerlei Informationen darüber, welche Farben diese Stoffe produzieren. Dieser Umstand wird noch dadurch verstärkt, dass die Minerale äußerst selten und daher extrem teuer sind, während synthetische Minerale wirklich schwierig herzustellen und daher noch teurer sind. Wie gehen wir also vor, wie finden wir die besten Verbindungen, die wir ausprobieren können? Es kommt nicht in Frage, von jeder der vielen Verbindungen ein Muster zu bekommen und jede von ihnen auf die Farbe zu testen, die sie erzeugt. Was wir also tun, ist, die Physik des Farbe erzeugenden Prozesses für jede der vorgeschlagenen Verbindungen zu modellieren, um diejenigen zu finden, die Türkis erzeugen, falls es welche gibt. Das klingt einfach genug, ist es aber nicht, weil es mehrere verschiedene Codes gibt, nämlich insgesamt 5, die vorgeben, eine solche Simulation durchzuführen, jeder mit seinen eigenen zugrunde liegenden Annahmen und Eigenheiten. Wir führen diese Codes für die vorgeschlagenen Verbindungen durch und stellen fest, dass die Farben, die sie prognostizieren, leider für einzelne Verbindungen und im Allgemeinen überall uneinheitlich sind.

Nehmen Sie zum Beispiel die Verbindung Novelium1. Die vorhergesagten Farben reichen von Gelbgrün bis zu tiefem Violett mit einigen wenigen dazwischen wie Grün, Blau oder Ultramarin, ein Frequenzbereich mit dem Faktor 1,3; ähnlich für die anderen Kandidaten. In dieser Situation ist der einzige Weg vorwärts ein Experiment. Also graben wir tief in das Budget hinein und besorgen uns eine Probe von Novelium1, um zu sehen, welche Farbe es tatsächlich produziert. Es stellt sich als orange-rot heraus, was ziemlich enttäuschend ist. Wir sind wieder da, wo wir angefangen haben. Und wegen unserer Haushaltsbeschränkungen sind wir an dem Punkt, an dem wir aufgeben müssen.

Hier wollen wir ein Mitglied unseres Teams vorstellen. Nennen wir es Mike. Mike ist ein bisschen aufdringlich, weil ihm völlig klar ist, dass wir, wenn wir unser Ziel erreichen sollten, den einen oder anderen prestigeträchtigen Preis bekommen würden, etwas, worauf er ziemlich scharf ist. Er schlägt Folgendes vor: Wir nehmen das Modell, das die Farbe vorhergesagt hat, die der tatsächlichen Farbe am nächsten kommt, das ist das Modell, das uns Gelb-Grün gegeben hat, und passen seine Parameter so an, dass es stattdessen Orange-Rot vorhersagt. Das ist nicht allzu schwierig, und nach ein paar Tagen, in denen er auf einer Tastatur herumtüftelt, kommt er mit einem angepassten Modell, das die beobachtete Farbe erzeugt. Geschicklichkeit rundherum, bis auf ein oder zwei weitere skeptische Teammitglieder, die darauf bestehen, dass das neue Modell validiert werden muss, indem es die Farbe der Verbindung Novelium2 korrekt vorhersagen lässt. Da der Preis darauf beruht, ist dies eindeutig ein Muss, also kratzen wir den Boden des Budgets ab und wiederholen die Übung für Novelium2. Das angepasste Modell sagt Gelb voraus. Das Experiment ergibt Orange.

Wir gaben auf.

Was bedeutet das nun?

Können wir irgendetwas Nützliches hieraus ableiten? Um das herauszufinden, müssen wir drei Fragen beantworten.

Erstens: Was wissen wir nach der ersten Phase des Projekts, der Modellierungsübung, bevor wir das Experiment durchführten? Bedauerlicherweise lautet die Antwort: nichts Nützliches. Bei 5 verschiedenen Ergebnissen wissen wir nur mit Sicherheit, dass mindestens 4 der Modelle falsch sind, aber nicht welche. Selbst wenn die von uns gewünschte Farbe (Türkis) auftaucht, wissen wir immer noch nichts. Denn wie kann man sicher sein, dass der Code, der ihn erzeugt, das „richtige Ergebnis“ ist, wenn man die Ergebnisse der a priori gleichwertigen anderen Modelle berücksichtigt? Das kann man nicht. Wenn ein Modell uns Türkis gab, könnte es einfach ein glücklicher Zufall sein, wenn das Modell selbst noch fehlerhaft ist. Allein die Tatsache, dass die Modelle sehr unterschiedliche Ergebnisse liefern, sagt uns daher, dass höchstwahrscheinlich alle Modelle falsch sind. Tatsächlich ist es sogar noch schlimmer: Wir können nicht einmal sicher sein, dass die von Novelium1 erzeugte Echtfarbe im Bereich von Gelbgrün bis Violett liegt, selbst wenn es ein Modell gäbe, das die von uns gewünschte Farbe erzeugt. Im Anhang gebe ich eine einfache, auf Wahrscheinlichkeit basierende Analyse zur Unterstützung dieses und der folgenden Punkte.

Zweitens, was wissen wir nach dem unerwarteten Ausgang des eigentlichen Experiments? Wir wissen nur mit Sicherheit, dass alle Modelle falsch sind (und dass es nicht die gesuchte Verbindung ist).

Drittens: Warum ist Mikes kleiner Trick so kläglich gescheitert? Was ist da passiert? Die Parametereinstellung des ursprünglichen, ungefilterten Modells verkörpert das beste Verständnis der Physik – von seinen Machern, wenn auch unvollständig, aber das ist nicht wirklich relevant –, die ihm zugrunde liegt. Durch Modifizierung dieser Parameter wird dieses Verständnis verwässert, und wenn die „Feinabstimmung“ weit genug geht, verschwindet es vollständig, so wie die Grinsekatze verschwindet, je mehr man sie ansieht. Ein solches Modell im Nachhinein so zu optimieren, dass es an die Beobachtungen angepasst werden kann, ist daher gleichbedeutend mit dem Verzicht auf die Behauptung, dass man die dem Modell zugrundeliegende relevante Physik versteht. Jeglicher Vorwand, das Thema wirklich zu verstehen, verschwindet aus dem Fenster. Und mit ihm geht jede Vorhersagekraft, die das ursprüngliche Modell gehabt haben könnte. Ihr Modell ist gerade zu einer weiteren sehr komplexen Funktion geworden, die in einen Datensatz eingepasst wurde. Bekannt ist der Ausspruch des Mathematikers und Physikers John von Neumann über eine solche Praxis: „Mit vier Parametern kann ich einen Elefanten anpassen, und mit fünf kann ich ihn dazu bringen, mit dem Rüssel zu wackeln“. Bei dem optimierten Modell handelt es sich wahrscheinlich um ein neues, falsches Modell, das zufällig eine Übereinstimmung mit den Daten ergab.

Eine Anwendung auf Klimamodelle

Bewaffnet mit den Erkenntnissen aus der vorstehenden Geschichte sind wir nun in der Lage, einige grundsätzliche Aussagen zu den IPCC-Klimamodellen zu machen, zum Beispiel zu der Gruppe der 31 Modelle, die das CIMP6-Ensemble bilden (Eyring et al., 2019; Zelinka et al., 2020). Die interessierende Größe ist der Wert der Gleichgewichts-Klimasensitivität [Equilibrium Climate Sensitivity (ECS)], die erwartete langfristige Erwärmung nach einer Verdoppelung der atmosphärischen CO2-Konzentrationen. Die vorhergesagten ECS-Werte im Ensemble umfassen einen Bereich von 1,8°C am unteren Ende bis 5,6°C am oberen Ende, ein kolossaler Faktor 3 im Bereich, der von den 31 Modellen mehr oder weniger gleichmäßig belegt wird. Die Natur mag listig, ja sogar hinterhältig sein, aber sie ist nicht bösartig. Es gibt nur einen „wahren“ ECS-Wert, der der Verdoppelung der CO2-Konzentration in der realen Welt entspricht.

Können wir eine Erklärung zu diesem Ensemble abgeben? Nur diese beiden Beobachtungen:
Erstens, höchstwahrscheinlich sind all diese Modelle falsch. Diese Schlussfolgerung ergibt sich logisch aus der Tatsache, dass es viele a priori gleich gültige Modelle gibt, die nicht gleichzeitig richtig sein können. Höchstens eines dieser Modelle kann richtig sein, aber angesichts der übrigen 30 falschen Modelle stehen die Chancen schlecht, dass überhaupt ein Modell richtig ist. Tatsächlich lässt sich zeigen, dass die Wahrscheinlichkeit, dass keines der Modelle korrekt ist, bis zu 0,6 betragen kann.

Zweitens können wir nicht einmal sicher sein, dass die wahre ECS im Bereich der von den Modellen erfassten ECS-Werte liegt. Die Wahrscheinlichkeit, dass dies der Fall ist, liegt bei 1,0-0,6=0,4, was bedeutet, dass die Wahrscheinlichkeit, dass die wahre ECS in dem von den Modellen abgedeckten Bereich liegt, etwa 2 bis 3 beträgt (und damit die Wahrscheinlichkeit, dass die wahre ECS außerhalb des Bereichs liegt). Die oft gemachte Annahme, dass der „wahre“ ECS-Wert irgendwo im Bereich der Ergebnisse der Modelle im Ensemble liegen muss, basiert auf einem logischen Trugschluss. Wir haben absolut keine Ahnung, wo das „wahre“ Modell – Nummer 32, das „Experiment“ – innerhalb oder außerhalb der Spanne landen würde.

Es sind einige Einschränkungen zu machen. Was bedeutet es zum Beispiel: Das Modell ist „falsch“? Es bedeutet, dass es unvollständig sein könnte – es fehlen Konzepte oder Prinzipien, die in ihm vorhanden sein sollten – oder umgekehrt überkomplett – mit Dingen, die vorhanden sind, aber nicht vorhanden sein sollten – oder dass es Aspekte enthält, die einfach falsch oder falsch kodiert sind, oder alles davon. Da viele Ensemble-Modelle ähnliche oder sogar identische Elemente haben, könnte man ferner argumentieren, dass die Ergebnisse der Ensemble-Modelle nicht unabhängig sind, dass sie korreliert sind. Das bedeutet, dass man die „effektive Anzahl“ N der unabhängigen Modelle berücksichtigen sollte. Wenn N = 1 wäre, würde dies bedeuten, dass alle Modelle im Wesentlichen identisch sind, wobei der Bereich von 1,8°C bis 5,6°C ein Hinweis auf den intrinsischen Fehler wäre (was eine ziemlich schlechte Darstellung wäre). Wahrscheinlicher ist, dass N irgendwo im Bereich von 3 bis 7 liegt – mit einer intrinsischen Streuung von z.B. 0,5°C für ein einzelnes Modell – und wir sind wieder bei dem hypothetischen Beispiel oben.

Die Wahrscheinlichkeit von etwa 3 zu 2, dass keines der Modelle richtig ist, dürfte politisch interessant sein. Würden Sie mit diesen Quoten viel von Ihrem hart verdienten Geld auf ein Pferd setzen? Ist es klug, die Energieversorgung und damit die gesamte Wirtschaft Ihres Landes auf solche Quoten zu setzen?

Nachhersage

Ein anonymer Rezensent einer meiner früheren Schriften gab diesen offenen Kommentar ab, und ich zitiere:

Die Erfolgsbilanz der GCM’s ist insofern enttäuschend, als sie nicht in der Lage waren, den beobachteten Temperatur-Stillstand nach dem Jahr 2000 vorherzusagen, und auch nicht vorhersagen konnten, dass die Tropopausentemperaturen in den letzten 30 Jahren nicht gestiegen sind. Das Versagen der GCMs ist nicht auf Fehlverhalten zurückzuführen, aber die Modellierung des Erdklimas ist eine große Herausforderung.

Der wahre Wissenschaftler weiß, dass Klimamodelle noch in Arbeit sind. Der Pseudowissenschaftler, der unter dem Druck steht, die „Vorhersagen“ zu halten, muss einen Weg finden, um die Modelle und die Temperaturdaten der realen Welt „in Einklang zu bringen“.

Eine Möglichkeit dazu besteht darin, die Temperaturdaten in einem Prozess zu massieren, der „Homogenisierung“ genannt wird (z.B. Karl et al., 2015). Auf wundersame Weise verschwindet der „Stillstand“. Ein merkwürdiger Aspekt einer solchen „Homogenisierung“ ist, dass bei jeder Anwendung die „angepassten“ vergangenen Temperaturen immer niedriger sind, wodurch die angeblich „künstliche Erwärmung“ größer wird. Niemals andersherum. Offensichtlich kann man diesen kleinen Handgriff nur einmal ausführen, vielleicht zweimal, wenn niemand zusieht. Aber danach wird selbst der Dorftrottel verstehen, dass er reingelegt wurde, und die „Homogenisierung“ in den gleichen Mülleimer der Geschichte werfen wie Lysenkos „Vernalisierung“.

Der andere Weg ist die Anpassung der Modellparameter an die Beobachtungen (z.B. Hausfather et al., 2019). Angesichts der vielen anpassbaren Parameter und unter Berücksichtigung von von Neumans Witz ist es nicht überraschend, dass die Modelle durch eine solche „Nachhersage“ recht gut an die Daten angepasst werden können. In der kriecherischen Mainstream-Presse herrscht überall Eifer, mit manchmal urkomischen Ergebnissen. So verkündete beispielsweise ein Korrespondent einer überregionalen niederländischen Zeitung enthusiastisch, dass die Modelle die Temperaturen der letzten 50 Jahre korrekt vorhergesagt hätten. Dies wäre wirklich eine bemerkenswerte Leistung, denn die früheste Software, die als „Klimamodell“ betrachtet werden kann, stammt aus den frühen 1980er Jahren. Eine interessantere Frage ist jedoch: Können wir erwarten, dass ein derart angepasstes Modell eine Vorhersagekraft hat, insbesondere im Hinblick auf die Zukunft? Die Antwort ist ein schallendes „Nein“.

Sind Klimamodelle nutzlos?

Natürlich nicht. Sie können sehr nützlich sein als Werkzeuge zur Erforschung jener Aspekte der Physik der Atmosphäre und des Klimasystems, die noch nicht verstanden werden oder deren Existenz noch nicht bekannt ist. Wofür man sie nicht verwenden kann, sind Vorhersagen.

[Hervorhebung vom Übersetzer]

References:
Eyring V. et al. Nature Climate Change, 9, 727 (2019)
Zelinka M. et al. Geophysical Research Letters, 47 (2020)
Karl T.R., Arguez A. et al.  Science 348, 1469 (2015)
Hausfather Z., Drake H.F. et al.  Geophysical Letters, 46 (2019)
[Es folgt eine interessante Beschreibung der Bestimmung der Wahrscheinlichkeit, mit der ein bestimmtes Modell korrekt ist. Das ist das tägliche Brot eines Wetter-Prognostikers. Ein Faktor wird hierbei aber nicht erwähnt: Die Erfahrung eines seit Jahrzehnten praktizierenden Wetter-Prognostikers ist ein sehr gewichtiger statistischer Faktor, ist doch Erfahrung nichts anderes als Statistik. Dennoch, kein seriöser Prognostiker würde eine Prophezeiung, die über höchstens eine Woche hinausgeht, als Prognose bezeichnen – und sie schon gar nicht zu einer Grundlage schwer wiegender Entscheidungen machen.
Diese allgemein theoretische Betrachtung wird hier nicht mit übersetzt. Anm. d. Übers.]
 
Addendum: an analysis of probabilities
First the case of 5 models of which at most 1 can possibly be right. What is the probability that none of the models are correct? All models are a priori equally valid. We know that 4 of the models are not correct, so we know at once that the probability of any model being incorrect is at least 0.8. The remaining model may or may not be correct and in the absence of any further information both possibilities could be equally likely. Thus, the expectation is that, as a matter of speaking, half a model (of 5) is correct, which means the a priori probability of any model being incorrect is 0.9. For N models it is 1.0-0.5/N. The probability that all models fail then becomes: F=(1-0.5/N)^N which is about 0.6 (for N > 3). This gives us odds of 3 to 2 that none of the models are correct and it is more likely that none of the models are correct than that one of them is. (If we had taken F=(1-1/N)^N the numbers are about 0.34 with odds of 1 to 2)
Now an altogether different question. Suppose one of the models does give us the correct experimental result, what is the a posteriori probability that this model is indeed correct, given the results of the other models? Or, alternatively, that the model is incorrect even when it gives the ‘right’ result (by coincidence)? This posterior probability can be calculated using Bayes’ theorem,
P(X|Y) = P(Y|X)*P(X)/P(Y),
where P(X|Y) stands for the probability of X given Y and P(X) and P(Y) are prior probabilities for X and Y. In this case, X stands for ‘the model is incorrect’ and Y for ‘the result is correct’, in abbreviated form M=false, R=true. So the theorem tells us:
P(M=false|R=true) = P(R=true|M=false) * P(M=false) / P(R=true)
On the right-hand side the first term denotes the false-positive rate of the models, the second term is the probability that the model is incorrect and the third is the average probability that the result predicted is accurate. Of these we already know P(M=false)=0.9 (for 5 models). In order to get a handle on the other two, the ‘priors’, consider this results table:

The ‘rate’ columns represent a number of possible ensembles of models differing in the badness of the incorrect models. The first lot still give relatively accurate results (incorrect models that often return the about correct result, but not always; pretty unrealistic). The last with seriously poor models which on occasion give correct results (by happy coincidence) and a number of cases in between. Obviously, if a model is correct there is no false-negative (TF) rate. The false-positive rate is given by P(R=true|M=false) = FT. The average true result expected is given by 0.1*TT + 0.9*FT = 0.82 for the first group, 0.55 for the second and so on.
With these priors Bayes’ Theorem gives these posterior probabilities that the model is incorrect even if the result is right: 0.87, 0.82 etc. Even for seriously poor models with only a 5% false positive rate (the 5th set) the odds that a correct result was made by an incorrect model are still 1 to 2. Only if the false positive rate (of the incorrect models) drops dramatically (last column) can we conclude that a model that produces the experimental result is likely to be correct. This circumstance is purely due to the presence of the incorrect models in the ensemble. Such examples shows that in an ensemble with many invalid models the posterior likelihood of the correctness of a possibly correct model can be substantially diluted
Link: https://wattsupwiththat.com/2020/07/01/the-climate-model-muddle/
Bearbeitet von Chris Frey EIKE




Ist die aktuelle Änderung des Meeres­spiegels im Vergleich mit historischen Zeiten einzigartig?

Der Meeresspiegel über die Jahrtausende

Wie immer zuerst Informationen, welche uns Klimafachpersonen (und Gremien) darüber bieten.
[3] WIKI Bildungsserver: Meeresspiegeländerungen
… In der späteren Nacheiszeit stieg der Meeresspiegel über mehrere Jahrtausende deutlich an. So ist er zwischen 7000 und 3000 Jahren v.h. um 2-3 m gestiegen. In den letzten 2000 Jahren gab es dann nur noch geringe Schwankungen, die unter 25 cm über mehrere Jahrhunderte lagen …
Dazu eine Grafik, in welcher man von den 2-3 m Anstieg zwischen den „7000 und 3000 Jahren v.h.“ nichts erkennen kann.

Bild 1 [3] Meerespegelanstieg seit dem Ende der letzten Eiszeit

[4] DKK Deutsches Klima-Konsortium KLIMA-FAQ 5.2: MEERESSPIEGEL Wie ungewöhnlich ist die aktuelle Änderungsgeschwindigkeit des Meeresspiegels?
… belegen sie eine mittlere Änderungsgeschwindigkeit des Meeresspiegels seit dem späten 19. Jahrhundert von 2,1 ± 0,2 mm pro Jahr. Dieser jahrhundertlange Anstieg übersteigt jede andere 100-Jahres-Änderungsrate in der gesamten 2000-jährigen Aufzeichnung für denselben Küstenbereich.
… instrumentelle Messungen und geologische Daten stützen die Schlussfolgerung, dass die aktuelle Änderungsgeschwindigkeit des mittleren globalen Meeresspiegels im Verhältnis zu den beobachteten und/oder geschätzten Änderungen während der letzten zwei Jahrtausende ungewöhnlich ist …
Dazu eine Grafik, in welcher gezeigt wird, dass die Änderungsrate seit ca. 2000 Jahren fast Null beträgt, doch seit der Satellitenmessung mit über 3 mm/pa die durchschnittliche Rate der letzten 2 Jahrtausende um Größenordnungen übersteigt.

Bild 2 [4] Änderungsraten des Meerespegelanstiegs seit 22.000 Jahren

Professor Rahmstorf (PIK) informiert auf seinem Blog detailliert mit Text und vielen Grafiken.
Darin erfährt man, dass der Meerespegel die letzten ca. 2500 Jahre um maximal 10 … 15 cm schwankte und aktuell am höchsten ist (Bild 3). Gleiches gilt für die Pegel- Änderungsgeschwindigkeit.
[5] Stefan Rahmstorf, SCILOGS 22. Feb 2016: Meeresspiegel über die Jahrtausende
… Schauen wir sofort das Hauptresultat an. Der globale Meeresspiegelverlauf sieht folgendermaßen aus
(Anm.: Bild 3):

Bild 3 [5] Pegelrekonstruktion der letzten 2.500 Jahre nach Rahmstorf

[5] Stefan Rahmstorf: … Ein robustes Resultat ist dagegen die Tatsache, dass der Meeresspiegel im Verlauf des 20. Jahrhunderts wesentlich stärker gestiegen ist als in jedem Jahrhundert davor. (Diese Aussage gilt unabhängig von einem additiven Trend.) Eine gute Art dies darzustellen ist die folgende Grafik.

Bild 4 [5] Pegel-Anstiegsgeschwindigkeiten/Jahrhundert seit dem Jahr Null

Wenn Herr Rahmstorf irgendetwas zum Klimawandel von sich gibt, dürfen Apokalypsen, – immer resultierend aus irgendwelchen Irrsinns-Simulationen des PIK – niemals fehlen:
[5] Stefan Rahmstorf: … Die schlechte Nachricht ist, dass nach diesem Eismodell das Antarktiseis rascher zerfallen kann als bislang gedacht.

Bild 5 [5] Pegelverlauf aus Bild 3 mit Zukunftsprojektionen (des PIK)

„Seine“ Simulationen erlauben es, den Meerespegel für 10.000 Jahre im Voraus zu bestimmen:
[5] Stefan Rahmstorf: … Zehntausend Jahre Meeresspiegelanstieg voraus
… Durch unsere Treibhausgasemissionen setzen wir derzeit einen Anstieg in Gang, der bei 25 bis 50 Metern über dem heutigen Meeresspiegel enden dürfte.

Bild 6 [5] Pegelverlauf der letzten 20.000 Jahre mit Zukunftsprojektionen für die kommenden 10.000 Jahre

Voller Stolz deshalb die Information von Herrn Rahmstorf, dass auch ausländische Medien darauf hereinfallen:

Bild 7 [5] Artikel der New York Times aus Anlass einer PIK-Studie zum Meerespegel

Was sagt der letzte IPCC-Bericht AR5?

Zuerst ein Blick in den letzten IPCC-Bericht AR5 (Langfassung). Darin findet sich zu diesem wichtigen Zeitraum recht wenig, schon gar keine aussagefähigen Grafiken. Das IPCC interessiert sich erkennbar nur für die ganz kurze Vergangenheit, alleine, um den AGW-Klimawandel zu belegen. Der kompromittierende Vergleich mit der relevanten Klimahistorie ist (wohl bewusst) weggelassen.
Von dem Wenigen an Information, Auszüge anbei. „Zugegeben“ – aber nur mit „likely“ – wird, dass der Meerespegel vor 7 … 3.000 Jahren 2 … 3 m höher war. Für die letzten 2.000 Jahre soll er dann nur noch um maximal +-25 cm geschwankt haben:
[6] AR5 Langfassung: Chapter 13 Sea Level Change
Since the AR4, there has been signifiant progress in resolving the sea level history of the last 7000 years. RSL records indicate that from ~7 to 3 ka, GMSL likely rose 2 to 3 m to near present-day levels (Chapter 5). Based on local sea level records spanning the last 2000 years, there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years (Section 5.6.3, Figure 13.3a). The most robust signal captured in salt marsh records from both Northern and Southern Hemispheres supports the AR4 conclusion for a transition from relatively low rates of change during the late Holocene (order tenths of mm yr–1) to modern rates (order mm yr–1) (Section 5.6.3, Figure 13.3b). However, there is variability in the magnitude and the timing (1840–1920) of this increase in both paleo and instrumental (tide gauge) records (Section 3.7). By combining paleo sea level records with tide gauge records at the same localities, Gehrels and Woodworth (2013) concluded that sea level began to rise above the late Holocene background rate between 1905 and 1945, consistent with the conclusions by Lambeck et al. (2004).
Im Bild 7 aus dem Bericht sieht man zumindest, dass der „schlimme“ Pegelanstieg seit 1880 von ca. 25 cm in den letzten 3.000 Jahren eigentlich der „Normalfall“ war und bezüglich Größe und Geschwindigkeit im regelmäßigen „Änderungsrauschen“ verschwindet.

Bild 8 Pegelgrafiken (Anm.: Vom Autor ergänzt) [6] AR5 (Teilbild)

Zu der Abbildung: Figure 13.3 | (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites. The effects of glacial isostatic adjustment (GIA) have been removed from these records. Light green = Iceland (Gehrels et al., 2006), purple = Nova Scotia (Gehrels et al., 2005), bright blue = Connecticut (Donnelly et al., 2004), blue = Nova Scotia (Gehrels et al., 2005), red = United Kingdom (Gehrels et al., 2011), green = North Carolina (Kemp et al., 2011), brown = New Zealand (Gehrels et al., 2008), grey = mid-Pacifi Ocean (Woodroffe et al., 2012) (b) Paleo sea level data from salt marshes since 1700 from Northern and Southern Hemisphere sites compared to sea level reconstruction from tide gauges (blue time series with uncertainty) (Jevrejeva et al., 2008). The effects of GIA have been removed from these records by subtracting the long-term trend (Gehrels and Woodworth, 2013). Ordinate axis on the left corresponds to the paleo sea level data. Ordinate axis on the right corresponds to tide gauge data. Green and light green = North Carolina (Kemp et al., 2011), orange = Iceland (Gehrels et al., 2006), purple = New Zealand (Gehrels et al., 2008), dark green = Tasmania (Gehrels et al., 2012), brown = Nova Scotia (Gehrels et al., 2005). (c) Yearly average global mean sea level (GMSL) reconstructed from tide gauges by three different approaches. Orange from Church and White (2011), blue from Jevrejeva et al. (2008), green from Ray and Douglas (2011) (see Section 3.7)…
Weil man im IPCC-Bericht gerade im Kapitel zum Meerespegel „ist“, noch ein Beispiel zur (Des-)Information darin gezeigter Grafiken.
Parallel mit anderen Pegeln wird auch der von Manila gezeigt:

Bild 9 [6] AR5 (Teilbild) FAQ13.1, Figure 1 | Map of rates of change in sea surface height (geocentric sea level) for the period 1993–2012 from satellite altimetry.

Nun weiß jeder „gute“ EIKE-Leser, dass Manila ein „Vorzeige“- weil Extrembeispiel — für selbst verursachte Landsenkung ist und der „Tidenpegelverlauf“ damit eine vollkommen falsche Aussage vermittelt:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
Man dürfte die Pegelgrafik von Manila – die nicht Pegeländerung, sondern ausschließlich eine extreme Landsenkung zeigt – deshalb grundsätzlich nicht mit anderen Pegelgrafiken in der gleichen Reihe zeigen, da Leser, welche den Sachverhalt nicht kennen, eine vollkommen falsche Information ableiten.
Erst im Text findet sich dann ein etwas „lapidarer“ Hinweis, dass mit dem Pegelbild etwas nicht stimmt „the greater rate of rise relative to the global mean at Manila (FAQ 13.1, Figure 1) is dominated by land subsidence caused by intensive groundwater pumping“. Aber auch da fehlen Daten, sodass man dieses häufige Problem, „is common in many coastal regions“ selbst anhand des Langeberichtes nicht entfernt quantifizieren kann:
AR5: … In addition to regional inflences of vertical land motion on relative sea level change, some processes lead to land motion that is rapid but highly localized. For example, the greater rate of rise relative to the global mean at Manila (FAQ 13.1, Figure 1) is dominated by land subsidence caused by intensive groundwater pumping. Land subsidence due to natural and anthropogenic processes, such as the extraction of groundwater or hydrocarbons, is common in many coastal regions, particularly in large river deltas.
Dass deshalb selbst Klimawandel-Fachpersonen unseres Bundestages, welche als ausgesuchte Fachmannschaft extra auf eine lange und teure Recherchereise ging, um dieses Problem persönlich vor Ort zu analysieren, deshalb mit völliger Unkenntnis hin – und mit noch mehr zurück kamen, lässt sich nachlesen:
EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

Offizielle“ Darstellung

Nach diesen Hinterlegungen der „Wissenschaft“ zum Klimawandel war der Meerespegel vor ca. 7 … 3.000 Jahren 2 bis 3 m höher [6], seitdem bewegte er sich dann nur noch in einer Spanne von ca. +-25 cm [6], laut Herrn Rahmstorf seit den letzten Zweitausend Jahren nur um ca. +-5 cm (Bild 3).

Zum Meerespegel gibt es jedoch auch detailliertere Informationen

Dazu der Hinweis, dass ein erheblicher Teil dieses „Wissens“ aus Hinterlegungen der Plattform NoTricksZone entnommen wurde [7].
Selbst wenn man nur oberflächlich sucht, finden sich viele –vor allem auch neuere – Pegelstudien, die der „wissenschaftlichen“ Angabe zum seit ca. 3.000 Jahren angeblich flachen, sich nur um wenige Zentimeter veränderndem Meerespegel eklatant widersprechen. Anbei solche Beispiele

Langfristdarstellungen (seit etwa Ende der letzten Eiszeit)

Hinweis: Diese Studien geben nicht den globalen Meerespegel an (das Pegelbild von Herrn Rahmstorf weist ihn allerdings auch nicht global aus, er leitet den globalen jedoch daraus ab).
Es dürfte jedoch unwahrscheinlich sein, dass länger andauernde, große lokale Pegeländerungen sich nicht ausgleichen und damit auch global vorhanden sind. Dass die Proxis rund um den Globus ähnliche Verläufe zeigen, erhärtet diese Annahme. Mit Sicherheit sind sie deshalb eine brauchbare Orientierung auch über den globalen Pegelverlauf.
Leider „lieben“ es die Studienautor*innen, die Zeitachse beliebig mal nach Links, dann nach Rechts zu drehen. Deshalb bei jedem Bild neu darauf achten, in welcher Richtung das aktuelle Jahrtausend liegt.

Bild 10a Anja Scheffers, Dominik Brill, Dieter Kelletat, April 11, 2012: Holocene sea levels along the Andaman Sea coast of Thailand


Bild 10b Meco et al., 2018 Canary Islands, Spain, + 3.5 to +4 m higher than present


Bild 11 Jiang et al., 2017 Southern China, +2.4 to +4.26 m higher than present


Bild 11b Bradley et al., 2016  China, +2 to +4 m higher than present


Bild 12 Dura et al., 2016  Vancouver, < +1 to +3 m higher than present


Bild 13 Miguel et al., 2018 Southeastern Africa, ~ +2 to +3 m higher than present


Bild 14 Yamono et al., 2017 Kiribati (Central Pacific), +2.4 m higher than present


Bild 15 Whitfield et al., 2017 Southern Africa, +1.5 to +3.5 m higher than present


Bild 16 Prieto et al., 2016 Argentina, Uruguay, +4 to +6.5 m higher than present


Bild 17 Leonard et al., 2016 Great Barrier Reef, Australia, +0.75 m higher than present


Bild 18 Bracco et al., 2014 Uruguay, +3 to +4 m higher than present


Bild 19 Fig. 7. Holocene sea-level envelope for Peninsula Malaysia (modified from Tija, 1996). Data points with arrows indicate directional (limiting) index points. Some index points have vertical error bars, where the vertical range of the sea-level indicator is understood. No age errors are considered, radiocarbon ages are plotted. The boundaries of the envelope are drawn midway between the extreme data points and the neighbouring points within the envelope ( Tija, 1996).

Fazit

Es ist überraschend, wie stark die Pegelrekonstruktionen bezüglich des Verlaufs rund um den Globus übereinstimmen. Auch interessant allerdings, wie extrem die Auflösungen und natürlich auch die Absolutwerte variieren.
Doch eines lässt sich mit Sicherheit sagen: Die von Herrn Rahmstorf gezeigte Pegelrekonstruktion der letzten 2.500 Jahre (Bild 3) stimmt nicht. Sie zeigt bei Weitem nicht die wirklichen Pegel-Variabilitäten und erinnert damit an die „Hockeystick-Kurve, wo genau das gleiche (Verschleiern der hohen, wirklichen Variabilität durch Mittelwertbildungen) gemacht wurde.
Der Autor traut sich auch zu behaupten, dass zu seiner weiteren Aussage problemlos Gegenbelege möglich sind:
[5] Stefan Rahmstorf: … Ein robustes Resultat ist dagegen die Tatsache, dass der Meeresspiegel im Verlauf des 20. Jahrhunderts wesentlich stärker gestiegen ist als in jedem Jahrhundert davor. (Diese Aussage gilt unabhängig von einem additiven Trend.) Eine gute Art dies darzustellen ist die folgende Grafik …

Bild 20 (Wiederholung Bild 6) [5] Pegelverlauf der letzten 20.000 Jahre mit Zukunftsprojektionen

Um das zu zeigen, ist der Zeitraum der letzten 3000 Jahre wichtig. Leider nehmen die Studien darauf keine „Rücksicht“, deshalb anbei weitere Grafiken aus Studien, welche diesen Zeitraum etwas detaillieren.

Pegel im Zeitraum seit etwa 3.000 Jahren

Bild 21 Fig. 2. The Late Holocene sea level changes in the Maldives (Mörner, 2007) including 7 transgression peaks in the last 4000 years with 3 peaks in the last millennium.


Ähnlich stellt es auch die folgende Studie dar:

Bild 22 Strachan et al., 2014 South Africa, +3 m higher than present


Bild 23 Dura et al., 2011 West Sumatra, Indonesia, +2 to +6 m higher than present


Bild 24 Meerespegelentwicklung der Southern Cook Islands während der vergangenen 2500 Jahre. Quelle: Goodwin & Harvey 2008


Bild 25 [9] Fig. 4. Observed, documented and dated sea level changes during the last 500 years in the Indian Ocean. Top: the Maldives (Mörner, 2007). Middle: Bangladesh (Mörner, 2010c). Bottom: Goa, India (Mörner, 201 6). The agreement is striking

Zeigt sich der „Pegelverlauf“ auch in den Temperaturverläufen?

Anbei Proxydaten zur Temperatur seit der letzten Eiszeit (Bild 26). Würde man „Pegelverläufe“ darunter schreiben, würde es jeder sofort glauben, so ähnlich sind die Verläufe (und vielen Abweichungen).
Auffällig ist die enorme Spanne der Proxytemperaturen, aber vor allem die darin ausgewiesenen, enormen und schnellen Schwankungen (die es angeblich nicht gegeben hat).
Manchem Leser wir verblüffen, warum aktuell das „Verbrennen“ der Erde verkündet wird. Sofern die Proxis die Temperaturverläufe auch nur im Ansatz richtig abbilden, müsste eher von einer „Erkältung“ gesprochen werden. Aber wenn man die Vergangenheit weglässt, lässt sich eben alles fabulieren.

Bild 26 Proxyrekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies


Bild 27 Temperaturtrend seit ca. 7000 Jahren in nördlichen Breitengraden. [8]

Originaltext zur Abbildung: Figure S1. Temperature trends recorded over the past 4000-7000 years in high latitude proxy and CGCM data. Multi-millennial TRW records from Sweden 1, Finland2, and Russia3 (all in grey) together with reconstructions of the glacier equilibrium line in Norway4,5 (blue), northern treeline in Russia3,6 (green), and JJA temperatures in the 60-70 °N European/Siberian sector from orbitally forced ECHO-G7,8 (red) and ECHAM5/MPIOM9 (orange) CGCM runs10. All records, except for the treeline data (in km) were normalized relative to the AD 1500-2000 period. Resolution of model and TRW data were reduced (to ~ 30 years) to match the glacier data.
In die folgenden Grafik ist eine Verlaufskurve aus anderer Quelle kopiert. Die zwei „Mittelwertlinien“ lasse erkennen, wie man durch Mitteln alle „kompromittierenden“ Variabilitäten der Vergangenheit „wissenschaftlich“, da „statistisch fundiert“, verschwinden lassen kann.

Bild 28 Vom Autor in Bild 26 eine Verlaufsrekonstruktion der Zentralanstalt für Meteorologie und Geodynamik ZAMG kopiert. Anm.: Die Achsendimensionen sind gleich. Da die Nullpunkte nicht übereinstimmen, wurden diese optisch gro korrigiert

Vermutung: Vom IPCC und von Prof. Rahmstorf angegebene Pegelverläufe können nicht stimmen

Alleine das Vergleichen der Angaben von „Klimafachpersonen“ mit den Verläufen aus Pegelrekonstruktionen führt zu dem einzig möglichen Schluss: Die „offiziellen“ Angaben:
-IPCC AR5: Die letzten 2.000 Jahre soll der Meerespegel nur noch um maximal +-25 cm geschwankt haben
-laut Rahmstorf die letzten 2.500 Jahre um maximal 10 … 15 cm
und dazu gezeichnete Bilder (typisch auch Bild 1) – , wie auch die Angabe, der aktuelle Anstieg wäre die letzten 2.500 Jahre noch nie dagewesen, sind genau so falsch, wie es der Hockeystick zur Temperatur ist (rein persönliche Überzeugung des Autors anhand vieler Studiensichtungen allerdings durch keine „Klimafachperson“ belegt).
Um zu zeigen, wie bewusst „Klimawissenschaft“ in ihren Darstellungen lügt Information weglässt um nur das „Gewünschte“ auszusagen, anbei oft zu findende Pegelgrafiken, ergänzt um die darin weggelassenen Zusatzinformationen, die sich zwangsläufig aus den Proxis ergeben.

Bild 29 Bild 1 mit grobem Eintrag des wahrscheinlicheren, wirklichen Pegelverlaufs durch den Autor


Anhand der folgen Proxyüberlagerungen zeigt sich die unglaubliche Pegelvarianz seit dem Ende der letzten Eiszeit, aber auch der laut Prof. Rahmstorf im Pegel fast nicht schwankenden, letzten 2.500 Jahre.

Bild 30 Rekonstruktionsversuch Pegelverlauf der letzten 3000 Jahre. Bilder 3; 7; 21 im gleichen Zeit- und Höhenmaßstab vom Autor übereinander kopiert. Hinweis: Die 0-Linien der Proxy-Y-Achsen sind versetzt. Die Pegelspannen aber im Maßstab


Entweder ist Prof. Rahmstorf genial und alle anderen Klimawissenschaftler mehr als blöde (da im Gegensatz zu Prof. Rahmstorf nicht entfernt in der Lage, Pegelproxys zu generieren), oder etwas anderes trifft zu.
Der Autor vermutet es mehr als stark (rein persönliche Meinung, durch keine Aussage eines renommierten Klimawissenschaftlers belegt).

Fazit

Anhand von – mit Sicherheit die Vergangenheit nicht richtig darstellenden – Pegelverläufen der offiziellen „Klimawissenschaft“ werden die Klimasimulationen „kalibriert“, welche dann wie es Prof. Rahmstorf behauptet, die nächsten 10.000 Jahre Klimageschehen vorhersagen können …
Jetzt kann sich jeder Leser fragen:
– was darf man von den Angaben der „Klimawissenschaftler*innen“ glauben
– wie konnten solche gewaltigen Variabilitäten geschehen, obwohl das angeblich fast alleine die Temperatur treibende CO2 sich während dieser Zeiträume kaum verändert hat?
Mit Sicherheit ist es kein Zufall, dass diese „kompromittierenden“ Variabilitäten in offiziellen Grafiken (und Texten) regelmäßig fehlen durch geeignetes Mitteln „statistisch fundiert“ entfernt sind.

Entweder hat die Klimawissenschaft das Klima noch gar nicht verstanden, oder sie verheimlicht Wichtiges dazu

Anmerkung: Der Autor vermutet das Erste. Ergänzend zur bisherigen Betrachtung der letzten ca. 8.000 Jahre, soll nun auch die letzte Eiszeit gesichtet werden. Ein Ergebnis ist, dass nicht nur während der letzten 2.500 und 8.000 Jahre kein plausibler Zusammenhang zwischen CO2-Konzentrationsveränderungen und Meerespegel besteht, das „Verhalten“ der Temperatur während der Eiszeit „verbietet“ eigentlich jeden Gedanken daran.
Auch mit schlimmsten „ökotheologischen“ Tatsachenverdrehungen, lässt sich der Verlauf wirklich nicht mehr mit CO2-Konzentrationen in Verbindung bringen.

Bild 31 (Aktuelle Zeit links) Verlauf Meerespegel und Temperatur während der Eiszeiten [10] Fig. 1. Comparison of two methods to assess past EDC temperature based on EDC ice core dD. Green, conventional approach taking into account past changes in sea water isotopic composition and a constant isotope–temperature slope. Red (Jouzel et al., 2007), same as green but also including a correction for ice sheet elevation changes derived from the glaciological model used for the age scale, displayed in grey on the top panel (Parrenin et al., 2007b). Horizontal dashed lines show the average Holocene and Last Glacial Maximum levels. Vom Autor ergänzt

Zur abschließenden Veranschaulichung, wie die „offiziellen“ Klimagrafiken betrügen durch gezieltes Weglassen das Gegenteil der Wirklichkeit vermitteln (sollen), noch der Temperaturverlauf der letzten Eiszeit als „offizielle“ Darstellung (Ausschnitt aus Bild 31) und mit den damals stattgefunden Dansgaard-Oeschger –Ereignissen, die gewaltige und extrem schnelle Temperatursprünge waren.
Nach der AGW-Klimawandeltheorie kann das was damals mit der Temperatur passierte, in der wahren Natur überhaupt nicht möglich sein (weil die angeblich alleine die Temperatur treibende CO2– Konzentration sich während dieser Zeit fast nicht veränderte). Trotzdem ist es regelmäßig und in gewaltigen Ausmaßen geschehen.

Bild 32 Typische Darstellung der Temperatur während der letzten Eiszeit (Ausschnitt von Bild 31) und darüber kopiert die Oeschger-Ereignisse. Grafik vom Autor erstellt


Manchmal kommen auch Klimaforscher dank umfangreicher Fördermittel auf Erkenntnisse, die einem Laien alleine aufgrund einfacher Datensichtungen auffallen:
EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
AWI: [11] Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.
Quellen
[1] EIKE 29. Juni 2020: Wie schnell steigt eigentlich der Meeresspiegel?
[2] EIKE 27. Juni 2020: Wo ist die „Klimakrise“?
[3] WIKI Bildungsserver: Meeresspiegeländerungen
[4] DKK Deutsches Klima-Konsortium KLIMA-FAQ 5.2: MEERESSPIEGEL Wie ungewöhnlich ist die aktuelle Änderungsgeschwindigkeit des Meeresspiegels?
[5] Stefan Rahmstorf, SCILOGS 22. Feb 2016: Meeresspiegel über die Jahrtausende
[6] AR5 Langfassung: Chapter 13 Sea Level Change
[7] NoTricksZone: 2m higher Holocene Sea-Levels
[8] Johannes Gutenberg University, 55099 Mainz, Jan Esper at al, 8 JULY 2012: Orbital forcing of tree-ring data
es on the last 8000 years.
[9] Mörner August 2016: Sea level changes in the real world Models vs observational facts
[10] V. Masson-Delmotte at al. 2010: EPICA Dome C record of glacial and interglacial intensities
[11] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft
[12] ZAMG: 12.000 Jahre Die aktuelle Warmzeit




Virginias massiver Fehler

Jetzt haben jene Turbinen ihre Lebensdauer überschritten und müssen ersetzt werden. Windturbinen können nicht recycelt werden!

All diese Verschwendung und Umverteilung scheint für die Menschen, die den Commonwealth of Virginia leiten, genau das Richtige zu sein.

David Wojick hat die diesbezüglichen schlimmen Details bei CFACT.org beschrieben:

Der Ökostromplan von Virginia sieht den Bau von 5.000 MW Offshore-Windenergiekapazität während der nächsten zehn Jahre vor. Dies ist eine gewaltige Menge, wenn man bedenkt, dass die weltweite Gesamtkapazität nur etwa 15.000 MW beträgt. Wir sprechen hier von so etwas wie 800 riesigen Windmühlen, die in den Meeresboden eingelassen sind und über 100 Meter über dem Wasser in die Luft ragen. Sie werden größenordnungsmäßig anderthalb Mal höher sein als das Washington Monument, das wirklich hoch ist.

Gibt es in Virginia etwas, das es in Europa nicht gibt? Jawohl: Hurrikane:

Fest steht, dass diese Hunderte Türme weitaus widerstandsfähiger sein müssen als die europäischen Standarddesigns, wenn Virginia weitermacht und tatsächlich mit Wirbelstürmen der Kategorie 5 konfrontiert ist. Stärker bedeutet teurer. Die Standardkosten liegen bei etwa 1,5 Millionen Dollar pro MW, was im Fall von Virginia 7,5 Milliarden Dollar betragen würde. Wenn die Hurrikanfestigkeit doppelt so hoch ist wie die Kosten, drohen monströse 15 Milliarden Dollar an Zerstörung.

Offshore-Windparks tragen einen massiven ökologischen Fußabdruck, erhöhen die Kosten für Tarif- und Steuerzahler, verringern nicht die Emissionen und nützen niemandem, sondern nur den Menschen, die von staatlichen Subventionen und Mandaten profitieren.

Als Einwohner von Virginia sage ich selbst: Hören Sie mit diesem Unsinn auf, bevor es zu spät ist!

Autor: Craig Rucker is a co-founder of CFACT and currently serves as its president.
Link: https://www.cfact.org/2020/06/19/virginias-massive-mistake/
Übersetzt von Chris Frey EIKE




Grüne fördern Kinderarbeit und ökologische Zerstörung

Umweltschützer hatten behauptet, der US Forest Service sei nicht befugt, die Genehmigung zu erteilen, da ein 161 m langer Abschnitt 180 m unterhalb des 3500 km langen Appalachian Trail kreuzen würde. Dieser wird vom National Park Service verwaltet. Die Mehrheitsmeinung von Richter Thomas hat diese Behauptung entkräftet.

Die Pipeline-Projektentwickler Dominion Resources und Duke Energy sollten die USFS- und andere Genehmigungen relativ bald erhalten – und die Pipeline Anfang 2022 in Betrieb nehmen – es sei denn, eine Biden-Regierung übernimmt 2021 die Leitung (mit AOC als wachsamem Klima- und Energieberater von Biden und den Demokraten) und verhängt im Rahmen des Green New Deal Verbote für Bohrungen, Fracking, Pipelines und schließlich jegliche Nutzung von Erdgas, Öl und Kohle.
Unterdessen planen Umweltschutzgruppen weitere Klagen. Sie bestehen darauf, dass die Pipeline Flüsse und Bäche der Gefahr einer verstärkten Sedimentation aussetzen, unberührte Landschaften verschandeln und empfindliche Arten schädigen würde.

Diese Pläne und Behauptungen unterstreichen, wie unflexibel sie geworden sind, wenn es darum geht, sich gegen jegliche Nutzung fossiler Brennstoffe in den USA auszusprechen. Wie unfähig, die weit größeren menschlichen und ökologischen Auswirkungen der von ihnen favorisierten Energiesysteme zu erkennen oder vernünftig zu diskutieren. Wie sehr sie sich auf eklatante Doppelmoral und die Herrschaft des Pöbels verlassen, statt auf rationale, kohärente und überzeugende Diskussionen.

Vor kaum ein paar Jahren nahmen der Sierra Club und verbündete Gruppen gerne 187 Millionen Dollar und mehr von Michael Bloomberg, Erdgasproduzenten und anderen Finanziers, um ihren Krieg gegen die Kohle zu führen. Nachdem sie die meisten US-Kohlebergwerke und -kraftwerke geschlossen hatten, verwandelten sie Gas von einem „klimafreundlichen Brückentreibstoff“ in das personifizierte Böse. Heute wollen sie die Nutzung fossiler Brennstoffe landesweit beenden. Durch Täuschung, Beschwörung und Abbruch der Debatte haben sie sich selbst davon überzeugt, dass Wind-, Sonnen-, Batterie- und Biokraftstoff-„Alternativen“ irgendwie „sauber, grün, erneuerbar und nachhaltig“ sind. Die Realität sagt jedoch etwas ganz anderes.

Die Atlantikküsten-Pipeline wird unterirdisch verlaufen, meist unsichtbar unter einer grasbewachsenen Trasse. Jegliche Sedimentation wird während der kurzfristigen Bauarbeiten auftreten, wenn einige Wildtiere abgeschreckt oder für eine Weile verdrängt werden. Jegliche Bedrohung für empfindliche Arten, selbst im Falle eines Lecks, wird minimal sein.

Im krassen Gegensatz dazu werden ihre bevorzugten Energiesysteme massive, dauerhafte Auswirkungen haben – in Virginia und weit über seine Grenzen hinaus. Die Sonnenkollektoren in Virginia [in deutscher Übersetzung hier] werden mehr als achtmal die Landfläche von Washington, DC, bedecken. Hunderte von 260 Meter hohen, Vögel zu Tausenden tötenden Windturbinen werden vor der Küste von Virginia Beach einen enormen Hindernisparcours für Wale, Schiffe und Flugzeuge bilden. Viele Tausend 1.200-Pfund-Batterien werden für einen oder zwei Tage ohne Sonne und Wind als Ersatz für Kohle und Solarstrom dienen.

Hunderte von Kilometern neuer Fernleitungen werden in den Himmel ragen und sich über die Landschaft schlängeln. Allein der Transport von Windstrom aus West Virginia nach Blacksburg, Roanoke und Lynchburg, Virginia – und von Solarenergie aus all diesen Virginia-Paneelen nach Staunton und Harrisonburg – wird mehrere neue Fernleitungen über den Appalachian Trail erfordern. Nicht 180 Meter unterhalb, sondern quer über den Appalachian Trail.

Aber irgendwie sollen wir und unsere Gerichte glauben, dass all diese enormen Industrieanlagen – und die Sprengungen, die Baumrodungen, die Maschinen, der Lärm und andere Auswirkungen, die mit dem Bau und der Instandhaltung dieser Anlagen verbunden sind – keine Verlandung der Flüsse, keine Wunden in der Landschaft oder Schäden an empfindlichen Spezies‘ verursachen werden.

In Wirklichkeit werden die radikalen Grünen, Versorgungsunternehmen und Demokraten, die diese Projekte unter dem Virginia „Clean“ Economy Act fördern, einfach verlangen, dass die Gerichte die von ihnen vorgebrachten Argumente und Umweltgesetze ignorieren, die sie angeführt haben, als sie gegen Kohle- und Gaskraftwerke und die damit verbundenen Pipelines und Übertragungsleitungen wüteten. Sie werden verlangen, dass Bürgergruppen, die gegen diese monströsen Wind-, Solar- und Batteriekomplexe protestieren, aus dem Gericht geworfen werden. Sie werden wollen, dass auf nationaler Ebene mit zweierlei Maß gemessen wird.

Der Verzicht auf fossile Brennstoffe würde bedeuten, dass Amerika 100 % seines Benzins und alle seine Erdöl- und Erdgasvorräte für Pharmazeutika, Kosmetika, Farben, Kunstfasern, Düngemittel – und Kunststoffe für Mobiltelefone, Computer, Autokarosserien, Verpackungen, Rotorblätter von Windturbinen, Solarzellenfolien und zahllose andere Produkte – ersetzen müsste. Dazu müssten etwa 280 Millionen Hektar Land mit Nahrungsmitteln und Lebensraum (viermal so groß wie die Landfläche von Texas) in Mais-, Zuckerrohr- und Rapsplantagen für Biokraftstoffe zur Herstellung von Ethanol und Biodiesel umgewandelt werden.

Extremere Versionen des Grünen New Deal würden Kohle, Gas und Atomstrom sowie Notstrom, Gas zum Heizen von Häusern, Kohle und Gas für Fabriken und Verbrennungsfahrzeuge eliminieren. Wir würden alles durch Wind oder Sonne ersetzen – und Wind oder Sonne an guten Tagen nutzen, um genug zusätzlichen Strom zu erzeugen, um die Batterien für sieben wind- und sonnenlose Tage aufzuladen. Das sind 8,5 Milliarden Megawatt – doppelt so viel, wie wir 2018 verbraucht haben!

Wir bräuchten etwa 75 Milliarden Sonnenkollektoren … oder 4,2 Millionen 1,8-MW-Onshore-Windturbinen … oder 320.000 10-MW-Offshore-Windturbinen … und etwa 3,5 Milliarden 100-kWh-Batterien als Backup. Beton, Stahl, Kupfer, Lithium, Seltene Erden, Aluminium, Kobalt, Plastik und andere Materialien zu ihrer Herstellung würden wesentlich mehr Bergbau und Produktion erfordern, als die Welt je gesehen hat – fast alles mit fossilen Brennstoffen.

Umweltschützer sind gegen fast jeden Bergbau überall in den Vereinigten Staaten und sogar gegen US-Unternehmen, die in Übersee nach strengen westlichen Regeln arbeiten. Das bedeutet, dass lebenswichtige Metalle und Mineralien an Orten wie Baotou, der Inneren Mongolei, Bolivien und der Demokratischen Republik Kongo, meist unter chinesischer Kontrolle, unter minimalen bis nicht vorhandenen Arbeits-, Lohn-, Umwelt-, Rückgewinnungs- und Arbeitsschutzvorschriften abgebaut und verarbeitet werden. Die Bergbau- und Industriegebiete sind zu riesigen toxischen Ödlandstrichen geworden.

Allein für Kobalt schuften mehr als 40.000 kongolesische Kinder, teilweise gerade mal 4 Jahre alt an der Seite ihrer Eltern für einen Dollar pro Tag in den Minen und riskieren dabei, in Höhlen verschüttet zu werden und ständig schmutzigen, giftigen, radioaktiven Schlamm, Staub, Wasser und Luft ausgesetzt zu sein. Das ist heute – für den heutigen Bedarf an Batterien, Sonnenkollektoren und Windturbinen. Stellen Sie sich vor, wie viele benötigt würden, um den Grünen New Deal zu bedienen. Vielleicht 400.000? 4.000.000?

Allein in China wird es bald 200 Mal mehr kohlebefeuerte Kraftwerke geben als in Virginia abgeschaltet werden. Im Laufe des Jahres 2020, so das Beratungsunternehmen Wood Mackenzie, werden Europa und die Vereinigten Staaten 22.000 Megawatt Kohlekraftwerkskapazität stilllegen – selbst wenn Asien 49.000 Megawatt neue Kohlekraftwerke eröffnet, zusätzlich zu denen, die es bereits besitzt, und zusätzlich zu seiner wachsenden Flotte von Gaskraftwerken.

China baut oder finanziert zahlreiche Kohle- und Gaskraftwerke in Afrika und Asien. Indien verfügt bereits über Hunderte von Kohlekraftwerken und baut oder plant 400 weitere. China und Indien bauen oder planen außerdem Hunderte neuer Flughäfen und bringen Millionen neuer Autos und Lastwagen auf ihre Straßen. Das (plus der GND-Bergbau, -Verarbeitung und -Herstellung) bedeutet – selbst wenn Virginia oder die gesamten USA morgen den gesamten Verbrauch fossiler Brennstoffe verzichten würden – es würde keinen Unterschied hinsichtlich der globalen Kohlendioxidwerte machen.

Diese Verbrechen an Umwelt und Menschenrechten können nur unter einem System zügelloser Doppelmoral geschehen: der gleichen Art, die Gottesdienste und Beerdigungen, Anti-Blockade-Proteste und Trump-Kundgebungen abschrecken und verbieten – während sie Aufmärsche der Black Lives Matter zulassen, entschuldigen und loben, die allzu oft in Anti-Polizei-Mobs, Aufstände, Plünderungen, Brandstiftung, Schläge und Morde an Menschen wie David Dorn und Patrick Underwood verwandelt wurden, deren ebenfalls kostbares schwarzes Leben dieser Menge sicherlich nicht viel bedeutet hat.

Sie verlangen auch, dass die erwachte Campus-Annullierungskultur ihre intolerante, autoritäre Herrschaft in unseren Städten, in den Medien, in den sozialen Medien und sogar in den gesetzgebenden Körperschaften und Gerichten verbreitet, um ständigen Zorn und Anarchie einzuflößen und jeden zum Schweigen zu bringen, zu diffamieren und zu bestrafen, der es wagt, nuancierte oder konträre Standpunkte zu vertreten. Jeder Sieg bringt neue Forderungen mit sich, ohne Rechenschaft für das Chaos und die Zerstörung, die sie anrichten.

Warum sollten ländliche, arme Minderheiten- und Arbeiterfamilien und -gemeinschaften die ökologischen, gesundheitlichen und wirtschaftlichen Schäden akzeptieren, die bei der Verfolgung dieser pseudo-erneuerbaren Energie-Utopie angerichtet werden? Warum sollten Afrikaner, Asiaten und Lateinamerikaner den Sklavenstatus akzeptieren, um diese Agenda voranzubringen?

Die Situation spitzt sich zu. Hoffen wir, dass die jetzt schweigende Mehrheit Recht und Ordnung, eine zivile Debatte, eine durchdachte Reflexion über unsere komplexe Geschichte und eine rationale Lösung dieser heiklen Probleme wiederherstellen kann.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy, environment, climate and human rights issues.
Link: https://wattsupwiththat.com/2020/06/22/greens-promote-child-slave-labor-and-ecological-destruction/
Übersetzt von Linguee und bearbeitet von Chris Frey EIKE