Klimagerechter Abstieg

Das Kohleausstiegsgesetz ist nun beschlossen. Der 3. Juli 2020 ist ein historischer Tag, an den man sich später, in welcher Form auch immer, erinnern wird. Während im Gesetz analog zum Atomausstieg termingenau die Abschaltungen entsprechender Kohlekraftwerke aufgeführt sind, gibt es keinerlei Festlegungen zum Ersatz der dann fehlenden gesicherten Leistung.

Darstellung: Prof.-Dr.Ing.Schwarz, BTU Cottbus-Senftenberg

orange: Kernkraft, grau: Braunkohle, gelb: Steinkohle, blau: Gas
Rest: Photovoltaik, Wind, Biomasse, Hydro
Rote Linien: Bedarf. Die Fragezeichen betreffen die Jahre 2022, 2030 und 2038, die Defizite betragen dann etwa 20, 30 und 60 Gigawatt.
Die Aufhebung des Solardeckels und die Veränderung von Abstandsregeln für Windkraftanlagen helfen nicht. Abends geht die Sonne unter und im Winter ist fast jede Flaute auch eine Dunkelflaute. Dabei hätte es des Kohleausstiegsgesetzes eigentlich nicht bedurft. Der im EEG (Erneuerbare-Energien-Gesetz) seit 20 Jahren verankerte Einspeisevorrang sollte dazu führen, dass konventionelle Anlagen durch Ökostromanlagen dauerhaft verdrängt werden. Das funktioniert aber nur temporär. Der gesicherte Anteil der Produktion liegt bei bei null Prozent (Solarstrom), bei einem Prozent (Wind onshore) und zwei Prozent (Wind offshore), mit anderen Worten – die Erneuerbaren können es nicht. Da dies inzwischen als nicht zielführend erkannt wurde, gibt es die Forderung nach mehr Stromspeichern.
In Kürze wird feierlich die „BigBattery“ in Schwarze Pumpe in der Lausitz in Betrieb gehen, Europas größter Batteriespeicher. Sie kann 53 Megawattstunden Strom aufnehmen, was der Produktion des gleichnamigen Kraftwerks von zwei Minuten entspricht und etwa auch dem Verbrauch Berlins in zwei Minuten. Oder anders gerechnet: Um nur eine Tagesproduktion des Kraftwerks für windarme Zeiten zu puffern, bräuchte es 725 solcher Geräte in einem Kostenumfang von etwa 18 Milliarden Euro.
Da dies inzwischen auch als nicht zielführend erkannt wurde, heißt es nun: „Wasserstoff“. Wasserstoff ist kein abbaubarer Energierohstoff, sondern ein Energieträger, der energieaufwändig hergestellt werden muss. Das teuerste Verfahren dazu ist die Elektrolyse mittels Ökostrom. Mehr als 40 Pilotanlagen Power-to-Gas (P2G) sind deutschlandweit in Betrieb, einige länger als zehn Jahre. In keiner der Anlagen ließ sich nachweisen, dass es möglich ist, Wasserstoff zu marktfähigen Preisen zu produzieren. Deshalb geben die Netzbetreiber in ihren Szenariorahmen an, dass P2G-Anlagen nicht vor 2035 leistungswirksam sein dürften. Dennoch sollen nun Anlagen hochskaliert und als Wasserstoffkraftwerke an bestehenden Kraftwerksstandorten gebaut werden. Um Ökostrom mittels Wasserstoff zu speichern, bedarf es der Prozesskette Power-to-Gas-to-Power mit einem Gesamtwirkungsgrad von etwa 25 Prozent im Vergleich zu 100 Prozent bei sofortiger Nutzung des Stroms. Dies ist keine Stromspeicherung, sondern Energieverschwendung, die zudem gigantische Überkapazitäten regenerativer Stromerzeugungsanlagen erfordern würde.
Dass diese Überkapazitäten mit geringer Energiedichte und riesigem Flächenbedarf in unseren Gefilden nicht installierbar sind, ist auch das inzwischen als nicht zielführend erkannt. Nun heißt es: “Wasserstoff aus Afrika“. Dazu existiert bereits die „Hydrogen Partnership“ mit der WASCAL, einem Wissenschaftszentrum elf westafrikanischer Länder, die einen durchschnittlichen Korruptionsindex von 96 aufweisen. Im Rahmen unserer nationalen Wasserstoffstrategie wurde besonders Marokko als potenzielles Lieferland für grünen Wasserstoff erkannt. Marokko selbst importiert jährlich etwa 10 Millionen Tonnen Steinkohle aus Russland und Südafrika und nahm 2018 sein 1,4-GW-Kohlekraftwerk Safi in Betrieb. Vielleicht sollte der dort gewonnene Wasserstoff, wenn es wirtschaftlich ist, vor Ort zur Emissionssenkung verwendet werden? Die moralische Frage, ob es angemessen ist, Energie aus armen Ländern abzusaugen und sie nicht in den Herkunftsländern mit ihrem wachsenden Bedarf als emissionsarme Energieträger zu belassen, wäre einer dafür noch zu gründenden Ethikkommission zu überstellen.
„Deutschland ist heute ein großer Importeur von Energie und wird dies auch in Zukunft bleiben“, heißt es beim BMWi, was in der Sache ungenau ist. Primärenergie in Form von Öl, Gas und Steinkohle haben wir früher importiert und werden es weiter tun. Den Strom jedoch konnten wir selbst erzeugen und zum Teil sogar noch exportieren. Dies wird sich ändern.
Fassen wir zusammen: Wir schalten termingenau versorgungssichernde Anlagen ab, erzeugen Energiemangel und beheben diesen durch Wasserstoff aus Afrika – für den es allerdings keinen Termin gibt. Verlierer wird unsere Kinder- und Enkelgeneration sein, die neben der demografischen Last hohe Energiepreise aufgebürdet bekommt und den Niedergang der Industrie wird erleben müssen. Nicht nur Strom, jegliche Energie wird im Preis weiter steigen. Die CO2-Steuer belastet alle Produkte und viele Dienstleistungen. Jede Tüte Mehl, die in den Supermarkt gefahren wird, jeder Rettungswageneinsatz, jeder Schulbus, mit dem die Kinder in die Stadt fahren, wird teurer. Dadurch werde das Klima gerettet, heißt es.
Das Oberziel ist die Dekarbonisierung Deutschlands bis 2050. Die dann eingesparten Emissionen werden bis dahin durch das globale Bevölkerungswachstum um ein Mehrfaches übertroffen sein. Man wird dann feststellen, dass der Klimawandel weitergeht, aber gleichzeitig durch die Deindustrialisierung keine Mittel mehr zur Hand sind, sich auf den Klimawandel einzustellen.
Die staatliche Plankommission der DDR beschloss Fünfjahrespläne, mehr traute man sich nicht. Das Kohleausstiegsgesetz ist ein 18-Jahres-Staatsplan, in dem Markt nicht mehr wirkt. Das Energiesystem muss kleinteilig staatlich reguliert werden. Das sollen Politiker tun, die schon mit dem Bau eines Flughafens überfordert sind. Das Scheitern ist absehbar. Die wenigsten der 314 Abgeordneten, die dem Kohleausstiegsgesetz zustimmten, werden noch Abgeordnete sein, wenn die Folgen ihrer Entscheidung deutlich werden.
Die nächsten Politikergenerationen werden das tun, was sie üblicherweise am besten können: Schuldige suchen. Sie können dann in den Bundestagsprotokollen vom 3. Juli 2020 nachlesen.
Der Beitrag erschien zuerst bei TE hier




Der Grüne Wahnsinn bürdet den Armen immer neue Kosten auf

Es gibt zahlreiche, zumeist gravierende Fakten hinsichtlich der ökologischen Auswirkungen intermittierender Stromsysteme auf Mensch und Umwelt, welche allesamt den Kaliforniern vorenthalten werden. Darunter sind viele Kalifornier, welche sich die höchsten Treibstoff- und Stromkosten am wenigsten leisten können – Preise, die schon jetzt mit die höchsten der ganzen Nation [= der USA] sind. Das sind die gleichen Kalifornier, die weniger als die Hälfte von einem Prozent (0,5%) der Weltbevölkerung (40 Millionen gegenüber 8 Milliarden) ausmachen. Zu den Informationen, die der Klimakult unbedingt geheim halten will, gehören:

● Der Umstieg auf Elektrizität ALLEIN und die Eliminierung fossiler Brennstoffe würde bedeuten, dass Amerika 100% seines Benzins und alle Erdöl- und Erdgasvorräte für Pharmazeutika, Kosmetika, Farben, synthetische Fasern, Düngemittel und Kunststoffe für Mobiltelefone, Computer, Autokarosserien, Verpackungen, Windturbinenblätter, Solarzellenfolien und mehr als 6.000 Produkte, die aus Erdölderivaten hergestellt werden, ersetzen müsste. Zur Erinnerung: Ohne das Transportwesen und die Freizeit- und Unterhaltungsindustrie, die es vor 1900 nicht gab, gäbe es keinen Handel.

● Die Abhängigkeit von intermittierendem Strom aus Wind und Solar führte dazu, dass Kalifornien bis zu 29 Prozent seines Stromes importiert, um seinen Bedarf zu decken. Zum Nachteil derer, die sich die teure Energie am wenigsten leisten können, hat dieser verschwenderisch teure Stromimport dazu beigetragen, dass die ärmsten Einwohner, insbesondere Latinos und Afroamerikaner, mehr als 50 Prozent mehr für Strom bezahlen als der Rest des Landes.

● Die Auswirkungen der Kraftwerksschließungen in Kalifornien werden die Stromkosten erhöhen, da Kalifornien plant, drei Erdgaskraftwerke und sein letztes Kernkraftwerk zu schließen. Diese vier Kraftwerke haben die Kalifornier kontinuierlich und unterbrechungsfrei mit Strom versorgt. Da der Bundesstaat keine Pläne hat, die Stilllegungskapazität durch intermittierenden Strom aus Wind- und Sonnenenergie zu ersetzen, wird der Staat mehr kostspieligen Strom importieren müssen, um die Lücke zu füllen, was Bewohner und Unternehmen teuer bezahlen müssen.

● Der Klimakult hat Angst davor, dass bekannt wird, dass alle mineralischen Produkte und Metalle, die zur Herstellung von Windturbinen, Sonnenkollektoren und EV-Batterien benötigt werden, an Orten wie Baotou, der Inneren Mongolei, Bolivien und der Demokratischen Republik Kongo, meist unter chinesischer Kontrolle, unter minimalen bis nicht existenten Arbeits-, Lohn-, Umwelt-, Rückgewinnungs- und Arbeitsschutzbestimmungen abgebaut und verarbeitet werden. Allein der Abbau dieser exotischen Mineralien bringt weltweit soziale Herausforderungen, Menschenrechtsverletzungen und Umweltzerstörung mit sich

[Hervorhebung vom Übersetzer]

● Die Schrecken, welche die Arbeiter in den Kobaltminen durchmachen müssen, d.h. das eigentliche Ausgraben der Minen von Hand zusammen mit den schrecklichen Lebensbedingungen, sind vielfach dokumentiert. Amnesty International hat das Schicksal von Kindern und Erwachsenen dokumentiert, die in engen, von Menschenhand gebauten Tunneln Kobalt abbauen, zusammen mit der Exposition gegenüber den gefährlichen Gasen, die bei der Beschaffung dieser seltenen Mineralien freigesetzt werden.

[Hervorhebung vom Übersetzer]

● Allein für Kobalt schuften mehr als 40.000 kongolesische Kinder, teils nicht älter als 4 Jahre, an der Seite ihrer Eltern für einen Dollar pro Tag in den Minen und riskieren dabei, in Höhlen einzustürzen und ständig schmutzigem, giftigem, radioaktivem Schlamm, Staub, Wasser und Luft ausgesetzt zu sein. [Siehe auch hier beim EIKE]

● Diese Verbrechen gegen Umwelt und Menschenrechte können nur unter einem System zügelloser Doppelmoral gedeihen. Der Klimakult steht hinter diesen Untaten, solange es um „Erneuerbare“ geht.

● Selbst wenn Kalifornien oder die gesamten USA morgen den gesamten Verbrauch fossiler Brennstoffe eliminieren würden – es würde keinen Unterschied für die globalen Kohlendioxidwerte machen, verfügen doch China und Indien über mehr als 5000 Kohlekraftwerke und errichten 600 weitere Kraftwerke, um ihre Bevölkerung zuverlässig und bezahlbar mit grundlastfähigem Strom zu versorgen.

Seit 1990 sind die CO2-Emissionen der Industrieländer zurückgegangen, während sich die CO2-Emissionen der Entwicklungsländer seit 1985 vervierfacht haben. Dieses Gefälle hat folgende Gründe:

● die Verlagerung wichtiger CO2-emittierender Industrien in Teile der Welt, die weniger strenge Umweltnormen haben oder die sich weniger um CO2-Emissionen kümmern, und

● die zunehmende Nutzung der Kohleverbrennung zur Stromerzeugung in den Entwicklungsländern.

Der Hauptgrund dafür, dass der Klimakult sich hemmungslos gegen die Transparenz jeglicher Daten über die von ihnen favorisierte intermittierende Elektrizität aus Wind und Sonne wendet ist, dass sie sich gegenüber den ländlichen, armen, Minderheiten- und Arbeiterfamilien und -gemeinschaften rechtfertigen müssten. Die Öffentlichkeit muss die weltweiten ökologischen, gesundheitlichen und wirtschaftlichen Schäden akzeptieren, die ihnen bei der Verfolgung ihrer pseudo-erneuerbaren Stromutopie zugefügt werden. Darüber hinaus müssen diejenigen, die sich die Leidenschaft für intermittierenden Strom am wenigsten leisten können, moralisch akzeptieren, dass Afrikaner, Asiaten und Lateinamerikaner den Status von Sklavenarbeit ertragen müssen, um die Agenda des Klimakults voranzubringen.

Hoffen wir, dass die jetzt schweigende Mehrheit Recht und Ordnung, eine zivile Debatte, eine durchdachte Reflexion über unsere komplexe Geschichte und eine rationale Lösung dieser heiklen Probleme wiederherstellen kann, denn die derzeitige Klimapolitik diskriminiert im Wesentlichen arme Menschen und Minderheiten weltweit.

[Hervorhebungen vom Übersetzer]
Autor: Ronald Stein is an engineer who, drawing upon 25 years of project management and business development experience, launched PTS Advance in 1995. He is an author, engineer, and energy expert who writes frequently on issues of energy and economics
Link: https://www.cfact.org/2020/06/30/the-green-delusion-continues-to-push-costs-upon-the-poor/
Übersetzt von Chris Frey EIKE
Bemerkung des Übersetzers: Wie um Himmels willen kann man bloß die hier beschriebenen Skandale der Öffentlichkeit bekannt machen, wenn Medien und Politik derartig mauern?!




Das Wirrwarr von Klima­modellen

Ein Gedankenexperiment

Hier ist das Gedankenexperiment: Wir wollen eine Verbindung herstellen, die irgendwie Farbe erzeugt (der Mechanismus, wie sie das macht, ist nicht wirklich relevant). Wir wollen jedoch speziell eine gut definierte Farbe, die von der Anwendung, für die sie verwendet werden soll, vorgeschrieben wird. Sagen wir einen Türkis-Ton.

Nun haben unsere Geologen und Chemiekollegen einige Mineralien und Verbindungen vorgeschlagen, die Kandidaten für unser buntes Unternehmen sein könnten. Leider gibt es keinerlei Informationen darüber, welche Farben diese Stoffe produzieren. Dieser Umstand wird noch dadurch verstärkt, dass die Minerale äußerst selten und daher extrem teuer sind, während synthetische Minerale wirklich schwierig herzustellen und daher noch teurer sind. Wie gehen wir also vor, wie finden wir die besten Verbindungen, die wir ausprobieren können? Es kommt nicht in Frage, von jeder der vielen Verbindungen ein Muster zu bekommen und jede von ihnen auf die Farbe zu testen, die sie erzeugt. Was wir also tun, ist, die Physik des Farbe erzeugenden Prozesses für jede der vorgeschlagenen Verbindungen zu modellieren, um diejenigen zu finden, die Türkis erzeugen, falls es welche gibt. Das klingt einfach genug, ist es aber nicht, weil es mehrere verschiedene Codes gibt, nämlich insgesamt 5, die vorgeben, eine solche Simulation durchzuführen, jeder mit seinen eigenen zugrunde liegenden Annahmen und Eigenheiten. Wir führen diese Codes für die vorgeschlagenen Verbindungen durch und stellen fest, dass die Farben, die sie prognostizieren, leider für einzelne Verbindungen und im Allgemeinen überall uneinheitlich sind.

Nehmen Sie zum Beispiel die Verbindung Novelium1. Die vorhergesagten Farben reichen von Gelbgrün bis zu tiefem Violett mit einigen wenigen dazwischen wie Grün, Blau oder Ultramarin, ein Frequenzbereich mit dem Faktor 1,3; ähnlich für die anderen Kandidaten. In dieser Situation ist der einzige Weg vorwärts ein Experiment. Also graben wir tief in das Budget hinein und besorgen uns eine Probe von Novelium1, um zu sehen, welche Farbe es tatsächlich produziert. Es stellt sich als orange-rot heraus, was ziemlich enttäuschend ist. Wir sind wieder da, wo wir angefangen haben. Und wegen unserer Haushaltsbeschränkungen sind wir an dem Punkt, an dem wir aufgeben müssen.

Hier wollen wir ein Mitglied unseres Teams vorstellen. Nennen wir es Mike. Mike ist ein bisschen aufdringlich, weil ihm völlig klar ist, dass wir, wenn wir unser Ziel erreichen sollten, den einen oder anderen prestigeträchtigen Preis bekommen würden, etwas, worauf er ziemlich scharf ist. Er schlägt Folgendes vor: Wir nehmen das Modell, das die Farbe vorhergesagt hat, die der tatsächlichen Farbe am nächsten kommt, das ist das Modell, das uns Gelb-Grün gegeben hat, und passen seine Parameter so an, dass es stattdessen Orange-Rot vorhersagt. Das ist nicht allzu schwierig, und nach ein paar Tagen, in denen er auf einer Tastatur herumtüftelt, kommt er mit einem angepassten Modell, das die beobachtete Farbe erzeugt. Geschicklichkeit rundherum, bis auf ein oder zwei weitere skeptische Teammitglieder, die darauf bestehen, dass das neue Modell validiert werden muss, indem es die Farbe der Verbindung Novelium2 korrekt vorhersagen lässt. Da der Preis darauf beruht, ist dies eindeutig ein Muss, also kratzen wir den Boden des Budgets ab und wiederholen die Übung für Novelium2. Das angepasste Modell sagt Gelb voraus. Das Experiment ergibt Orange.

Wir gaben auf.

Was bedeutet das nun?

Können wir irgendetwas Nützliches hieraus ableiten? Um das herauszufinden, müssen wir drei Fragen beantworten.

Erstens: Was wissen wir nach der ersten Phase des Projekts, der Modellierungsübung, bevor wir das Experiment durchführten? Bedauerlicherweise lautet die Antwort: nichts Nützliches. Bei 5 verschiedenen Ergebnissen wissen wir nur mit Sicherheit, dass mindestens 4 der Modelle falsch sind, aber nicht welche. Selbst wenn die von uns gewünschte Farbe (Türkis) auftaucht, wissen wir immer noch nichts. Denn wie kann man sicher sein, dass der Code, der ihn erzeugt, das „richtige Ergebnis“ ist, wenn man die Ergebnisse der a priori gleichwertigen anderen Modelle berücksichtigt? Das kann man nicht. Wenn ein Modell uns Türkis gab, könnte es einfach ein glücklicher Zufall sein, wenn das Modell selbst noch fehlerhaft ist. Allein die Tatsache, dass die Modelle sehr unterschiedliche Ergebnisse liefern, sagt uns daher, dass höchstwahrscheinlich alle Modelle falsch sind. Tatsächlich ist es sogar noch schlimmer: Wir können nicht einmal sicher sein, dass die von Novelium1 erzeugte Echtfarbe im Bereich von Gelbgrün bis Violett liegt, selbst wenn es ein Modell gäbe, das die von uns gewünschte Farbe erzeugt. Im Anhang gebe ich eine einfache, auf Wahrscheinlichkeit basierende Analyse zur Unterstützung dieses und der folgenden Punkte.

Zweitens, was wissen wir nach dem unerwarteten Ausgang des eigentlichen Experiments? Wir wissen nur mit Sicherheit, dass alle Modelle falsch sind (und dass es nicht die gesuchte Verbindung ist).

Drittens: Warum ist Mikes kleiner Trick so kläglich gescheitert? Was ist da passiert? Die Parametereinstellung des ursprünglichen, ungefilterten Modells verkörpert das beste Verständnis der Physik – von seinen Machern, wenn auch unvollständig, aber das ist nicht wirklich relevant –, die ihm zugrunde liegt. Durch Modifizierung dieser Parameter wird dieses Verständnis verwässert, und wenn die „Feinabstimmung“ weit genug geht, verschwindet es vollständig, so wie die Grinsekatze verschwindet, je mehr man sie ansieht. Ein solches Modell im Nachhinein so zu optimieren, dass es an die Beobachtungen angepasst werden kann, ist daher gleichbedeutend mit dem Verzicht auf die Behauptung, dass man die dem Modell zugrundeliegende relevante Physik versteht. Jeglicher Vorwand, das Thema wirklich zu verstehen, verschwindet aus dem Fenster. Und mit ihm geht jede Vorhersagekraft, die das ursprüngliche Modell gehabt haben könnte. Ihr Modell ist gerade zu einer weiteren sehr komplexen Funktion geworden, die in einen Datensatz eingepasst wurde. Bekannt ist der Ausspruch des Mathematikers und Physikers John von Neumann über eine solche Praxis: „Mit vier Parametern kann ich einen Elefanten anpassen, und mit fünf kann ich ihn dazu bringen, mit dem Rüssel zu wackeln“. Bei dem optimierten Modell handelt es sich wahrscheinlich um ein neues, falsches Modell, das zufällig eine Übereinstimmung mit den Daten ergab.

Eine Anwendung auf Klimamodelle

Bewaffnet mit den Erkenntnissen aus der vorstehenden Geschichte sind wir nun in der Lage, einige grundsätzliche Aussagen zu den IPCC-Klimamodellen zu machen, zum Beispiel zu der Gruppe der 31 Modelle, die das CIMP6-Ensemble bilden (Eyring et al., 2019; Zelinka et al., 2020). Die interessierende Größe ist der Wert der Gleichgewichts-Klimasensitivität [Equilibrium Climate Sensitivity (ECS)], die erwartete langfristige Erwärmung nach einer Verdoppelung der atmosphärischen CO2-Konzentrationen. Die vorhergesagten ECS-Werte im Ensemble umfassen einen Bereich von 1,8°C am unteren Ende bis 5,6°C am oberen Ende, ein kolossaler Faktor 3 im Bereich, der von den 31 Modellen mehr oder weniger gleichmäßig belegt wird. Die Natur mag listig, ja sogar hinterhältig sein, aber sie ist nicht bösartig. Es gibt nur einen „wahren“ ECS-Wert, der der Verdoppelung der CO2-Konzentration in der realen Welt entspricht.

Können wir eine Erklärung zu diesem Ensemble abgeben? Nur diese beiden Beobachtungen:
Erstens, höchstwahrscheinlich sind all diese Modelle falsch. Diese Schlussfolgerung ergibt sich logisch aus der Tatsache, dass es viele a priori gleich gültige Modelle gibt, die nicht gleichzeitig richtig sein können. Höchstens eines dieser Modelle kann richtig sein, aber angesichts der übrigen 30 falschen Modelle stehen die Chancen schlecht, dass überhaupt ein Modell richtig ist. Tatsächlich lässt sich zeigen, dass die Wahrscheinlichkeit, dass keines der Modelle korrekt ist, bis zu 0,6 betragen kann.

Zweitens können wir nicht einmal sicher sein, dass die wahre ECS im Bereich der von den Modellen erfassten ECS-Werte liegt. Die Wahrscheinlichkeit, dass dies der Fall ist, liegt bei 1,0-0,6=0,4, was bedeutet, dass die Wahrscheinlichkeit, dass die wahre ECS in dem von den Modellen abgedeckten Bereich liegt, etwa 2 bis 3 beträgt (und damit die Wahrscheinlichkeit, dass die wahre ECS außerhalb des Bereichs liegt). Die oft gemachte Annahme, dass der „wahre“ ECS-Wert irgendwo im Bereich der Ergebnisse der Modelle im Ensemble liegen muss, basiert auf einem logischen Trugschluss. Wir haben absolut keine Ahnung, wo das „wahre“ Modell – Nummer 32, das „Experiment“ – innerhalb oder außerhalb der Spanne landen würde.

Es sind einige Einschränkungen zu machen. Was bedeutet es zum Beispiel: Das Modell ist „falsch“? Es bedeutet, dass es unvollständig sein könnte – es fehlen Konzepte oder Prinzipien, die in ihm vorhanden sein sollten – oder umgekehrt überkomplett – mit Dingen, die vorhanden sind, aber nicht vorhanden sein sollten – oder dass es Aspekte enthält, die einfach falsch oder falsch kodiert sind, oder alles davon. Da viele Ensemble-Modelle ähnliche oder sogar identische Elemente haben, könnte man ferner argumentieren, dass die Ergebnisse der Ensemble-Modelle nicht unabhängig sind, dass sie korreliert sind. Das bedeutet, dass man die „effektive Anzahl“ N der unabhängigen Modelle berücksichtigen sollte. Wenn N = 1 wäre, würde dies bedeuten, dass alle Modelle im Wesentlichen identisch sind, wobei der Bereich von 1,8°C bis 5,6°C ein Hinweis auf den intrinsischen Fehler wäre (was eine ziemlich schlechte Darstellung wäre). Wahrscheinlicher ist, dass N irgendwo im Bereich von 3 bis 7 liegt – mit einer intrinsischen Streuung von z.B. 0,5°C für ein einzelnes Modell – und wir sind wieder bei dem hypothetischen Beispiel oben.

Die Wahrscheinlichkeit von etwa 3 zu 2, dass keines der Modelle richtig ist, dürfte politisch interessant sein. Würden Sie mit diesen Quoten viel von Ihrem hart verdienten Geld auf ein Pferd setzen? Ist es klug, die Energieversorgung und damit die gesamte Wirtschaft Ihres Landes auf solche Quoten zu setzen?

Nachhersage

Ein anonymer Rezensent einer meiner früheren Schriften gab diesen offenen Kommentar ab, und ich zitiere:

Die Erfolgsbilanz der GCM’s ist insofern enttäuschend, als sie nicht in der Lage waren, den beobachteten Temperatur-Stillstand nach dem Jahr 2000 vorherzusagen, und auch nicht vorhersagen konnten, dass die Tropopausentemperaturen in den letzten 30 Jahren nicht gestiegen sind. Das Versagen der GCMs ist nicht auf Fehlverhalten zurückzuführen, aber die Modellierung des Erdklimas ist eine große Herausforderung.

Der wahre Wissenschaftler weiß, dass Klimamodelle noch in Arbeit sind. Der Pseudowissenschaftler, der unter dem Druck steht, die „Vorhersagen“ zu halten, muss einen Weg finden, um die Modelle und die Temperaturdaten der realen Welt „in Einklang zu bringen“.

Eine Möglichkeit dazu besteht darin, die Temperaturdaten in einem Prozess zu massieren, der „Homogenisierung“ genannt wird (z.B. Karl et al., 2015). Auf wundersame Weise verschwindet der „Stillstand“. Ein merkwürdiger Aspekt einer solchen „Homogenisierung“ ist, dass bei jeder Anwendung die „angepassten“ vergangenen Temperaturen immer niedriger sind, wodurch die angeblich „künstliche Erwärmung“ größer wird. Niemals andersherum. Offensichtlich kann man diesen kleinen Handgriff nur einmal ausführen, vielleicht zweimal, wenn niemand zusieht. Aber danach wird selbst der Dorftrottel verstehen, dass er reingelegt wurde, und die „Homogenisierung“ in den gleichen Mülleimer der Geschichte werfen wie Lysenkos „Vernalisierung“.

Der andere Weg ist die Anpassung der Modellparameter an die Beobachtungen (z.B. Hausfather et al., 2019). Angesichts der vielen anpassbaren Parameter und unter Berücksichtigung von von Neumans Witz ist es nicht überraschend, dass die Modelle durch eine solche „Nachhersage“ recht gut an die Daten angepasst werden können. In der kriecherischen Mainstream-Presse herrscht überall Eifer, mit manchmal urkomischen Ergebnissen. So verkündete beispielsweise ein Korrespondent einer überregionalen niederländischen Zeitung enthusiastisch, dass die Modelle die Temperaturen der letzten 50 Jahre korrekt vorhergesagt hätten. Dies wäre wirklich eine bemerkenswerte Leistung, denn die früheste Software, die als „Klimamodell“ betrachtet werden kann, stammt aus den frühen 1980er Jahren. Eine interessantere Frage ist jedoch: Können wir erwarten, dass ein derart angepasstes Modell eine Vorhersagekraft hat, insbesondere im Hinblick auf die Zukunft? Die Antwort ist ein schallendes „Nein“.

Sind Klimamodelle nutzlos?

Natürlich nicht. Sie können sehr nützlich sein als Werkzeuge zur Erforschung jener Aspekte der Physik der Atmosphäre und des Klimasystems, die noch nicht verstanden werden oder deren Existenz noch nicht bekannt ist. Wofür man sie nicht verwenden kann, sind Vorhersagen.

[Hervorhebung vom Übersetzer]

References:
Eyring V. et al. Nature Climate Change, 9, 727 (2019)
Zelinka M. et al. Geophysical Research Letters, 47 (2020)
Karl T.R., Arguez A. et al.  Science 348, 1469 (2015)
Hausfather Z., Drake H.F. et al.  Geophysical Letters, 46 (2019)
[Es folgt eine interessante Beschreibung der Bestimmung der Wahrscheinlichkeit, mit der ein bestimmtes Modell korrekt ist. Das ist das tägliche Brot eines Wetter-Prognostikers. Ein Faktor wird hierbei aber nicht erwähnt: Die Erfahrung eines seit Jahrzehnten praktizierenden Wetter-Prognostikers ist ein sehr gewichtiger statistischer Faktor, ist doch Erfahrung nichts anderes als Statistik. Dennoch, kein seriöser Prognostiker würde eine Prophezeiung, die über höchstens eine Woche hinausgeht, als Prognose bezeichnen – und sie schon gar nicht zu einer Grundlage schwer wiegender Entscheidungen machen.
Diese allgemein theoretische Betrachtung wird hier nicht mit übersetzt. Anm. d. Übers.]
 
Addendum: an analysis of probabilities
First the case of 5 models of which at most 1 can possibly be right. What is the probability that none of the models are correct? All models are a priori equally valid. We know that 4 of the models are not correct, so we know at once that the probability of any model being incorrect is at least 0.8. The remaining model may or may not be correct and in the absence of any further information both possibilities could be equally likely. Thus, the expectation is that, as a matter of speaking, half a model (of 5) is correct, which means the a priori probability of any model being incorrect is 0.9. For N models it is 1.0-0.5/N. The probability that all models fail then becomes: F=(1-0.5/N)^N which is about 0.6 (for N > 3). This gives us odds of 3 to 2 that none of the models are correct and it is more likely that none of the models are correct than that one of them is. (If we had taken F=(1-1/N)^N the numbers are about 0.34 with odds of 1 to 2)
Now an altogether different question. Suppose one of the models does give us the correct experimental result, what is the a posteriori probability that this model is indeed correct, given the results of the other models? Or, alternatively, that the model is incorrect even when it gives the ‘right’ result (by coincidence)? This posterior probability can be calculated using Bayes’ theorem,
P(X|Y) = P(Y|X)*P(X)/P(Y),
where P(X|Y) stands for the probability of X given Y and P(X) and P(Y) are prior probabilities for X and Y. In this case, X stands for ‘the model is incorrect’ and Y for ‘the result is correct’, in abbreviated form M=false, R=true. So the theorem tells us:
P(M=false|R=true) = P(R=true|M=false) * P(M=false) / P(R=true)
On the right-hand side the first term denotes the false-positive rate of the models, the second term is the probability that the model is incorrect and the third is the average probability that the result predicted is accurate. Of these we already know P(M=false)=0.9 (for 5 models). In order to get a handle on the other two, the ‘priors’, consider this results table:

The ‘rate’ columns represent a number of possible ensembles of models differing in the badness of the incorrect models. The first lot still give relatively accurate results (incorrect models that often return the about correct result, but not always; pretty unrealistic). The last with seriously poor models which on occasion give correct results (by happy coincidence) and a number of cases in between. Obviously, if a model is correct there is no false-negative (TF) rate. The false-positive rate is given by P(R=true|M=false) = FT. The average true result expected is given by 0.1*TT + 0.9*FT = 0.82 for the first group, 0.55 for the second and so on.
With these priors Bayes’ Theorem gives these posterior probabilities that the model is incorrect even if the result is right: 0.87, 0.82 etc. Even for seriously poor models with only a 5% false positive rate (the 5th set) the odds that a correct result was made by an incorrect model are still 1 to 2. Only if the false positive rate (of the incorrect models) drops dramatically (last column) can we conclude that a model that produces the experimental result is likely to be correct. This circumstance is purely due to the presence of the incorrect models in the ensemble. Such examples shows that in an ensemble with many invalid models the posterior likelihood of the correctness of a possibly correct model can be substantially diluted
Link: https://wattsupwiththat.com/2020/07/01/the-climate-model-muddle/
Bearbeitet von Chris Frey EIKE




Ist die aktuelle Änderung des Meeres­spiegels im Vergleich mit historischen Zeiten einzigartig?

Der Meeresspiegel über die Jahrtausende

Wie immer zuerst Informationen, welche uns Klimafachpersonen (und Gremien) darüber bieten.
[3] WIKI Bildungsserver: Meeresspiegeländerungen
… In der späteren Nacheiszeit stieg der Meeresspiegel über mehrere Jahrtausende deutlich an. So ist er zwischen 7000 und 3000 Jahren v.h. um 2-3 m gestiegen. In den letzten 2000 Jahren gab es dann nur noch geringe Schwankungen, die unter 25 cm über mehrere Jahrhunderte lagen …
Dazu eine Grafik, in welcher man von den 2-3 m Anstieg zwischen den „7000 und 3000 Jahren v.h.“ nichts erkennen kann.

Bild 1 [3] Meerespegelanstieg seit dem Ende der letzten Eiszeit

[4] DKK Deutsches Klima-Konsortium KLIMA-FAQ 5.2: MEERESSPIEGEL Wie ungewöhnlich ist die aktuelle Änderungsgeschwindigkeit des Meeresspiegels?
… belegen sie eine mittlere Änderungsgeschwindigkeit des Meeresspiegels seit dem späten 19. Jahrhundert von 2,1 ± 0,2 mm pro Jahr. Dieser jahrhundertlange Anstieg übersteigt jede andere 100-Jahres-Änderungsrate in der gesamten 2000-jährigen Aufzeichnung für denselben Küstenbereich.
… instrumentelle Messungen und geologische Daten stützen die Schlussfolgerung, dass die aktuelle Änderungsgeschwindigkeit des mittleren globalen Meeresspiegels im Verhältnis zu den beobachteten und/oder geschätzten Änderungen während der letzten zwei Jahrtausende ungewöhnlich ist …
Dazu eine Grafik, in welcher gezeigt wird, dass die Änderungsrate seit ca. 2000 Jahren fast Null beträgt, doch seit der Satellitenmessung mit über 3 mm/pa die durchschnittliche Rate der letzten 2 Jahrtausende um Größenordnungen übersteigt.

Bild 2 [4] Änderungsraten des Meerespegelanstiegs seit 22.000 Jahren

Professor Rahmstorf (PIK) informiert auf seinem Blog detailliert mit Text und vielen Grafiken.
Darin erfährt man, dass der Meerespegel die letzten ca. 2500 Jahre um maximal 10 … 15 cm schwankte und aktuell am höchsten ist (Bild 3). Gleiches gilt für die Pegel- Änderungsgeschwindigkeit.
[5] Stefan Rahmstorf, SCILOGS 22. Feb 2016: Meeresspiegel über die Jahrtausende
… Schauen wir sofort das Hauptresultat an. Der globale Meeresspiegelverlauf sieht folgendermaßen aus
(Anm.: Bild 3):

Bild 3 [5] Pegelrekonstruktion der letzten 2.500 Jahre nach Rahmstorf

[5] Stefan Rahmstorf: … Ein robustes Resultat ist dagegen die Tatsache, dass der Meeresspiegel im Verlauf des 20. Jahrhunderts wesentlich stärker gestiegen ist als in jedem Jahrhundert davor. (Diese Aussage gilt unabhängig von einem additiven Trend.) Eine gute Art dies darzustellen ist die folgende Grafik.

Bild 4 [5] Pegel-Anstiegsgeschwindigkeiten/Jahrhundert seit dem Jahr Null

Wenn Herr Rahmstorf irgendetwas zum Klimawandel von sich gibt, dürfen Apokalypsen, – immer resultierend aus irgendwelchen Irrsinns-Simulationen des PIK – niemals fehlen:
[5] Stefan Rahmstorf: … Die schlechte Nachricht ist, dass nach diesem Eismodell das Antarktiseis rascher zerfallen kann als bislang gedacht.

Bild 5 [5] Pegelverlauf aus Bild 3 mit Zukunftsprojektionen (des PIK)

„Seine“ Simulationen erlauben es, den Meerespegel für 10.000 Jahre im Voraus zu bestimmen:
[5] Stefan Rahmstorf: … Zehntausend Jahre Meeresspiegelanstieg voraus
… Durch unsere Treibhausgasemissionen setzen wir derzeit einen Anstieg in Gang, der bei 25 bis 50 Metern über dem heutigen Meeresspiegel enden dürfte.

Bild 6 [5] Pegelverlauf der letzten 20.000 Jahre mit Zukunftsprojektionen für die kommenden 10.000 Jahre

Voller Stolz deshalb die Information von Herrn Rahmstorf, dass auch ausländische Medien darauf hereinfallen:

Bild 7 [5] Artikel der New York Times aus Anlass einer PIK-Studie zum Meerespegel

Was sagt der letzte IPCC-Bericht AR5?

Zuerst ein Blick in den letzten IPCC-Bericht AR5 (Langfassung). Darin findet sich zu diesem wichtigen Zeitraum recht wenig, schon gar keine aussagefähigen Grafiken. Das IPCC interessiert sich erkennbar nur für die ganz kurze Vergangenheit, alleine, um den AGW-Klimawandel zu belegen. Der kompromittierende Vergleich mit der relevanten Klimahistorie ist (wohl bewusst) weggelassen.
Von dem Wenigen an Information, Auszüge anbei. „Zugegeben“ – aber nur mit „likely“ – wird, dass der Meerespegel vor 7 … 3.000 Jahren 2 … 3 m höher war. Für die letzten 2.000 Jahre soll er dann nur noch um maximal +-25 cm geschwankt haben:
[6] AR5 Langfassung: Chapter 13 Sea Level Change
Since the AR4, there has been signifiant progress in resolving the sea level history of the last 7000 years. RSL records indicate that from ~7 to 3 ka, GMSL likely rose 2 to 3 m to near present-day levels (Chapter 5). Based on local sea level records spanning the last 2000 years, there is medium confience that flctuations in GMSL during this interval have not exceeded ~ ±0.25 m on time scales of a few hundred years (Section 5.6.3, Figure 13.3a). The most robust signal captured in salt marsh records from both Northern and Southern Hemispheres supports the AR4 conclusion for a transition from relatively low rates of change during the late Holocene (order tenths of mm yr–1) to modern rates (order mm yr–1) (Section 5.6.3, Figure 13.3b). However, there is variability in the magnitude and the timing (1840–1920) of this increase in both paleo and instrumental (tide gauge) records (Section 3.7). By combining paleo sea level records with tide gauge records at the same localities, Gehrels and Woodworth (2013) concluded that sea level began to rise above the late Holocene background rate between 1905 and 1945, consistent with the conclusions by Lambeck et al. (2004).
Im Bild 7 aus dem Bericht sieht man zumindest, dass der „schlimme“ Pegelanstieg seit 1880 von ca. 25 cm in den letzten 3.000 Jahren eigentlich der „Normalfall“ war und bezüglich Größe und Geschwindigkeit im regelmäßigen „Änderungsrauschen“ verschwindet.

Bild 8 Pegelgrafiken (Anm.: Vom Autor ergänzt) [6] AR5 (Teilbild)

Zu der Abbildung: Figure 13.3 | (a) Paleo sea level data for the last 3000 years from Northern and Southern Hemisphere sites. The effects of glacial isostatic adjustment (GIA) have been removed from these records. Light green = Iceland (Gehrels et al., 2006), purple = Nova Scotia (Gehrels et al., 2005), bright blue = Connecticut (Donnelly et al., 2004), blue = Nova Scotia (Gehrels et al., 2005), red = United Kingdom (Gehrels et al., 2011), green = North Carolina (Kemp et al., 2011), brown = New Zealand (Gehrels et al., 2008), grey = mid-Pacifi Ocean (Woodroffe et al., 2012) (b) Paleo sea level data from salt marshes since 1700 from Northern and Southern Hemisphere sites compared to sea level reconstruction from tide gauges (blue time series with uncertainty) (Jevrejeva et al., 2008). The effects of GIA have been removed from these records by subtracting the long-term trend (Gehrels and Woodworth, 2013). Ordinate axis on the left corresponds to the paleo sea level data. Ordinate axis on the right corresponds to tide gauge data. Green and light green = North Carolina (Kemp et al., 2011), orange = Iceland (Gehrels et al., 2006), purple = New Zealand (Gehrels et al., 2008), dark green = Tasmania (Gehrels et al., 2012), brown = Nova Scotia (Gehrels et al., 2005). (c) Yearly average global mean sea level (GMSL) reconstructed from tide gauges by three different approaches. Orange from Church and White (2011), blue from Jevrejeva et al. (2008), green from Ray and Douglas (2011) (see Section 3.7)…
Weil man im IPCC-Bericht gerade im Kapitel zum Meerespegel „ist“, noch ein Beispiel zur (Des-)Information darin gezeigter Grafiken.
Parallel mit anderen Pegeln wird auch der von Manila gezeigt:

Bild 9 [6] AR5 (Teilbild) FAQ13.1, Figure 1 | Map of rates of change in sea surface height (geocentric sea level) for the period 1993–2012 from satellite altimetry.

Nun weiß jeder „gute“ EIKE-Leser, dass Manila ein „Vorzeige“- weil Extrembeispiel — für selbst verursachte Landsenkung ist und der „Tidenpegelverlauf“ damit eine vollkommen falsche Aussage vermittelt:
EIKE 13.08.2017: Manila versinkt durch Wasserentnahme im austrocknenden Untergrund. Der (reiche) Westen mit seinem CO2 soll daran schuld sein – und zahlen
Man dürfte die Pegelgrafik von Manila – die nicht Pegeländerung, sondern ausschließlich eine extreme Landsenkung zeigt – deshalb grundsätzlich nicht mit anderen Pegelgrafiken in der gleichen Reihe zeigen, da Leser, welche den Sachverhalt nicht kennen, eine vollkommen falsche Information ableiten.
Erst im Text findet sich dann ein etwas „lapidarer“ Hinweis, dass mit dem Pegelbild etwas nicht stimmt „the greater rate of rise relative to the global mean at Manila (FAQ 13.1, Figure 1) is dominated by land subsidence caused by intensive groundwater pumping“. Aber auch da fehlen Daten, sodass man dieses häufige Problem, „is common in many coastal regions“ selbst anhand des Langeberichtes nicht entfernt quantifizieren kann:
AR5: … In addition to regional inflences of vertical land motion on relative sea level change, some processes lead to land motion that is rapid but highly localized. For example, the greater rate of rise relative to the global mean at Manila (FAQ 13.1, Figure 1) is dominated by land subsidence caused by intensive groundwater pumping. Land subsidence due to natural and anthropogenic processes, such as the extraction of groundwater or hydrocarbons, is common in many coastal regions, particularly in large river deltas.
Dass deshalb selbst Klimawandel-Fachpersonen unseres Bundestages, welche als ausgesuchte Fachmannschaft extra auf eine lange und teure Recherchereise ging, um dieses Problem persönlich vor Ort zu analysieren, deshalb mit völliger Unkenntnis hin – und mit noch mehr zurück kamen, lässt sich nachlesen:
EIKE 30. April 2019: Claudia Roth auf Forschungsreise zum Klimawandel

Offizielle“ Darstellung

Nach diesen Hinterlegungen der „Wissenschaft“ zum Klimawandel war der Meerespegel vor ca. 7 … 3.000 Jahren 2 bis 3 m höher [6], seitdem bewegte er sich dann nur noch in einer Spanne von ca. +-25 cm [6], laut Herrn Rahmstorf seit den letzten Zweitausend Jahren nur um ca. +-5 cm (Bild 3).

Zum Meerespegel gibt es jedoch auch detailliertere Informationen

Dazu der Hinweis, dass ein erheblicher Teil dieses „Wissens“ aus Hinterlegungen der Plattform NoTricksZone entnommen wurde [7].
Selbst wenn man nur oberflächlich sucht, finden sich viele –vor allem auch neuere – Pegelstudien, die der „wissenschaftlichen“ Angabe zum seit ca. 3.000 Jahren angeblich flachen, sich nur um wenige Zentimeter veränderndem Meerespegel eklatant widersprechen. Anbei solche Beispiele

Langfristdarstellungen (seit etwa Ende der letzten Eiszeit)

Hinweis: Diese Studien geben nicht den globalen Meerespegel an (das Pegelbild von Herrn Rahmstorf weist ihn allerdings auch nicht global aus, er leitet den globalen jedoch daraus ab).
Es dürfte jedoch unwahrscheinlich sein, dass länger andauernde, große lokale Pegeländerungen sich nicht ausgleichen und damit auch global vorhanden sind. Dass die Proxis rund um den Globus ähnliche Verläufe zeigen, erhärtet diese Annahme. Mit Sicherheit sind sie deshalb eine brauchbare Orientierung auch über den globalen Pegelverlauf.
Leider „lieben“ es die Studienautor*innen, die Zeitachse beliebig mal nach Links, dann nach Rechts zu drehen. Deshalb bei jedem Bild neu darauf achten, in welcher Richtung das aktuelle Jahrtausend liegt.

Bild 10a Anja Scheffers, Dominik Brill, Dieter Kelletat, April 11, 2012: Holocene sea levels along the Andaman Sea coast of Thailand


Bild 10b Meco et al., 2018 Canary Islands, Spain, + 3.5 to +4 m higher than present


Bild 11 Jiang et al., 2017 Southern China, +2.4 to +4.26 m higher than present


Bild 11b Bradley et al., 2016  China, +2 to +4 m higher than present


Bild 12 Dura et al., 2016  Vancouver, < +1 to +3 m higher than present


Bild 13 Miguel et al., 2018 Southeastern Africa, ~ +2 to +3 m higher than present


Bild 14 Yamono et al., 2017 Kiribati (Central Pacific), +2.4 m higher than present


Bild 15 Whitfield et al., 2017 Southern Africa, +1.5 to +3.5 m higher than present


Bild 16 Prieto et al., 2016 Argentina, Uruguay, +4 to +6.5 m higher than present


Bild 17 Leonard et al., 2016 Great Barrier Reef, Australia, +0.75 m higher than present


Bild 18 Bracco et al., 2014 Uruguay, +3 to +4 m higher than present


Bild 19 Fig. 7. Holocene sea-level envelope for Peninsula Malaysia (modified from Tija, 1996). Data points with arrows indicate directional (limiting) index points. Some index points have vertical error bars, where the vertical range of the sea-level indicator is understood. No age errors are considered, radiocarbon ages are plotted. The boundaries of the envelope are drawn midway between the extreme data points and the neighbouring points within the envelope ( Tija, 1996).

Fazit

Es ist überraschend, wie stark die Pegelrekonstruktionen bezüglich des Verlaufs rund um den Globus übereinstimmen. Auch interessant allerdings, wie extrem die Auflösungen und natürlich auch die Absolutwerte variieren.
Doch eines lässt sich mit Sicherheit sagen: Die von Herrn Rahmstorf gezeigte Pegelrekonstruktion der letzten 2.500 Jahre (Bild 3) stimmt nicht. Sie zeigt bei Weitem nicht die wirklichen Pegel-Variabilitäten und erinnert damit an die „Hockeystick-Kurve, wo genau das gleiche (Verschleiern der hohen, wirklichen Variabilität durch Mittelwertbildungen) gemacht wurde.
Der Autor traut sich auch zu behaupten, dass zu seiner weiteren Aussage problemlos Gegenbelege möglich sind:
[5] Stefan Rahmstorf: … Ein robustes Resultat ist dagegen die Tatsache, dass der Meeresspiegel im Verlauf des 20. Jahrhunderts wesentlich stärker gestiegen ist als in jedem Jahrhundert davor. (Diese Aussage gilt unabhängig von einem additiven Trend.) Eine gute Art dies darzustellen ist die folgende Grafik …

Bild 20 (Wiederholung Bild 6) [5] Pegelverlauf der letzten 20.000 Jahre mit Zukunftsprojektionen

Um das zu zeigen, ist der Zeitraum der letzten 3000 Jahre wichtig. Leider nehmen die Studien darauf keine „Rücksicht“, deshalb anbei weitere Grafiken aus Studien, welche diesen Zeitraum etwas detaillieren.

Pegel im Zeitraum seit etwa 3.000 Jahren

Bild 21 Fig. 2. The Late Holocene sea level changes in the Maldives (Mörner, 2007) including 7 transgression peaks in the last 4000 years with 3 peaks in the last millennium.


Ähnlich stellt es auch die folgende Studie dar:

Bild 22 Strachan et al., 2014 South Africa, +3 m higher than present


Bild 23 Dura et al., 2011 West Sumatra, Indonesia, +2 to +6 m higher than present


Bild 24 Meerespegelentwicklung der Southern Cook Islands während der vergangenen 2500 Jahre. Quelle: Goodwin & Harvey 2008


Bild 25 [9] Fig. 4. Observed, documented and dated sea level changes during the last 500 years in the Indian Ocean. Top: the Maldives (Mörner, 2007). Middle: Bangladesh (Mörner, 2010c). Bottom: Goa, India (Mörner, 201 6). The agreement is striking

Zeigt sich der „Pegelverlauf“ auch in den Temperaturverläufen?

Anbei Proxydaten zur Temperatur seit der letzten Eiszeit (Bild 26). Würde man „Pegelverläufe“ darunter schreiben, würde es jeder sofort glauben, so ähnlich sind die Verläufe (und vielen Abweichungen).
Auffällig ist die enorme Spanne der Proxytemperaturen, aber vor allem die darin ausgewiesenen, enormen und schnellen Schwankungen (die es angeblich nicht gegeben hat).
Manchem Leser wir verblüffen, warum aktuell das „Verbrennen“ der Erde verkündet wird. Sofern die Proxis die Temperaturverläufe auch nur im Ansatz richtig abbilden, müsste eher von einer „Erkältung“ gesprochen werden. Aber wenn man die Vergangenheit weglässt, lässt sich eben alles fabulieren.

Bild 26 Proxyrekonstruktionen der Temperatur der letzten 12.000 Jahre. Quelle: Frank Lansner: Holocene, historic and recent global temperatures from temperature proxies


Bild 27 Temperaturtrend seit ca. 7000 Jahren in nördlichen Breitengraden. [8]

Originaltext zur Abbildung: Figure S1. Temperature trends recorded over the past 4000-7000 years in high latitude proxy and CGCM data. Multi-millennial TRW records from Sweden 1, Finland2, and Russia3 (all in grey) together with reconstructions of the glacier equilibrium line in Norway4,5 (blue), northern treeline in Russia3,6 (green), and JJA temperatures in the 60-70 °N European/Siberian sector from orbitally forced ECHO-G7,8 (red) and ECHAM5/MPIOM9 (orange) CGCM runs10. All records, except for the treeline data (in km) were normalized relative to the AD 1500-2000 period. Resolution of model and TRW data were reduced (to ~ 30 years) to match the glacier data.
In die folgenden Grafik ist eine Verlaufskurve aus anderer Quelle kopiert. Die zwei „Mittelwertlinien“ lasse erkennen, wie man durch Mitteln alle „kompromittierenden“ Variabilitäten der Vergangenheit „wissenschaftlich“, da „statistisch fundiert“, verschwinden lassen kann.

Bild 28 Vom Autor in Bild 26 eine Verlaufsrekonstruktion der Zentralanstalt für Meteorologie und Geodynamik ZAMG kopiert. Anm.: Die Achsendimensionen sind gleich. Da die Nullpunkte nicht übereinstimmen, wurden diese optisch gro korrigiert

Vermutung: Vom IPCC und von Prof. Rahmstorf angegebene Pegelverläufe können nicht stimmen

Alleine das Vergleichen der Angaben von „Klimafachpersonen“ mit den Verläufen aus Pegelrekonstruktionen führt zu dem einzig möglichen Schluss: Die „offiziellen“ Angaben:
-IPCC AR5: Die letzten 2.000 Jahre soll der Meerespegel nur noch um maximal +-25 cm geschwankt haben
-laut Rahmstorf die letzten 2.500 Jahre um maximal 10 … 15 cm
und dazu gezeichnete Bilder (typisch auch Bild 1) – , wie auch die Angabe, der aktuelle Anstieg wäre die letzten 2.500 Jahre noch nie dagewesen, sind genau so falsch, wie es der Hockeystick zur Temperatur ist (rein persönliche Überzeugung des Autors anhand vieler Studiensichtungen allerdings durch keine „Klimafachperson“ belegt).
Um zu zeigen, wie bewusst „Klimawissenschaft“ in ihren Darstellungen lügt Information weglässt um nur das „Gewünschte“ auszusagen, anbei oft zu findende Pegelgrafiken, ergänzt um die darin weggelassenen Zusatzinformationen, die sich zwangsläufig aus den Proxis ergeben.

Bild 29 Bild 1 mit grobem Eintrag des wahrscheinlicheren, wirklichen Pegelverlaufs durch den Autor


Anhand der folgen Proxyüberlagerungen zeigt sich die unglaubliche Pegelvarianz seit dem Ende der letzten Eiszeit, aber auch der laut Prof. Rahmstorf im Pegel fast nicht schwankenden, letzten 2.500 Jahre.

Bild 30 Rekonstruktionsversuch Pegelverlauf der letzten 3000 Jahre. Bilder 3; 7; 21 im gleichen Zeit- und Höhenmaßstab vom Autor übereinander kopiert. Hinweis: Die 0-Linien der Proxy-Y-Achsen sind versetzt. Die Pegelspannen aber im Maßstab


Entweder ist Prof. Rahmstorf genial und alle anderen Klimawissenschaftler mehr als blöde (da im Gegensatz zu Prof. Rahmstorf nicht entfernt in der Lage, Pegelproxys zu generieren), oder etwas anderes trifft zu.
Der Autor vermutet es mehr als stark (rein persönliche Meinung, durch keine Aussage eines renommierten Klimawissenschaftlers belegt).

Fazit

Anhand von – mit Sicherheit die Vergangenheit nicht richtig darstellenden – Pegelverläufen der offiziellen „Klimawissenschaft“ werden die Klimasimulationen „kalibriert“, welche dann wie es Prof. Rahmstorf behauptet, die nächsten 10.000 Jahre Klimageschehen vorhersagen können …
Jetzt kann sich jeder Leser fragen:
– was darf man von den Angaben der „Klimawissenschaftler*innen“ glauben
– wie konnten solche gewaltigen Variabilitäten geschehen, obwohl das angeblich fast alleine die Temperatur treibende CO2 sich während dieser Zeiträume kaum verändert hat?
Mit Sicherheit ist es kein Zufall, dass diese „kompromittierenden“ Variabilitäten in offiziellen Grafiken (und Texten) regelmäßig fehlen durch geeignetes Mitteln „statistisch fundiert“ entfernt sind.

Entweder hat die Klimawissenschaft das Klima noch gar nicht verstanden, oder sie verheimlicht Wichtiges dazu

Anmerkung: Der Autor vermutet das Erste. Ergänzend zur bisherigen Betrachtung der letzten ca. 8.000 Jahre, soll nun auch die letzte Eiszeit gesichtet werden. Ein Ergebnis ist, dass nicht nur während der letzten 2.500 und 8.000 Jahre kein plausibler Zusammenhang zwischen CO2-Konzentrationsveränderungen und Meerespegel besteht, das „Verhalten“ der Temperatur während der Eiszeit „verbietet“ eigentlich jeden Gedanken daran.
Auch mit schlimmsten „ökotheologischen“ Tatsachenverdrehungen, lässt sich der Verlauf wirklich nicht mehr mit CO2-Konzentrationen in Verbindung bringen.

Bild 31 (Aktuelle Zeit links) Verlauf Meerespegel und Temperatur während der Eiszeiten [10] Fig. 1. Comparison of two methods to assess past EDC temperature based on EDC ice core dD. Green, conventional approach taking into account past changes in sea water isotopic composition and a constant isotope–temperature slope. Red (Jouzel et al., 2007), same as green but also including a correction for ice sheet elevation changes derived from the glaciological model used for the age scale, displayed in grey on the top panel (Parrenin et al., 2007b). Horizontal dashed lines show the average Holocene and Last Glacial Maximum levels. Vom Autor ergänzt

Zur abschließenden Veranschaulichung, wie die „offiziellen“ Klimagrafiken betrügen durch gezieltes Weglassen das Gegenteil der Wirklichkeit vermitteln (sollen), noch der Temperaturverlauf der letzten Eiszeit als „offizielle“ Darstellung (Ausschnitt aus Bild 31) und mit den damals stattgefunden Dansgaard-Oeschger –Ereignissen, die gewaltige und extrem schnelle Temperatursprünge waren.
Nach der AGW-Klimawandeltheorie kann das was damals mit der Temperatur passierte, in der wahren Natur überhaupt nicht möglich sein (weil die angeblich alleine die Temperatur treibende CO2– Konzentration sich während dieser Zeit fast nicht veränderte). Trotzdem ist es regelmäßig und in gewaltigen Ausmaßen geschehen.

Bild 32 Typische Darstellung der Temperatur während der letzten Eiszeit (Ausschnitt von Bild 31) und darüber kopiert die Oeschger-Ereignisse. Grafik vom Autor erstellt


Manchmal kommen auch Klimaforscher dank umfangreicher Fördermittel auf Erkenntnisse, die einem Laien alleine aufgrund einfacher Datensichtungen auffallen:
EIKE 21.02.2018: Und plötzlich wird die Zukunft glücklicher
AWI: [11] Als zukünftige Aufgabe formulieren die AWI-Forscher: „Wir wollen die Veränderungen der kurzfristigen Schwankungen in der Vergangenheit und deren Zusammenhang mit langfristigen Klimaänderungen detailliert untersuchen. Dazu brauchen wir zuverlässige Klimaarchive und ein detaillierteres Verständnis darüber, wie diese zu interpretieren sind.“ Die Trennschärfe so zu erhöhen, dass damit zukünftig auch Extremereignisse in Paläo-Archiven abgebildet werden können, wie wir sie heute erleben, sei eine der großen Herausforderungen für die kommenden Jahre.
Quellen
[1] EIKE 29. Juni 2020: Wie schnell steigt eigentlich der Meeresspiegel?
[2] EIKE 27. Juni 2020: Wo ist die „Klimakrise“?
[3] WIKI Bildungsserver: Meeresspiegeländerungen
[4] DKK Deutsches Klima-Konsortium KLIMA-FAQ 5.2: MEERESSPIEGEL Wie ungewöhnlich ist die aktuelle Änderungsgeschwindigkeit des Meeresspiegels?
[5] Stefan Rahmstorf, SCILOGS 22. Feb 2016: Meeresspiegel über die Jahrtausende
[6] AR5 Langfassung: Chapter 13 Sea Level Change
[7] NoTricksZone: 2m higher Holocene Sea-Levels
[8] Johannes Gutenberg University, 55099 Mainz, Jan Esper at al, 8 JULY 2012: Orbital forcing of tree-ring data
es on the last 8000 years.
[9] Mörner August 2016: Sea level changes in the real world Models vs observational facts
[10] V. Masson-Delmotte at al. 2010: EPICA Dome C record of glacial and interglacial intensities
[11] AWI 05.02.2018: Klimaschwankungen in Vergangenheit und Zukunft
[12] ZAMG: 12.000 Jahre Die aktuelle Warmzeit




Energieerzeugung der besseren Art – Die Kernkraft aufrichtig betrachtet

Weltweit sind derzeit 450 Kernreaktoren in Betrieb und es werden immer mehr. Insbesondere die sogenannte ›Generation IV‹ wird künftig vermehrt in Betrieb gehen, da dieser Kraftwerkstyp inhärent sicher ist, zudem den Brennstoffkreislauf schließt. Die Hauptargumente gegen Kernenergie – Unfallgefahr und Atommüll – sind bei diesem Konzept nicht mehr anwendbar.
Anders als Windräder und Photovoltaikanlagen besitzen Kernreaktoren eine hohe Effizienz, was automatisch mit optimaler Schonung der Umwelt einhergeht. Die Autoren führen sehr bildreiche Vergleiche an, die aufzeigen, welche fatale Rolle „Erneuerbare“ in der Energieerzeugung spielen und warum diese immense Schäden in der Natur verursachen. Sie weisen zudem darauf hin, dass die höchsten Umweltschäden nicht die hochentwickelten Nationen verursachen, sondern die Länder der Dritten Welt, die noch nicht in der Lage sind, Methoden höchster Energiedichte einzusetzen.
Sehr erhellend auch die Erläuterungen zur Energiedichte eines Stoffs. Hier wird schlagartig klar, dass Kernbrennstoff in einer ganz anderen Liga spielt, als etwa Steinkohle oder gar Lithium-Ionen-Akkus. Mit dem sogenannten Erntefaktor führen die Autoren plastisch vor Augen, dass weder Sonnenenergie noch Biomasse oder Windenergie die Wirtschaftlichkeitsschwelle übersteigen.
Im Buch sind auch Ungeheuerlichkeiten zu lesen, die sich die Politik hat einfallen lassen, um die „Energiewende“ in gutem Licht darstellen zu können. So kann etwa gegen eine geringe Gebühr der Kohlestrom ergrünen, indem er in Wasserstrom getauscht wird. Alles was dazu nötig ist, sind RECS-Zertifikate. Noch nicht einmal eine physische Verbindung zwischen den Stromleitungen muss existieren, da es sich lediglich um eine reine Umetikettierung handelt. So erklärt es sich, dass fast alle deutschen Stromversorger „100 Prozent Ökostrom“ anbieten können. Eine Mogelpackung, auf die sehr viele Bürger hereinfallen.
Im ungemein informativen Buch der beiden Autoren ist auch zu lesen, dass es vor 1,5 Milliarden Jahren im afrikanischen Gabun ein zufälliges Zusammentreffen von Uranvorkommen und Wasser gab. Das Ergebnis waren „Natur-Kernreaktoren“, die rund 500.000 Jahre lang mit geringer Leistung liefen. Verdampfte das Wasser, kam der Prozess zum Stillstand, da der Moderator nun fehlte.
Sehr wichtig auch die im Buch gemachte Feststellung, dass Radioaktivität „nicht ansteckend“ ist. Dies bedeutet, dass ein bestrahlter Gegenstand oder Organismus nicht selbst radioaktiv wird. Auch dies wird von interessierter Seite immer wieder behauptet, im Buch jedoch klargestellt, dass dem nicht so ist. Aufhorchen lässt zudem der Buchabschnitt, in dem erläutert wird, dass die natürliche radioaktive Strahlung in vielen Regionen der Erde weit stärker ist, als die der „radioaktiv verseuchten“ Gebiete in Tschernobyl und Fukushima.
Die Autoren heben zudem hervor, dass es hochradioaktiven Abfall über Millionen von Jahren nicht gibt, da radioaktive Elemente eine Halbwertzeit besitzen, sich daher von selbst auflösen. Mit der Aufgabe der Kernkraft gibt Deutschland eine Schlüsseltechnik aus der Hand, die weiterhin hohen Wohlstand generieren würde. Zwar nennen Kernkraftgegner gerne einen Zeitraum von 100 Jahren, wonach der Vorrat an Uran erschöpft wäre, doch sind dies bewusst irreführende Zahlen, da moderne Kernkraftwerke in der Lage sind, den Brennstoff besser zu nutzen. Die Autoren gehen hier von einem Zeitraum von wenigstens 20.000 Jahren aus. Wird das Uran gar aus dem Meerwasser extrahiert, so könnte Brennstoff für hunderte Millionen Jahre gewonnen werden.
Wie fatal sich der Ausstieg aus der Kernenergie darstellt, zeigt auch das Potenzial, Kraftstoffe synthetisch herzustellen. Beispielsweise sollte der Thorium-Hochtemperatur-Reaktor ›THTR-300‹ bei hohen Temperaturen von rund 1.000 Grad Celsius arbeiten und auf diese Weise günstig synthetische Kraftstoffe produzieren.
Mit dem Flüssigsalzreaktor sowie dem Dual-Fluid-Reaktor stellen die beiden Autoren höchst interessante Kernkraftwerkskonzepte vor. Sie erläutern, dass ein flüssiger Brennstoff den großen Vorteil hat, dass dieser während des Betriebs des Reaktors aufbereitet werden kann. Dadurch kann man den Reaktor besser steuern, zudem Spaltprodukte vom Reaktorkern fernhalten. Eine Kernschmelze wird bei diesem Konzept selbst bei hoher Leistungsdichte ausgeschlossen.
Höchst bemerkenswert ist, dass der Dual-Fluid-Reaktor Erntefaktoren von bis zu 5.000 erreichen kann – das 50-fache heutiger Kernreaktoren. Ganz zu schweigen von den Erntefaktoren von Windrädern und Photovoltaikanlagen, die lediglich auf einen Wert von 3,9 beziehungsweise 1,6 kommen. Sogar heutiger „Atommüll“ kann mit diesem Reaktortyp problemlos genutzt werden, sodass die Argumente der Kernkraftgegner hinsichtlich der langen Lagerdauer von Atommüll ins Leere laufen.
Die Autoren gewähren im Buch auch einen Einblick in die Forschungsanstrengungen großer Industrienationen in Sachen Kernkraft. Insbesondere China hat hier nach dem Ausstieg Deutschlands aus dem Kraftwerkmodell THTR-300 einen wichtigen Trumpf erhalten, künftig das eigene Volk mit dringend benötigter Energie zu versorgen. Nicht nur Fertigungsmaschinen, auch die kompletten Baupläne wanderten 1988 an die Tsinghua Universität.
Das Buch ›Kernenergie‹ von Götz Ruprecht und Horst-Joachim Lüdecke ist ein wirklich leicht lesbares, extrem informatives Werk, das in die Hände vor allem der jungen Generation gehört, denn die jungen Menschen sind es, die schlussendlich die negativen Konsequenzen einer völlig aus dem Ruder gelaufenen Energiewende ausbaden müssen.
Der Beitrag erchien zuerst in „Die Welt der Fertigung“ hier