Ein kleines Programm zur Klärung einiger unlieb­samer Tatsachen

Unstreitig ist hoffentlich das die Frequenz eines Stromnetzes die wichtigste Größe zur Haltung eines sicheren Betriebes ist. Am Stromnetz werden Synchronuhren betrieben, welche die Netzzeit anzeigen. Diese Uhren sollen mit den Uhren der physikalisch technischen Bundesanstalt (Sender Mainflingen) möglichst gleichlaufend sein. Das ist nur der Fall, wenn die Netzfrequenz sauber nahe bei 50 Hz gehalten wird. In meiner Zeit gab es dafür in der Blockwarte zwei Uhren. Eine zeigte die Netzzeit des Bremer Netzes, die andere die Netzzeit des NWK-Netzes, das Bremen umgab und mit dem Bremer Netz gekoppelt war. Es konnte aber auch geschehen, dass die Kupplung für eine Zeit nicht geschlossen war. Dann liefen die Uhren zeitlich auseinander und man musste durch Änderung der Frequenz im Bremer Netz für Zeitgleichheit sorgen. War Zeitgleichheit erreicht, konnte man die Kupplung, nach Synchronisierung der beiden Netze, wieder einschalten. Mein Aufsatz beschreibt nun welche Probleme auftreten, wenn man ein Inselnetz betreibt, das nicht ans Verbundnetz gekoppelt ist, wie früher mein Wohnort, wenn die Netzkupplung offen war. Die Probleme sind nicht weg, wenn man an das Verbundnetz gekoppelt ist, man kann sie aber dann auf andere Schultern schieben.

Bild 1

Bild 1 zeigt das Fenster des Programms, in dem sich alle Bedienelemente befinden. Die genaue Beschreibung des Programms befindet sich im Anhang, als PDF-File, zu dieser Kurzform meines Beitrages.

Im Beispiel ist die WKA-Installation viel zu klein um die konventionellen Kraftwerke zu ersetzen. An ihrem Standort ist mit einem Erntegrad von 30% zu rechnen. Das bedeutet, dass der Wind die installierte Leistung von 100 MW nur zu 30% auslastet. Um die gleiche Arbeit erzeugen zu können wie das Kraftwerk müsste man also ca. drei mal soviel WKA-Leistung installieren. Dabei ist zu bedenken das Windkraft auch mal völlig bei Windstille fehlen kann. Ein Inselnetz ist dann stromlos oder man erlaubt sich weiterhin ein konventionelles Kraftwerk zur Überbrückung dieser Zeiten. Die Problematik der Windböen, die ja die Leistung eines Windfeldes gewaltig erhöhen kann und zum Blackout führen kann, ist damit auf ein höheres Niveau gehoben. Der Traum des Bürgermeisters von 100% EE-Versorgung ist nur mit einer Kopplung ans Verbundnetz zu erreichen. Dann übernehmen andere die Versorgung bei Flaute und nehmen die Überproduktion bei zu viel Wind auf. Dafür müssen sie natürlich ihre eigenen Kraftwerke zurückfahren und deren Wirtschaftlichkeit ruinieren. Die Probleme sind dann auf andere verschoben und der Bürgermeister kann sich im Glanz der 100% EE-Versorgung präsentieren. Ob seine Bürger das alles bezahlen wollen, glaube ich nicht.

Auf Speicheranlagen verzichte ich bewusst. Die funktionieren einwandfrei als Pumpspeicherwerke, sorgen aber nur für astronomische Kosten, die kein normal denkender Mensch bezahlen will. Man hat auch keine Standorte dafür und kein normal denkender Mensch möchte im Tal unter einem solchen Speichersee leben. Wasserkraft hat die meisten Menschenleben von allen Stromerzeugungstechniken gekostet. Wer von Batteriespeichern träumt, sollte bedenken, dass die heutigen Batterien der Stand der Technik nach 150 Jahren Entwicklung sind. Dass da nicht mehr viel kommt ist so sicher wie das Amen in der Kirche. Was da sonst noch angeboten wird, raubt mir den Glauben an den gesunden Menschenverstand. Es ist aber so, besonders in der Wissenschaft, dass der Glaube an das, was man nicht versteht, am größten ist, wenn die Lügen, die dazu führen, ausreichend groß sind.

Jetzt noch ein paar Sätze zur Speicherfähigkeit eines Netzes, die ja immer bei Störungen der Netzfrequenz beschworen wird. Es gibt sie nicht. Außer in grünen Köpfen. Die speichern ja schon Energie, wenn man Elektrozählerstände in einer Internet-Cloud speichert. So wird dann das Internet zum Energiespeicher. Es gibt aber einen Selbstheilungseffekt im Netz. Dieser Effekt wird nicht durch die rotierenden Massen im Kraftwerk ausgelöst, dazu sind die Massen viel zu gering. Auslöser sind die rotierenden Arbeitsmaschinen im Netz, deren Drehzahl von der Netzfrequenz bestimmt wird. Bei fallender Frequenz reduziert sich die Wellenleistung der Motoren je nach Typ der angetriebenen Arbeitsmaschine. Der Effekt beträgt im Netz ca. 1% der aktuellen Leistung pro Hz. Ganz anders funktioniert die Frequenzregelung bei drehzahlregelbaren Maschinen. Dort wird bei Abweichung der Frequenz vom Sollwert die Leistung der Antriebsmaschinen geändert. Die Statik beträgt 5%. Das bedeutet, dass die Nennleistung eines Kraftwerksblocks bei 5% Unterschreitung der Drehzahl unter den Drehzahlsollwert erreicht wird. Es ist eine Proportionalregelung und die führt nicht selbstständig auf die Sollfrequenz von 50 Hz zurück. Das muss die Netzleitwarte durch Anweisung an die Blockwarten bewirken. Die Reaktionszeit des Drehzahlreglers liegt im Millisekundenbereich. Moderne Anlagen haben einen elektronischen Turbinenregler. Bei dem kann man den Frequenzeinfluss abschalten und die Maschine ohne Beachtung der Frequenz leistungsgeregelt fahren. Dadurch entsteht ein neuer Markt, der Regelleistungsmarkt. Da wird der Strom höher bezahlt. Aber ich schweife ab.

Jetzt folgt für alle Interessierten, die sich das Programm heruntergeladen und installiert haben, mithilfe des Programms eine kleine Einführung in die Funktion eines Elektrizitätsnetzes. Eine Anleitung zur Installation befindet sich am Ende dieses Aufsatzes. Bitte öffnen Sie die PDF-Datei „Netzdemo.pdf“ am Ende dieses Beitrages.

Ich fasse die Ergebnisse der Tests zusammen:

In dem Inselnetz erfolgt der Blackout immer durch falsche oder risikoreiche Fahrweise der Anlagen. Das erhöhte Risiko eines Blackouts muss man in Kauf nehmen, um mit der EE-Erzeugung in eine einigermaßen wirtschaftliche Situation zu kommen, trotz massiver Subvention. Die Kosten tragen ja nicht die Betreiber, sondern die Verbraucher. Die technischen Gründe für den Blackout sind folgende:

  1. Zu geringes Abwurfvermögen des Kraftwerks. Es wird durch die Fahrweise der EE-Anlagen eine Situation hervorgerufen, in der durch eine Windböe Windleistung entsteht, die nicht vom Kraftwerk abgeworfen werden kann. Eine weitere Möglichkeit ist der Ausfall eines Teilnetzes oder eines Großverbrauchers durch Schäden an der Technik. Auch dieser Verlust muss vom Kraftwerk abgeworfen werden können. Der Grund ist immer zu hohe EE-Erzeugung, die nicht regelbar ist.

  2. Zu wenig laufende Leistungsreserve im Kraftwerk. Bei normalem Kraftwerksbetrieb kann immer der Leistungsverlust eines Blocks von den anderen Blöcken des Werkes aufgefangen werden. Das ist gegenüber der EE-Erzeugung nicht der Fall. Der Wunsch des Bürgermeisters, möglichst viel Strom mit EE-Anlagen zu erzeugen, führt dazu, dass die durch EE-Strom ersetzten Kraftwerksblöcke in den Abblasebetrieb gehen, was ordentlich Geld kostet. Also wird man einen Block nach dem anderen abfahren, bis der Abblasebetrieb beendet ist. Das reicht aber den EE-Hanseln noch nicht, denn sie merken, dass die Leistung des Kraftwerks auch von nur einem Block erbracht werden kann. Also nehmen sie alle Blöcke bis auf einen außer Betrieb. Den braucht man ja zur Vorgabe der Frequenz an die EE-Anlagen. Jetzt braucht nur eine Flaute eintreten, Windanlagen ausfallen, PV-Strom ausfallen, oder ein Großverbraucher wird zugeschaltet, schon ist der Blackout durch Unterfrequenz da.

Ich weise nur noch einmal darauf hin, dass der letzte einigermaßen sichere Betriebszustand erreicht war, als eine Last von 60 MW mit 7,5 MW Windleistung, der Rest vom konventionellen Kraftwerk gedeckt wurde. Dazu waren drei Windfelder mit 60 MW Nennleistung erforderlich. Der Bürgermeister sollte jetzt die Windböen gesetzlich verbieten lassen.

Die Situation für dieses Netz ändert sich sofort, wenn es ans Verbundnetz gekoppelt ist. Dann kann man alle erlebten Probleme auf andere abwälzen. Das ist ja deutsche Politik aus der Nähe betrachtet. Dass die Nachbarn am Verbundnetz das Gleiche machen, ist nicht auszuschließen. Dann hat man die A….-Karte gezogen.

Ich Danke allen die bis hierher durchgehalten haben.

Herzlichst Michael Treml, Bremen

PS.:

Hier ist die Anleitung zur Installation des Programms. Richten Sie einen Ordner dafür ein. Nennen Sie ihn z. B. „Netzdemo“. Laden Sie die folgenden Links in diesen Ordner. Den Anweisungen des Fileservers „Filehorst“ folgen. Immer „Datei speichern“ wählen.

https://filehorst.de/d/cdoEHnwH

https://filehorst.de/d/cqEywxjk

https://filehorst.de/d/cioynvmq

Es sind die Dateien: Netzdemo.Cab Setup.exe SETUP.LST

Die Dateien sind nach dem herunter laden im Ordner „Downloads“. Dateien in den Ordner „Netzdemo“ verschieben. Starten Sie die Datei „setup.exe“. Die Datei wird installiert. Starten Sie das Programm „Netzdemo.exe“.

Netzdemo




Der Kohlendioxid-Hoax!?

von Dipl-Soz. Michael Klein, Sciencefiles

Wann immer Kritik an dem zur Wahrheit erklärten Ergebnis, in Bausch und Bogen verdammt wird, Kritiker lächerlich gemacht werden, ihnen die „Verschwörungstheorie“ entgegen geschleudert wird, sie zum Outcast gemacht werden, der den angeblichen wissenschaftlichen Konsens ignoriert, dann sind Vorsicht und Skepsis gefordert.

Wann immer Politiker sich auf wissenschaftliche Ergebnisse stürzen, diese Ergebnisse in ihre Ideologie inkorporieren und sie ins Feld führen, um die Lauterkeit und die Gutheit der eigenen Ideologie und daraus folgenden Absichten zu belegen, sind nicht nur Vorsicht und Skepsis gefragt, was gefragt ist, mehr denn je, ist die Prüfung der angeblichen Wahrheit.

Die Begründungen für diese drei simplen Regeln sind einfach:

Wissenschaft findet keine Wahrheit. Das Beste, was es geben kann, sind gut bestätigte Theorien, auf denen man sich aber nicht wirklich ausruhen kann, wie man am Beispiel der Äthertheorie schnell sehen kann. Kaum ein Physiker des 18. Jahrhunderts hätte an der Äthertheorie gezweifelt. Licht war erstmals als elektromagnetische Welle beschrieben worden. Die Wellentheorie verlangte, dass Wellen sich durch ein Medium verbreiten, ergo musste sich auch Licht durch ein Medium verbreiten: den Äther. Und dann kamen Albert A. Michelson und Edward E. Morley und haben die Äthertheorie in Experimenten als falsch erwiesen.

Deshalb ist es wichtig, dass Wissenschaftler selbst dann, wenn Sie denken, eine gut bestätigte Theorie gefunden zu haben, versuchen, die Theorie zu widerlegen. Nur so funktioniert Erkenntnisfortschritt. Nur so kann man falsche Theorien ausmerzen. Deshalb ist es unglaublich und mit wissenschaftlicher Erkenntnissuche nicht vereinbar, wenn Wissenschaftler oder Forscher, die nachvollziehbare und begründete Zweifel an einer vom Mainstream als gut begründet angesehenen Theorie anmelden, ausgegrenzt werden, lächerlich gemacht werden, als Häretiker abgestempelt werden. Und es ist vor allem seltsam, denn: Wenn die so gut bestätigte Theorie tatsächlich so gut bestätigt ist, wie behauptet, dann sollte es ein Leichtes sein, Kritik als falsch auszuweisen, sie zu widerlegen. Warum sollte man einen Angriff auf die Person des Kritikers starten, einen ad-hominem-Fehlschluss begehen, wenn man sicher ist, im Besitz der besseren Theorie zu sein?

Schließlich ist es mit Wissenschaft überhaupt nicht zu vereinbaren, wenn ihre Ergebnisse nicht nur zur Wahrheit erklärt, sondern in politische Ideologien eingebaut und entsprechend missbraucht werden. Fast immer, wenn Politiker sich wissenschaftlicher Erkenntnisse bemächtigen, ist der Missbrauch gewiss. Erst wird die Theorie als Teil der eigenen Ideologie inkorporiert, dann wird sie zur Grundlage des gesellschaftlichen Heils erklärt, das die Politdarsteller gleich welcher Couleur zu bringen versprechen, dann werden Maßnahmen umgesetzt, Strukturen und Netzwerke der gegenseitigen Abhängigkeit geschaffen und am Ende ist eine Industrie vorhanden, deren Mitglieder ausschließlich auf Grundlage angeblicher wissenschaftlicher Ergebnisse stehen und dafür von Steuerzahlern fürstlich entgolten werden. Die Global Warming / Klimawandel-Industrie wurde bereits 2015 von der Washington Post als 1,5 Billionen US-Dollar: 1.500.000.000.000 US-Dollar-Industrie geschätzt.

Wenn sich derart immense wirtschaftliche Interessen mit einer angeblichen wissenschaftlichen Wahrheit verbinden und die angebliche wissenschaftliche Wahrheit, in deren Besitz man sich wähnt, zur Grundlage von inszenierten Kampagnen wie z.B. #FridaysForFuture oder dem Global Warming-Konferenz-Tourismus wird, wenn die angebliche wissenschaftliche Wahrheit genutzt wird, um Medien gleichzuschalten und eine öffentliche Mainstream-Meinung zu inszenieren, die jeden der zweifelt, zum Irren oder zum Verschwörungstheoretiker oder zu beidem erklärt, dann müssten bei Wissenschaftlern eigentlich alle Alarmglocken läuten, vielleicht tun sie das auch, aber das führt bei den meisten nicht dazu, dass sie das, was zwischenzeitlich Wahrheit geworden sein soll, obwohl es nur ein sehr wackeliges Ergebnis ist, das auf einer Vielzahl von Annahmen und Ausblendungen basiert, nicht in Frage stellen, hat mehrere Gründe:

Erstens sind Wissenschaftler sehr zurückhaltend, wenn Forschungsergebnisse die Gefahr mit sich bringen, ihre früheren Forschungsergebnisse in Frage zu stellen. Die meisten wollen sich nicht selbst korrigieren.

Zweitens sind Wissenschaftler, die in einem Bereich arbeiten, der zur Mainstream-Wahrheit erklärt und zum Bestandteil politischer Ideologie geworden ist, in der Regel so tief in Netzwerke verstrickt, profitieren so sehr von ihrer regelmäßigen Bestätigung der angeblichen Wahrheit, dass auch ökonomische Gründe der wissenschaftlichen Lauterkeit entgegen stehen.

Drittens sind Wissenschaftler zumeist in öffentlichen Institutionen angestellt, die von genau den Politdarstellern abhängig sind, die in z.B. der Wahrheit des Global Warming schwelgen. Kritik bringt sie nicht nur in Gegensatz zu diesen, sie schafft auch die Möglichkeit für den opportunistischen Rest der wissenschaftlichen Konkurrenz, sich im Kampf um Professuren oder öffentliche Fördergelder einen Vorteil durch Anbiederung zu verschaffen.

Das alles sind Strukturen, die der Wissenschaft schaden.

Nicht nur aus diesem Grund haben wir uns entschlossen immer einmal wieder Wissenschaftler zu Wort kommen zu lassen, die eine andere Sicht auf das haben, was zur Wahrheit erklärt wurde. Schließlich ist auch das geozentrische Weltbild lange Zeit als Wahrheit verkauft, seine Kritiker zuweilen verbrannt worden. Und wo wären wir heute, ohne mutige Männer wie Galileo Galilei.

Im Folgenden präsentieren wir ein Video von Ben Davidson, den man als Erich von Däneken der Klimaforschung bezeichnen könnte. Und so wie von Däniken mit seinen Ideen die Vertreter der Archäologie wieder und wieder in Erklärungsnot bringt, so bringt Davidson diejenigen, die die Theorie des Global Warming als Wahrheit ausgeben und CO2 zum Todbringer des Planeten erklärt haben, in Erklärungsnot. Das folgende Video ist leider in englischer Sprache. Vielleicht finden wir in absehbarer Zeit eine Möglichkeit, es zu übersetzen.

Bis dahin wollen wir denjenigen, die der englischen Sprache nicht mächtig sind, zumindest das Folgende mit auf den Weg geben.

Links sehen Sie die von der Sonne ausgehenden Einflüsse auf das Erdklima, die in den herkömmlichen Klimamodellen berücksichtigt werden.

Rechts sehen Sie die entsprechenden Einflüsse, von denen ein belegter Effekt auf das Klima der Erde ausgeht.

Quelle: https://www.youtube.com/watch?v=NYoOcaqCzxo (Standbild)

Der Unterschied ist frappierend und erklärungsbedürftig. Vor allem ist erklärungsbedürftig, warum Effekte, die von der Sonne ausgehen, von Sonnenstürmen oder vom Sonnenwind, in herkömmlichen Klimamodellen zu menschengemachten Effekten werden, die Global Warming hervorbringen.

Wenn man das Video von Davidson gesehen hat, dann kann man den Eindruck gewinnen, Global Warming und die derzeitige Hatz auf CO2 sei ein großer inszenierter Hoax. Aber sicher werden Mainstream-Wissenschaftler erklären, warum die ARGUMENTE, die Davidson vorbringt, FALSCH sind, sofern sie Wissenschaftler sind, die sich der wissenschaftlichen Methode bedienen, die es vorsieht, Kritik zu prüfen und ihr argumentativ zu begegnen, was diejenigen, die Kritik wie die von Davidson in Bausch und Bogen als Verschwörungstheorie oder was auch immer abtun wollen, erstens als Nicht-Wissenschaftler ausweist und zweitens als armselige Gläubige, die ihren Glauben nicht einmal gegen einfach Argumente wie die, die Davidson vorbringt, verteidigen können.

Wohlgemerkt, wir sprechen hier von Wissenschaftlern, nicht von Aktivisten oder Politikdarstellern, die in der Regel eine Kompression nicht von einer Regression unterscheiden können und bar jeder Idee sind, was in einem Klimamodell eigentlich passiert, was wie berechnet wird.

Und nun viel Spaß mit Ben Davidson (und wir sind schon gespannt auf die Erklärungen dafür, warum das alles falsch ist/sein soll).

Mit freundlicher Genehmigung von Sciencefiles.




Kritik an einer neuen Studie von Santer et al. (2019)

Abbildung 1: aus Santer et al. (2019)

Die Ergebnisse ihrer Studie zeigt Abbildung 1. Es ist keine Graphik der Temperatur, sondern eines geschätzten Verhältnisses zwischen „Signal und Rauschen“. Die horizontale Linie repräsentiert Sigma-Einheiten, die man – falls das zugrunde liegende statistische Modell korrekt ist – interpretieren kann als die Punkte, an welchen der Schweif der Verteilung sehr klein wird. Wenn also die Linie ein Sigma-Niveau passiert, ist das „Signal“ anthropogener Erwärmung aus dem „Rauschen“ der natürlichen Variabilität im passenden Umfang hervorgetreten. Sie berichten, dass die 3-Sigma-Grenze einen p-Wert von 1/741 aufweist, während die 5-Sigma-Grenze einen p-Wert von 1/3,5 Millionen hat. Da alle Linien die 5-Sigma-Marke bis 2015 überqueren, folgern sie, dass die anthropogene Auswirkung auf das Klima definitiv gefunden ist.

Ich möchte hier vier Aspekte dieser Studie ansprechen, welche die Schlussfolgerungen erheblich schwächen: (a) die Differenz zwischen der Existenz eines Signals und der Größenordnung der Auswirkung, (b) die verwirrende Natur ihres experimentellen Designs, (c) das invalide Design ihres Nur-Natur-Vergleichsparameters und (d) Probleme bei der Relation von „Sigma“-Grenzen und Wahrscheinlichkeiten.

(a) Existenz eines Signals vs. Größenordnung der Auswirkung

Nehmen wir einmal an, wir stellen einen alten Analog-Radioempfänger auf ein schwaches Signal einer weit entfernten Radiostation ein. Mittels Verschieben des Senderknopfes bekommt man vielleicht ein Signal, das gut genug ist um zu erkennen, dass eine Komposition von Bach gespielt wird. Aber die Stärke des Signals sagt nichts über das Tempo der Musik; das ist eine andere Berechnung.

In gleicher Weise sagt uns obiges Diagramm nichts über die Größenordnung der Auswirkung von Treibhausgasen auf die Temperatur und das Klima. Es zeigt nur zweierlei: Eine Maßzahl der Rate, wie sich die Korrelation zwischen Beobachtungen und Modellergebnissen, getrieben durch natürliche und anthropogene Antriebe mit der Zeit, verbessert, dividiert durch eine Maßzahl der Standardabweichung der gleichen Maßzahl unter einer „Null-Hypothese“ einer (vermeintlich) rein natürlichen Variabilität. In dieser Hinsicht ist es wie eine t-Statistik [?], die ebenfalls in Sigma-Einheiten gemessen wird. Da es keine Verbesserung mit der Zeit geben kann im Fit zwischen den Beobachtungen und dem natural-only comparator*, führt jede Verbesserung des Signals zu einer Erhöhung des Sigma-Niveaus.

[*Eine passende Übersetzung ist schwer. Weiter unten ist der Terminus übersetzt worden mit „nur-natürlich-Komparator“. Bessere Vorschläge seitens der Leserschaft sind willkommen. Anm. d. Übers.]

Selbst falls man Abbildung 1 als Nominalbeitrag akzeptiert, ist sie konsistent mit einer sehr hohen oder sehr geringen Sensitivität bzgl. Treibhausgasen – oder irgendwo dazwischen. Sie ist beispielsweise konsistent mit den Ergebnissen von Christy and McNider, welche ebenfalls auf Satellitendaten basieren, dass nämlich die Sensitivität bei Verdoppelung der Treibhausgase viel geringer ist als typischerweise von den Modellen simuliert.

(b) Verwirrtes Signal-Design

Der Begleitinformation zufolge zogen Santer et al. jährlich gemittelte Klimamodell-Daten auf der Grundlage historischer Antriebe und auf dem (RCP8.5)-Szenario basierende natürliche und anthropogene Antriebe heran und konstruierten daraus eine Temperatur-Zeitreihe der mittleren Troposphäre. Diese enthielt auch eine Adjustierung für stratosphärische Abkühlung (d. h. eine „Korrektur“). Sie mittelten alle Modelle und Modellläufe, vernetzten die Daten in 10 Grad X 10 Grad-Gitterboxen (insgesamt 576, wobei die Polargebiete außen vor blieben) und extrahierten daraus 40 jährliche Temperatur-Anomalien für jede Gitterbox im Zeitraum 1979 bis 2018. Aus diesen extrahierten sie einen räumlichen „Fingerabdruck“ des vom Modell erzeugten Klima-Musters unter Anwendung einer wesentlichen Komponenten-Analyse aka empirischer Orthogonal-Funktionen. Man kann es sich vorstellen als ein gewichtetes zeitliches Mittel der Anomaliewerte für jede Gitterbox. Obwohl es in der Studie oder in der Begleitinformation nicht gezeigt wird, sieht das Muster so aus (die Graphik stammt aus einer separaten Studie):

Abbildung 2: Räumliches Muster eines Fingerabdrucks

Die grauen Bereiche in Abbildung 2 über den Polen repräsentieren außen vor gelassene Gitterboxen, da nicht alle Satelliten-Reihen auch die Pole abdecken. Die Farben markieren PC „loadings“ [?] und nicht Temperaturen, aber da das erste PC etwa 98% der Varianz erklärt, kann man sie als mittlere Temperaturanomalien betrachten, ohne zu weit abzuschweifen. Folglich ist das Fingerabdruck-Muster ein solches von verstärkter Erwärmung in den Tropen mit lokalen Abweichungen hier und dort.

Dies ist das Muster, mit dem sie die Beobachtungen korrelieren wollen als ein Verfahren, um den anthropogenen „Fingerabdruck“ aufzuspüren. Aber in den Modellen ist es verbunden mit sowohl natürlichen als auch anthropogenen Antrieben zusammen im Zeitraum 1979 bis 2018. Sie bezeichnen dies als HIST+8.5-Daten, was heißt, dass die Modellläufe bis 2006 mit historischen Antrieben (sowohl natürlich als auch anthropogen) liefen und danach nur noch mit Antrieben gemäß dem RCP8.5-Szenario. Die Schlussfolgerung der Studie lautet, dass die Beobachtungen jetzt den in obiger Abbildung dargestellten Verhältnissen ähneln als eine Null-Hypothese („Nur natürliche Antriebe“) – ergo: anthropogener Fingerabdruck entdeckt. Aber HIST8.5 ist ein kombinierter Fingerabdruck, und tatsächlich haben sie den anthropogenen Anteil nicht herausgefiltert.

Sie haben also keineswegs einen eindeutigen anthropogenen Fingerabdruck identifiziert. Was sie entdeckt haben ist, dass Beobachtungen besser zu Modellen passen, wenn sie ein Erwärmungsmuster wie in Abbildung 2 enthalten, unabhängig von den Gründen, als jene, die das nicht enthalten. Es kann sein, dass ein Graph, welcher das ausschließlich anthropogene Signal darstellt, so aussehen würde wie in Abbildung 1, aber aus ihrer Analyse geht das in keiner Weise hervor.

(c) Invalider nur-natürlicher Komparator

Obiges Argument würde eine geringere Rolle spielen, falls der „nur-natürliche“ Komparator als Treiber der Erwärmung durch natürliche Antriebe fungieren würde. Aber das ist konstruktionsbedingt nicht der Fall.

Das Fingerabdruck-Verfahren beginnt damit, die beobachtete räumliche Verteilung von Temperaturanomalien heranzuziehen und diese mit dem Muster in Abbildung 2 oben zu korrelieren, wobei sich ein Korrelations-Koeffizient für jedes Jahr ergibt. Dann betrachten sie den Trend jener Korrelations-Koeffizienten als Maßzahl dafür, wie gut der Fit mit der Zeit wird. Die Korrelationen selbst werden weder in der Studie noch in den Begleitinformationen angesprochen.

Danach konstruieren die Autoren ein „Rauschen“-Muster, welches als „nur-natürlich“ dienen soll, entgegen den Fakten in obigem Diagramm. Sie beginnen mit der Auswahl von 200-Jahre-Kontrollläufen von 36 Modellen und teilen sie in das gleiche 10 X 10-Format ein. Vielleicht werden sie über alles mitteln, aber erst wird jede Gitterbox in jedem Modell trendbereinigt, was ich als fehlerhaften Schritt betrachte.

Alles hängt davon ab, wie valide der Komparator der natürlichen Variabilität ist. Man gibt uns keine Erklärung, warum die Autoren glauben, dass es eine glaubwürdige Analogie ist zu natürlichen Temperatur-Mustern, die assoziiert sind mit nicht-anthropogenen Antrieben nach 1979. Das ist fast mit Sicherheit nicht der Fall. Die Summe der Vulkan- und Solar-Reihe nach 1979 im AR 5 des IPCC sieht so aus:

Abbildung 3: Natürliche Antriebe laut IPCC von 1979 bis 2017

Dies impliziert eindeutig, dass natürliche Antriebe eine insgesamte Erwärmung induziert hätten über das Stichproben-Intervall, und da die tropische Verstärkung unabhängig von der Art des Antriebs erfolgt, würde eine räumliche „nur-natürlich“-Verteilung wahrscheinlich so aussehen wie Abbildung 2. Aber mit der Trendbereinigung jeder Gitterbox haben Santer et al. derartige Muster eliminiert und den geschätzten natürlichen Komparator nach 1979 künstlich verschlechtert.

Die Schlussfolgerungen der Autoren hängen entscheidend von der Hypothese ab, dass ihre Schätzung aufgrund der „natürlichen“ Modell-Variabilität plausibel repräsentiert, wie es von 1979 bis 2018 ohne Treibhausgase ausgesehen hätte. Die Autoren betonen die Bedeutung dieser Hypothese in ihren Begleitinformationen (Seite 10):

Unsere Hypothese hinsichtlich der Angemessenheit unserer Schätzungen bzgl. der Modell-Variabilität ist entscheidend. Beobachtete Temperaturaufzeichnungen sind simultan beeinflusst sowohl von interner Variabilität als auch von multiplen externen Antrieben. Wir verfolgen nicht die „reine“ interne Variabilität, so dass es immer etwas nicht reduzierbare Unsicherheit bei der Unterteilung der beobachteten Temperaturaufzeichnungen in intern und extern getriebene Komponenten geben wird. Alle Vergleiche der beobachteten Variabilität mit derjenigen in den Modellen sind beeinflusst durch diese Unsicherheit, vor allem in weniger gut aufgezeichneten Zeitmaßstäben vieler Jahrzehnte“.

Wie sie sagen, jede Studie zur Erkennung von Fingerabdruck und Signalen ist abhängig von der Qualität des „nur-natürlich“-Komparators. Unglücklicherweise haben sie durch die Trendbereinigung ihrer Kontrollläufe Gitterbox für Gitterbox so ziemlich sichergestellt, dass das Muster der natürlichen Variabilität als ein Komparator künstlich degradiert wird.

Das ist so, als ob man von einem Bankräuber wüsste, dass er ein 1,80 Meter großer Mann ist und die Polizei ihre bevorzugten Verdächtigen in eine Linie mit kleinen Frauen stellen würde. Man könnte eine vertrauenswürdige Zeugen-Identifikation bekommen, aber man wüsste nicht, ob diese valide ist.

Was alles noch viel schlimmer macht, die Treibhausgas-beeinflusste Erwärmung stammt aus Modellen, welche so frisiert worden sind, dass sie zu grundlegenden Aspekten der beobachteten Erwärmungstrends des 20. Jahrhunderts passen. Während dies in der mittleren Troposphäre weniger eine Rolle spielen würde als an der Oberfläche, gäbe es dennoch die teilweise Verstärkung der Gleichheit zwischen Modellsimulationen und Beobachtung infolge nachträglicher Manipulation.

[Anmerkung des Übersetzers: Es folgen noch mehrere detaillierte Darstellungen und Vergleiche zwischen den Parametern, die nur für Fachleute klar durchschaubar sind. Dazu beschreibt der Autor die Entwicklung eines eigenen Modells. Alles läuft darauf hinaus, dass Santers Studie wieder einmal viel verschleiert und nichts enthüllt. Dies geht auch aus der Bewertung des Autors am Ende des Beitrags hervor:]

Schlussfolgerungen

Die Tatsache, dass die t-Statistik von anthro in meinem Beispiel auf ein tiefes Niveau fällt, „beweist“ nicht, dass anthropogene Antriebe keine Auswirkungen auf die Temperatur haben. Sie zeigt aber, dass im Rahmen meines Modells die Auswirkungen nicht signifikant sind. …

Und das liegt in der Natur der Sache statistischer Modellierungen: sie beruhen auf Spezifikationen und Hypothesen. …

Weil ich also genug Gründe habe, die Validität des Modells von Santer et al. zu bezweifeln, akzeptiere ich auch nicht ihre Schlussfolgerungen. Sie haben nicht das gezeigt, was sie sagen gezeigt zu haben. Im Einzelnen haben sie keinen eindeutigen anthropogenen Fingerabdruck identifiziert oder eine glaubwürdige Berücksichtigung der natürlichen Variabilität vorgelegt. Auch haben sie nicht den Gebrauch von Gauss’schen p-Werten gerechtfertigt. Ihre Behauptung, einen „goldenen Standard“ von Beweisen erhalten zu haben, ist unberechtigt, teils schon deswegen, weil statistische Modellierung das niemals ergeben kann, und teils wegen der spezifischen Probleme in ihrem Modell.

Link: https://judithcurry.com/2019/03/01/critique-of-the-new-santer-et-al-2019-paper/

Übersetzt von Chris Frey EIKE




Klimawandel-Modelle sind Ramsch

Modelle, die etwas vorhersagen sollen, basieren auf einer Vielzahl von Annahmen über Zusammenhänge. Diese Annahmen können entweder auf Basis von vergangenen Beobachtungen aufgestellt werden. Oder sie können das Ergebnis dessen sein, was Wissenschaftler gemeinhin „Tuning“ nennen, das Anpassen eines eigenen Modells, so dass das berechnete Ergebnis aktuellen Daten entspricht. Mit diesem Tuning verbindet sich dann die Hoffnung, wir würden sagen: der induktive Fehlschluss, dass auf der Grundlage des so formulierten Modells auch die Zukunft berechnet werden kann.

Damit sind wir bei den Modellen angekommen, die die Zukunft der Erde berechnen wollen, die angeblich in der Lage sind, die Erwärmung der Erde auf das zehntel Grad Celsius genau zu berechnen und den höheren Wasserstand der Meere auf zwei Stellen hinter dem Komma genau.

Das alles ist natürlich Humbug, eine große Verdummungsaktion, und zwar aus den Gründen, die wir nunmehr zusammenstellen. Wir stützen uns dabei u.a. auf die folgenden Arbeiten:

  • Frank, Patrick (2015). Negligence, Non-Science, and Consensus Climatology. Energy & Environment 22(4): 407-424.
  • Frank, Patrick (2011). A Climate of Belief.
  • Michael Limburg (2014) Neuer systematischer Fehler bei Anomalien der globalen Zeitreihe der Mitteltemperatur
  • Henderson, David R & Hooper, Charles L. (2017). Flawed Climate Models. Defining Ideas.
  • Michaels, Patrick J., Lindzen, Richard & Knappenberger, Paul C. (2015). Is there no „Hiatus“ in Global Warming After All? 
  • Semenov, Vitaly & Bengtsson, Lennart (2002). Secular Trends in Daily Precipitation Characteristics: Greenhouse Gas Simulation with a Coupled AOGCM. Climate Dynamics 19(2): 123-140.
  • Soon, Willie, Baliunas, Sallie, Idso, Sherwood B., Kondratyev, Kirill Ya & Posmentier, Eric S. (2001). Modeling Climate Effect of Anthropogenic Carbon Dioxide Emissions. Unknowns and Uncertainties. Climate Research 18(2): 259-275.
  • Voosen, Paul (2016). Climate Scientists Open-up Their Black Boxes to Scrutiny. Science 354(6311): 401-402.

Stellen wir ein Beispiel voran (mit Dank an David R. Henderson und Charles L. Hooper)

Stellen Sie sich vor, Sie seien Trainer eines 400-Meter-Läufers. Zu Beginn des Trainings läuft ihr Schützling die 400 Meter in 56 Sekunden. Am Ende einer Trainings-Session von 30 Wochen ist ihr Schützling schneller, nunmehr stoppen Sie die beste Zeit mit 53 Sekunden. Die Stoppuhr, die Sie nutzen, hat einen Fehlerbereich von ±0,1 Sekunden. Ihr eigener Fehler aufgrund ihrer Reaktionszeit beträgt ±0,2 Sekunden. Der Fehler ist somit geringer als die Zeitverbesserung von 3 Sekunden. Daraus kann man schließen, dass sich ihr Schützling tatsächlich verbessert hat. Nunmehr wollen Sie die Verbesserung zur Grundlage einer Prognose machen und darüber hinaus die tägliche Verbesserungsrate berechnen. In sechs Monaten hat sich Ihr Schützling um 3 Sekunden verbessert, was einer wöchentliche Verbesserung von 0,1 Sekunden entspricht (3 Sekunden in 30 Wochen). Damit wird die wöchentliche Verbesserung unmessbar, denn sie wird durch den Fehlerbereich der Stoppuhr (±0,1 Sekunden) und ihre Reaktionszeit (±0,2 Sekunden) vollständig aufgezehrt.

Was hat das mit Klimawandelmodellen zu tun? Nun, die Meister der Klimamodelle wollen uns, um im Bild zu bleiben, nicht nur erzählen, sie wären in der Lage, die wöchentliche Verbesserung zu messen, sie wollen uns erzählen, sie seien in der Lage eine tägliche Verbesserung von 0,00005 Sekunden zu messen, obwohl bereits der Fehler durch die Reaktionszeit ±0,2 Sekunden beträgt.

Klimawandel-Modelle sind eben Junk. Die ausführliche Begründung folgt nun:

Messfehler

Patrick Frank und Michael Limburg haben in ihren Beiträgen aus dem Jahre 2011 bzw. 2014 gezeigt, dass die Temperaturangaben, die Grundlage der Klimamodelle sind, fehlerhaft sind, da sie keinerlei Messfehler berücksichtigen. Frank hat dieses Versäumnis für einige Fehlerarten nachgeholt und für die Zeit von 1856 bis 2004 errechnet, dass allein diese Messfehler bereits mit einer Irrtumswahrscheinlichkeit von weniger als 5% innerhalb von 0,8 Grad Celsius ± 0,98 Grad Celsius liegt [Wissenschaftler, richtige Wissenschaftler geben die Qualität ihrer Modelle als Vertrauensbereich an]: Für die Zeit von 1856 bis 2004 wurde ein Anstieg der Temperatur der Erdatmosphäre von 0,8 Grad Celsius berechnet. Damit liegt der berechnete Anstieg innerhalb des Messfehlers. Ein Wissenschaftler muss daraus schließen, dass wir keine Grundlage haben, um überhaupt einen Anstieg der Erdtemperatur zwischen 1856 bis 2004 anzunehmen.

Dieser angenommene Anstieg der Temperatur in der Erdatmosphäre und der gleichzeitig erfolgende Anstieg der Konzentration von CO2 in der Atmosphäre um 40% hat dazu geführt, dass zwischen beiden eine Zusammenhangshypothese formuliert wurde. Bereits der oben dargestellte Messfehler, der schlicht nicht zu vermeiden ist, falsifiziert diese Hypothese, aber damit nicht genug, dann gibt es noch die Sonne.

 

Sonnenenergie

Pro Tag füttert die Sonne die Atmosphäre der Erde mit im Durchschnitt 342 Watt pro Quadratmeter an Energie. Patrick Frank hat den Energiebeitrag der Menschen durch die Freisetzung von CO2 mit 0,036 Watt pro Quadratmeter berechnet, das sind knapp 0,01% der durchschnittlichen Sonnenenergie. Wenn die Schätzung der Energie, die die Sonne täglich auf die Erde überträgt, auch nur um 0,01% falsch wäre, also 342,04 anstelle von 342 Wm-2 oder 341,96 Wm-2 auf der Erde aufkommen würden, dann wäre damit der gesamte anthropogene Klimaeinfluss vom Tisch gewischt. Klimawandel-Propheten wollen uns erzählen, ihre Modelle seien in der Lage, die Energie der Sonne auf einen Fehler von weniger als 0,01% genau zu berechnen. Dass dem so ist, ist unwahrscheinlicher als ein Lottogewinn für Sie am nächsten Samstag.

 

Wolkige Modelle

Für die Frage, wie viel Sonnenenergie auf die Erde auftrifft, sind Wolken von besonderer Bedeutung. Wolken blocken die Energie, die auf die Erde trifft und sie verhindern, dass Energie von der Erde ins Weltall entkommt. Die Frage, wie sich Wolken auf das Klima auswirken, eine grundlegende, wenn nicht die grundlegende Frage, die ein Klimamodell beantworten muss, ist indes vollkommen ungeklärt, was selbst das IPCC zugibt, ohne daraus jedoch eine Konsequenz zu ziehen.

Viele Wolken sorgen für eine kühlere Atmosphäre, wenige Wolken haben den gegenteiligen Effekt. Weil sich Wolken in unterschiedlichen Höhen bilden und in Schichten vorkommen, ist es sehr schwierig ihren Effekt auf das Klima zu berechnen, so schwierig, dass der mit der Berechnung einhergehende Fehler allgemein auf ±4,0 Wm-2 geschätzt wird. Das bedeutet, da der anthropogene Beitrag zur Gesamtenergie 0,036 Wm-2 beträgt, dass dann, wenn die Klimapropheten in ihren Modellen auch nur um einen Fehlerfaktor von 0,9% daneben lägen, 0,9% von ±4,0 Wm-2 sind 0,036 Wm-2, der gesamte anthropogene Effekt vom Tisch wäre. Klimamodell-Sophisten behaupten, sie wären in der Lage, so akkurate Modelle zu berechnen, dass sie nicht einmal einen Fehler von 0.9% begehen würden.

Kombiniert man alle Fehlerquellen, die sich mit Klimamodellen verbinden, dann ergibt sich eine Fehlerschätzung von 150 Wm-2, das ist das 4000fache des Energiebeitrags von anthropogenem C02. Übertragen auf das Eingangsbeispiel des 400-Meter-Läufers entspricht die Behauptung, man sei in der Lage, akkurate Vorhersagen der Entwicklung des Klimas zu machen, der Behauptung, man sei in der Lage, bei einem Messfehler von ±0,2 Sekunden die Leistungsentwicklung eines 400-Meter-Läufers auf 0,00005 Sekunden genau zu berechnen.

Das ist lächerlich, aber nicht lächerlich genug, als dass es Politiker glauben würden.

Damit nicht genug.

Willie Soon, Sallie Baliunas, Sherwood B. Idso, Kirill Ya Kondratyev und Eric S. Posmentier (2001) haben gezeigt, dass die Erwärmung, die für die Zeit von 1856 bis 2004 gemessen worden sein soll, hauptsächlich in einer Phase niedriger CO2-Konzentration in der Atmosphäre stattgefunden hat. Die höchste Erwärmung erfolgte, als die CO2-Konzentration ein Viertel der heutigen Konzentration betragen hat. Die oben formulierte Zusammenhangshypothese von Erderwärmung und CO2-Konzentration ist damit nicht vereinbar.

Patrick Frank (2015) hat am Beispiel von British Columbia gezeigt, dass dort in den ersten 20 Jahren des 20. Jahrhunderts eine Erwärmung um ein Grad Celsius stattgefunden hat. Im Verlauf der nächsten 40 Jahre hat sich die durchschnittliche Temperatur in British Columbia jedoch um 2 Grad Celsius reduziert, so dass British Columbia wieder beim Ausgangspunkt angekommen ist. Kein Klimawandel-Model ist auch nur ansatzweise in der Lage, diese Entwicklung zu replizieren.

Vitaly Semenov und Lennart Bengtsson (2002) haben untersucht, wie akkurat Klimamodelle Niederschlagsmengen vorhersagen können und sind zu dem Ergebnis gekommen, dass sie es überhaupt nicht können, offenkundig, weil Klimamodelle nicht in der Lage sind, den Effekt, den Wolken auf das Klima haben, richtig zu bestimmen.

Der Coup de Grace kommt mit der Frage, wie gut Klimamodelle bislang in der Lage waren, die Entwicklung des Klimas vorherzusagen. Die Antwort: miserabel. Fast alle Modelle haben mehr Erwärmung vorhergesagt als tatsächlich eingetreten ist. Für die Vorhersagen, die die Zeit von 1998 bis 2014 zum Gegenstand hatten, haben Patrick Michaels, Richard Lindzen und Paul Knappenberger (2015) gezeigt, dass die prognostizierte Erwärmung um das 2,2fache über der tatsächlichen Erwärmung lag. Dies wäre kein Problem für Klimamodelle, wenn die Modelle sich zufällig in ihren Vorhersagen verteilen würden. Das ist aber nicht der Fall. Vielmehr gibt es eine Systematik, denn 97,6% der Klimamodelle haben die Erwärmung überschätzt, lediglich 2,4% haben sie unterschätzt.

Die Modelle sind Müll (Junk) und in keinem Fall geeignet, um einen Einfluss von CO2 auf das Klima der Erde auch nur entfernt zu belegen.

Dass es dennoch eine breite Bewegung von Gläubigen gibt, dass man die Klimareligion als die erfolgreichste Sekte in moderner Zeit ansehen muss, ist somit erklärungsbedürftig und da die Erklärung nicht auf Rationalität, auf aktuelle Kenntnisse oder Wissen der Sektenmitglieder zurückgreifen kann, bleiben nur psychologische, vielleicht auch psychotherapeutische Ansätze, um diese Massenhysterie zu erklären.
[Oder (evolutions-)psychologische – Anmerkung d.Red., ARG]

Mit freundlicher Genehmingung von Sciencefiles.org .


Die Soziologen Michael Klein und Heike Diefenbach von Sciencefiles haben noch eine solide quantitative Statistik-Ausbildung von der Pike auf, mit Matrizenrechnung, linerarer Programmierung…  Insofern ist es für altgediente messende Soziologen kein Problem, die primitiven Klima-Modelle, die zumeist auf recht einfachen Gleichungen basieren, zu bewerten.
Qualitative Soziologen, die häufig nur eine oberflächliche Statistik-Ausbildung haben, können das nicht mehr. Die sehen wir dann freitags beim Demonstrieren….




Gegenwind – Trumps „Red Team“ bzgl. Klima formiert sich

Die Initiative des National Security Coucil [etwa: Nationaler Sicherheitsrat] NSC soll Wissenschaftler zusammenrufen und beauftragen, die Ernsthaftigkeit der Klimawissenschaft zu hinterfragen, ebenso wie das Ausmaß, in dem Menschen für Klimaprobleme verantwortlich sind. Das sagten drei namentlich nicht genannte Regierungsbeamte der Post. Weiter berichtete die Zeitung, dass der Plan von Regierungsbeamten im Lageraum des Weißen Hauses diskutiert worden ist. Es soll eine modifizierte Version des leitenden NSC-Direktors und Klimawandel-Leugners [?] William Happer sein. Damit soll ein Gremium bzgl. Klimawandel und nationale Sicherheit ins Leben gerufen werden.

Der NSC lehnte es ab, den Beitrag in der Post zu kommentieren.

Auf der Sitzung hat der stellvertretende Sicherheitsberater Charles Kupperman gesagt, dass Präsident Trump empört sei, dass die [US-]Bundesregierung im vorigen Jahr den National Climate Assessment [den nationalen Klimazustands-Bericht] veröffentlicht hatte. Darin wurde davor gewarnt, dass der Klimawandel verheerende Auswirkungen auf die Wirtschaft, auf Gesundheit und Umwelt haben könnte und dass die gegenwärtigen Bemühungen, dem Klimawandel zu begegnen, unzureichend seien.

———————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/02/25/pushback-trumps-climate-red-team-forms/

Übersetzt von Chris Frey EIKE