„Wenn der Klima­wandel nicht gestoppt wird, liegen irgend­wann alle Menschen tot auf dem Boden … „

Eine Demonstration der Unfähigkeit unserer „Eliten“

Immer mehr zeigt die von dem Kind aus Schweden – beziehungsweise ihren aktivistischen Einflüsterern – medial wirkungsvoll in Szene gesetzte Klimawandel-Demonstration, dass es jederzeit möglich ist, auch bei uns eine Massenbewegung zu initiieren, deren Basis aus Emotion, Wissen aus „Hörensagen“ und Abstinenz jeglichen Ansatzes von rationalem Denken besteht.

Wer erwartet hätte, dass wenigstens irgendwann eine Opposition entstehen würde, welche die Fragwürdigkeit deren Thesen erkennt und publiziert, wird inzwischen vollkommen enttäuscht. Im Gegenteil: Die Zustimmung wird anscheinend immer größer.

Als Folge lässt sich wieder ein soziologisches Lehrbeispiel erleben, wie es in einem angeblich rationalen, „wissensdurchtränktem“ Land jederzeit möglich ist, Massen mit rein plakativen Thesen zu beeinflussen, wenn der richtige Zeitpunkt getroffen wird – und dass Geschichte zwar gelernt, aber eben nicht durchdacht wird.

Wer sind „die Nackten“

Der Schriftsteller Christian Andersen hat im Jahr 1837 mit seinem „Lehrstück“, der Geschichte: „Des Kaisers neue Kleider“, unbewusst ein Grundlagenwerk der Massenpsychologie geschaffen.
Allerdings ist – wie praktisch immer beim Thema Klimawandel -, die Interpretation gegensätzlich.

Die Süddeutsche Zeitung – nach Bekenntnis eines ihrer ehemaligen Leitredakteure [10] bewusst als Propagandainstrument eingesetzt -, verortet „die Nackten“ bei der Politik.
Eine Barbara Vorsamer (Journalistin, M.A. Politikwissenschaft, Publizistik, Themenschwerpunkte: Familie, Feminismus, soziale Gerechtigkeit und Nachhaltigkeit), verortet bei der Aktion der Schüler die „Nackten“ bei der Politik:
SZ: „ … Es geht den Jugendlichen nicht darum, über den Klimawandel zu diskutieren. Sie wollen Veränderungen, sofort. … Greta Thunberg und ihr Gefolde sagen ganz deutlich: Ihr seid nackt. Wir streiken, bis ihr handelt ... „
und outet dabei genau das Problem: Es geht den streikenden Schülern nicht darum, mehr über den sogenannten, Menschen-gemachten Klimawandel wissen zu wollen, sondern alleine um die Umsetzung einer ihnen vorgegebenen Agenda, der sie geradezu blind folgen, ohne auch nur im Ansatz daran zu denken, was die Geschichte über solche blinde Gefolgsameit lehrt.
Im Gegensatz zur SZ, verortet der Autor „die Nackten“ deshalb weiterhin bei den streikenden Schülern.

Je länger die Aktion läuft, desto abstruser und weltfremder die Thesen. Doch niemandem will es auffallen

Belegen lässt sich dies inzwischen immer deutlicher anhand der Aktionen. Bei der letzten (die der Autor „mitbekam“), war es die Aussage: [3] „Wenn nichts passiert, lägen irgendann alle Menschen tot auf dem Boden … “.

Bild 1 [3] Zeitungsfoto einer Schüler-Freitagsdemonstration in Nürnberg. Bildtext: „Wenn der Klimawandel nicht gestoppt wird, liegen irgendwann alle Menschen tot am Boden“. Nürnberger Schüler demonstrieren vor der Lorenzkirche drastisch die folgen der derzeitigen Politik. Anmerkung: um kein Copyright zu verletzen, wurde das Bild angegraut

Der berichtenden Redakteurin hat dieser Satz ungemein gefallen, so dass die Aussage in die Bildunterschrift einfloss, trifft er doch genau die Meinung und Kenntnis (Anmerkung: rein persönliche Meinung des Autors, die niemand teilen muss) der Redaktion. Dass dieses „Wissen“ von einer 16-jährigen Schülerin – (Mitorganisatorin der Veranstaltung) „übermittelt“ wurde, störte sie nicht. Im Gegenteil: positiv erwähnt wurden auch je eine 13 und zwei 14-jährige, teilnehmende Schülerinnen, deren „Wissen“ in etwa dem folgenden entspricht:

Bild 2 Information über die Schülerstreiks zum Klimawandel einer Printausgabe der „nordbayerischen Nachrichten“ für Kinder. Fotoaussschnitt vom Autor

Selbstverständlich findet eine Redaktion auch wirkliche Fachleute zum Thema. In einer Printausgabe vom 04.03. durfte ein leibhaftiger Siemens-Ingenieur aus Erlangen – der den Freitagsstreik seiner Kinder natürlich voll unterstützt – sein Wissen darüber in der Zeitung berichten:
Lokale Printausgabe der „nordbayerischen Nachrichten“: Schule schwänzen ist ein absolut legitimes Mittel
„ … schon als ich ein Kind war, ist mir klargeworden, dass unser Einfluss auf das Klima drastisch ist und dass wir schnell etwas tun müssen. Damals dachte ich noch: Gefahr erkannt, Gefahr gebannt, aber Jahrzehnte später stelle ich fest, dass der negatitive Einfluss von uns auf das Klima immer größer und nicht kleiner wird …
Wie immer, erwartete die Redaktion dafür keinerlei Belege. Schließlich ist sie derselben Überzeugung. Dass der (laut Artikel 37-jährige) „Siemens-Ingenieur mit persönlicher Klimafolgenerfahrung“ seit seinem Kindesalter einen Klimawandeleinfluss rein altersbedingt gar nicht erlebt, geschweige durchlebt haben kann (da dafür nicht einmal 100 Jahre reichen), wen kümmert es, wenn sein persönliches „Klimaerlebnis“ alarmistisch ausfällt [18]. Es ist, als ob jemand Geschichte ausschließlich aus seinen persönlichen Erlebnissen verifiziert, die gesamte, vorgeburtliche Historie ignoriert, aber selbstbewusst erzählt, ein Geschichtsfachmann zu sein.
Der (wesentlich ältere) Autor merkt natürlich ebenfalls, wie verblüffend variabel das Wetter auch in unseren Breiten sein kann [17]. Er hat den zugefrorenen Bodensee erlebt und „Sommertage“ im Winter. Also einen gewaltigen Wandel in der Natur. Er sucht aber den Vergleich mit Wetterdaten in der Vergangenheit und kann dabei keine negativen Veränderungen finden [16] [17]. Und nicht nur ihm geht es so:
notrickszone, 31. Januay 2019: [23] 265 Papers Published Since 2017 Subvert The Claim That Post-1850s Warmth Has Been Unusual, Global

Dass die Abstrusitäten der „Argumente“ dieser fremdgesteuerten Kinder-Bewegung einfach nur himmelschreiend sind, merkt niemand in der Redaktion. Ca. eine Woche zuvor wurde enthustiastisch über den Schulstreik in Hamburg berichtet: [4] „We love Greta“: Junge Schwedin begeistert Hamburg
In diesem (dpa) Artikel wurde über folgendes „Argument“ informiert: ... Auf Plakaten und Transparenten fordern die Schüler „ … Make earth cool again …
und belegt, dass den Veranstaltern – und den Berichtenden – wirklich kein Blödsinn zu blöd ist, um nicht noch positiv aufgenommen zu werden. Wer einen Rückzug des Erdklimas in die grausame, von Hungersnöten und extrem kalten Wintern geprägte, nachmittelalterliche Zwischeneiszeit „fordert“, während der das Wetter auch noch extremer als heutzutage war und den Segen der zwischenzeitlichen Erwärmung und des CO2-(Pflanzendünger-) Anstiegs für die Ernteerträge weltweit nicht kennt [13], zeigt einfach nur die vollständige Abwesenheit von Ahnung über das Thema und der Geschichte dazu, welche mit der (Ver-)Hungervorhersage von Malthus vor über 200 Jahren beginnt.

Bild 3 Quelle: BR24

Es sind die vielen kleinen Bilder, welche die Unkenntnis der Protestierenden (und Publizierenden) ausweisen. Weil es so schön aussieht, „schwitzt“ ein Pinguin. Dass diese nur um den Südpol leben und die Antarktis von einem Kälterekord zun nächsten eilt, am Klimawandel bis auf einen ganz kleinen Bereich gar nicht „teilnimmt“ [14] [15], ist ihnen entgangen:
EIKE 21.03.2018: Königspinguine sind die Eisbären der Antarktis

Unsere „Eliten“ versagen wieder, beziehungsweise eifern dem Erfolgsmodell der Kirche nach

Einmal sind das die „wissenschaftlichen Heilsprediger“, wie Professor Rahmstorf und Mojib Latif [5]. Latif erzählte den streikenden Schülern in Hamburg, dass die erste Klimakonferenz vor 40 Jahren stattgefunden hat [5]. Was er ihnen nicht erzählte war, dass zu dieser Zeit die Klimawissenschaftler weltweit unseren Planeten nicht vor zu viel Hitze, sondern dem genauen Gegenteil, der „mit Sicherheit“ kommenden Eiszeit retten wollten (wobei diese Angst viel berechtigter, als die vor einem Hitzekollaps ist [25] ).
[6] Der Spiegel, 12.08.1974: Katastrophe auf Raten
(Auszug)… Die sich in den letzten Jahren häufenden Meldungen über Naturkatastrophen und extreme Wetteränderungen in aller Welt glichen anfangs eher den Bruchstücken eines Puzzle-Spiels: Ein Orkan, der heftigste seit einem Jahrhundert, verwüstete im November 1972 weite Teile Niedersachsens. Im selben Jahr richtete im Osten der USA der Hurrikan „Agnes“ für mehr als drei Milliarden Dollar Schäden an; 122 Menschen kamen ums Leben. Es war das folgenschwerste Unwetter, das jemals in Nordamerika registriert worden war.
Ein Schneesturm ruinierte im August 1973 große Getreideanbaugebiete im Weizengürtel Kanadas. Und im November und Dezember letzten Jahres brandeten innerhalb von fünf Wochen sechs schwere Sturmfluten gegen die norddeutschen Küsten — die dichteste Sturmflut-Folge seit rund 50 Jahren.
Weit dramatischer kündigte sich unterdes der globale Klima-Umschwung in Südostasien, Afrika oder auf dem südamerikanischen Kontinent an. Sintflutartige Regenfälle überschwemmten in jüngster Zeit immer öfter Teile Japans oder Perus. In Argentinien, in Indien und Südafrika sanken im letzten Winter die Temperaturen auf Werte. wie sie seit Beginn der wissenschaftlichen Wetterbeobachtung vor etwa 300 Jahren noch nie registriert wurden.
Ungewöhnlich ergiebige Regengüsse — und im Winter Schneeschauer — gingen auch im Nahen Osten nieder, etwa im Libanon, in der Türkei und in Israel, aber auch in Italien und in manchen Regionen der USA: In San Francisco beispielsweise wurden in diesem Sommer schon die stärksten Niederschläge seit 125 Jahren gemessen.
Und während im Osten Afrikas und im Norden der USA die Wasserspiegel der großen Binnenseen stetig steigen, herrscht in den Ländern südlich der Sahara seit nunmehr sieben Jahren Dürre …

M. Latif erzählte ihnen auch nicht, wie oft er sich schon geirrt hat und dass die von ihm vertretenen Klimawandelhypothesen (wie auch die von Herrn Rahmstorf) von neueren Studien immer mehr angezweifelt werden, von den (geringen) Auswirkungen eines realistisch angenommenen Forcings (die angeblich stetig zunehmende Erderhitzung aufgrund des anthropogenen CO2 kann abgesagt werden) gar nicht zu reden [24] [7].
Er erzählte von gefährlich „schmelzenden Polkappen“, natürlich ohne auf die Ungereimtheiten zwischen angeblicher Eisschmelze und Meerespegel hinzuweisen [20] und darauf, dass alle unnatürlichen Pegelerhöhungen ausschließlich in Computersimulationen passieren [21] [22].

Den wahren Vogel schießen aber unsere Politiker*innen ab. Unsere „große, unfehlbare“ Vorsitzende zögerte anfänlich noch – fand sogar Kritik daran – und erzählte dies auf dem G20-Gipfel in Davos. Dann bemerkte sie, dass sie damit so etwas wie eine eigene Meinung hätte, etwas, das ihr im Innersten absolut zuwider ist. Auch wird sie bedacht haben, dass diese Meinung zukünftige Koalitions-Wunschpartner „stört“.
Und sofort „vergaß“ sie ihre vorherige „Meinung“ und begrüßt nun die Schülerproteste [5]. Frau Barley (SPD) ging weiter und fordert, das Wahlalter auf 16 Jahre herabzusetzen [19], vertritt damit allerdings nur GRÜNE und Linke Positionen. Die Begründung muss ähnlich vermutet werden, wie es Renate Schmidt – ehemalige SPD-Familienministerin-, einst in einem Interview äußerte: (Gedächtnisprotokoll) Meine Enkelkinder haben die gleiche politische Meinung wie ich. Das belegt, wie gut sich Kinder bereits mit Politik auskennen …
Bei der Verleihung des Ordens „Wider den tierischen Ernst“ hielt Frau Barley eine Rede, in welcher sie Protest deutlich als falsch darstellte, sofern er gegen ihre – einzig richtige – Meinung gerichtet sei [11] [12].

Frau Bundesforschungsministerin Karliczek (Diplom-Kauffrau) ließ gar über die dpa mitteilen, dass Zweifel am Klimawandel nicht erwünscht ist. Ihrer Überzeugung nach wissen Politiker genau, welche Wissenschaft im Volk nicht mehr diskutiert zu werden braucht:
[25] „Bundesforschungsministerin Anja Karliczek tritt verbreiteter Skepsis gegenüber wissenschaftlichen Erkenntnissen, etwa zu Klimawandel und Luftverschmutzung, entgegen … Wenn Klimawandel angezweifelt wird … dann ist das auch für die Politik ein ernstes Thema … die Politik beziehe sich schließlich auf den Stand der Wissenschaft …

Alle orientieren sich damit an Institutionen, welche über tausende von Jahren belegen, wie man „Überlebenspolitik“ macht. Man übernimmt – sobald diese sicher sind – die Meinung der staatswichtigen Eliten und erklärt diese als gottgewollt:
EIKE 18.04.2016: [8] Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

Als logische Folge „rannte“ die Kirche bedenkenlos jedem Zeitgeist hinterher (der ihr Vorteile brachte und sicherte). Erkenntnisse, dass er falsch sein könnte, kamen ihr immer erst, nachdem Machtveränderungen es geboten schienen:
[9] … die spektakulären Erfolge Hitlers zu Beginn der dreißiger Jahre, konnte für das stets opportunistische Papsttum, das durch Anpassung an die Stärksten lebt und überlebt, die Entscheidung nicht anders ausfallen, als sie ausfiel. Nichts betet der Vatikan mehr an als den Erfolg

Unsere „Intelligenz“ ist nicht mehr besser. Leider auch in bisher leidlich davon verschonten Flecken. In Bayern ist das Klimaschutzgesetz kürzlich im Landtag gescheitert. Nicht entfernt wegen so etwas wie Vernunft, sondern nur, weil SPD und GRÜNE noch mehr forderten. Die bayerischen Parteien haben auch kein Problem damit, denn im Bund wird dieser Wahnsinn mit Sicherheit kommen.
Eike 01. März 2019: Dokument des Grauens: Der Entwurf des neuen Klimaschutzgesetzes aus dem Hause Svenja Schulze (SPD)

Es erinnert langsam an eine Politik, wie sie Mao in China mit den „Roten Garden“ schon praktizierte: Wenn das Volk gegen den angeordneten, politischen Wahnsinn opportunistisch wird, indoktriniere die Kinder und Jugendlichen und hetze diese auf die renitenten „Alten“.

Quellen

[1] EIKE 01. März 2019: Dokument des Grauens: Der Entwurf des neuen Klimaschutzgesetzes aus dem Hause Svenja Schulze (SPD)

[2] Süddeutsche Zeitung, Wochenendausgabe vom 02./03.2019, Barbara Vorsamer: Klimastreiks Schüler an die Macht

[3] Lokalausgabe (Printversion) der „nordbayerischen Nachrichten“: Kritik auch an der Stadtpolitik

[4] Lokalausgabe (Printversion) der „nordbayerischen Nachrichten“: „We love Greta“: Junge Schwedin begeistert Hamburg

[5] ScienceScepticalBlog, 02. März 2019: Mojib Latif bei Fridays for Future Schülerstreik in Hamburg

[6] Der Spiegel, 12.08.1974: Katastrophe auf Raten

[7] EIKE, 26. Februar 2019: Traue keiner Darstellung, die du nicht selberstatistisch „aufbereitet“ hast. Alternativ: Wie Klimaalarme erzeugt werden Teil 2 (2)

[8] EIKE 18.04.2016: Kirche und Klimawandel Viel „Mensch“, viele Bibelsprüche, die Orientierung vom PIK, von kritischer Reflexion keine Spur

[9] Karlhein Deschner, Buch: Mit Gott und dem Führer

[10] Achgut 01.03.2019: Aloa, Aloa: Prantl geht als Relotius

[11] Achgut 27.02.2019: Im freien Fall und trotzdem bester Laune

[12] The European, 03.03.2019: Die lauten und die stummen Jugendlichen

[13] EIKE 26.11.2016: Forscher des Weltklimarates IPCC rechnen, dass die globale Erwärmung 10 bis 50 % der jährlichen Ernte bedroht – Was steckt dahinter?

[14] NoTricksZone, By P Gosselin on 28. December 2018: Arctic Ice Volume Shames Climate Experts …Antarctic Stations Show Cooling, Not Warming

[15] NoTricksZone, By Kenneth Richard on 18. October 2018: New Science: Arctic AND Antarctic Sea Ice More Extensive Today Than Nearly All Of The Last 10,000 Years

[16] EIKE 21.11.2015: Die bayerische Umweltministerin Frau Scharf: Extremwetter, Extrem-Hochwasser und die Unberechenbarkeit des Wetters nehmen zu. Doch stimmt das wirklich?

[17] EIKE 03.06.2018: Früher war es schlimmes Wetter, heute macht das Gleiche mit Sicherheit der Klimawandel

[18] EIKE 10.05.2017: Die Volkshochschule Hannover und ihre Ausstellung: Wir alle sind Zeugen – Menschen im Klimawandel

[19] Achgut: Wahlrecht ab 16: Lotto verboten, Wählen ok

[20] EIKE 4. März 2019: 12. IKEK am 23. und 24.11.18 Nils-Axel Mörner Das Kattegat u.a. als Testgebiete für die Höhe des Meeresspiegels

[21] EIKE 03.11.2017: Das Wochenende, an dem die Welt (wieder) begann unterzugehen

[22] EIKE 08.08.2017: Meerespegelanstieg: Europa kann nicht alle (vor Klimawandel-Desinformation) schützen T2 (2)

[23] notrickszone, 31. Januay 2019: 265 Papers Published Since 2017 Subvert The Claim That Post-1850s Warmth Has Been Unusual, Global

[24] EIKE 22. Februar 2019: Weltklimarat IPCC zum CO2 : „Alles halb so schlimm!“

[25] Nordbayerische Nachrichten, lokale Printausgabe, 06.03.2019: (dpa) Kampfansage an Klimaleugner

[25] EIKE 25.12.2016: Man sollte schon langsam an die nächste Eiszeit denken, denn wenn die neuesten Hypothesen sich als falsch erweisen, kann sie schnell da sein




Ein kleines Programm zur Klärung einiger unlieb­samer Tatsachen

Unstreitig ist hoffentlich das die Frequenz eines Stromnetzes die wichtigste Größe zur Haltung eines sicheren Betriebes ist. Am Stromnetz werden Synchronuhren betrieben, welche die Netzzeit anzeigen. Diese Uhren sollen mit den Uhren der physikalisch technischen Bundesanstalt (Sender Mainflingen) möglichst gleichlaufend sein. Das ist nur der Fall, wenn die Netzfrequenz sauber nahe bei 50 Hz gehalten wird. In meiner Zeit gab es dafür in der Blockwarte zwei Uhren. Eine zeigte die Netzzeit des Bremer Netzes, die andere die Netzzeit des NWK-Netzes, das Bremen umgab und mit dem Bremer Netz gekoppelt war. Es konnte aber auch geschehen, dass die Kupplung für eine Zeit nicht geschlossen war. Dann liefen die Uhren zeitlich auseinander und man musste durch Änderung der Frequenz im Bremer Netz für Zeitgleichheit sorgen. War Zeitgleichheit erreicht, konnte man die Kupplung, nach Synchronisierung der beiden Netze, wieder einschalten. Mein Aufsatz beschreibt nun welche Probleme auftreten, wenn man ein Inselnetz betreibt, das nicht ans Verbundnetz gekoppelt ist, wie früher mein Wohnort, wenn die Netzkupplung offen war. Die Probleme sind nicht weg, wenn man an das Verbundnetz gekoppelt ist, man kann sie aber dann auf andere Schultern schieben.

Bild 1

Bild 1 zeigt das Fenster des Programms, in dem sich alle Bedienelemente befinden. Die genaue Beschreibung des Programms befindet sich im Anhang, als PDF-File, zu dieser Kurzform meines Beitrages.

Im Beispiel ist die WKA-Installation viel zu klein um die konventionellen Kraftwerke zu ersetzen. An ihrem Standort ist mit einem Erntegrad von 30% zu rechnen. Das bedeutet, dass der Wind die installierte Leistung von 100 MW nur zu 30% auslastet. Um die gleiche Arbeit erzeugen zu können wie das Kraftwerk müsste man also ca. drei mal soviel WKA-Leistung installieren. Dabei ist zu bedenken das Windkraft auch mal völlig bei Windstille fehlen kann. Ein Inselnetz ist dann stromlos oder man erlaubt sich weiterhin ein konventionelles Kraftwerk zur Überbrückung dieser Zeiten. Die Problematik der Windböen, die ja die Leistung eines Windfeldes gewaltig erhöhen kann und zum Blackout führen kann, ist damit auf ein höheres Niveau gehoben. Der Traum des Bürgermeisters von 100% EE-Versorgung ist nur mit einer Kopplung ans Verbundnetz zu erreichen. Dann übernehmen andere die Versorgung bei Flaute und nehmen die Überproduktion bei zu viel Wind auf. Dafür müssen sie natürlich ihre eigenen Kraftwerke zurückfahren und deren Wirtschaftlichkeit ruinieren. Die Probleme sind dann auf andere verschoben und der Bürgermeister kann sich im Glanz der 100% EE-Versorgung präsentieren. Ob seine Bürger das alles bezahlen wollen, glaube ich nicht.

Auf Speicheranlagen verzichte ich bewusst. Die funktionieren einwandfrei als Pumpspeicherwerke, sorgen aber nur für astronomische Kosten, die kein normal denkender Mensch bezahlen will. Man hat auch keine Standorte dafür und kein normal denkender Mensch möchte im Tal unter einem solchen Speichersee leben. Wasserkraft hat die meisten Menschenleben von allen Stromerzeugungstechniken gekostet. Wer von Batteriespeichern träumt, sollte bedenken, dass die heutigen Batterien der Stand der Technik nach 150 Jahren Entwicklung sind. Dass da nicht mehr viel kommt ist so sicher wie das Amen in der Kirche. Was da sonst noch angeboten wird, raubt mir den Glauben an den gesunden Menschenverstand. Es ist aber so, besonders in der Wissenschaft, dass der Glaube an das, was man nicht versteht, am größten ist, wenn die Lügen, die dazu führen, ausreichend groß sind.

Jetzt noch ein paar Sätze zur Speicherfähigkeit eines Netzes, die ja immer bei Störungen der Netzfrequenz beschworen wird. Es gibt sie nicht. Außer in grünen Köpfen. Die speichern ja schon Energie, wenn man Elektrozählerstände in einer Internet-Cloud speichert. So wird dann das Internet zum Energiespeicher. Es gibt aber einen Selbstheilungseffekt im Netz. Dieser Effekt wird nicht durch die rotierenden Massen im Kraftwerk ausgelöst, dazu sind die Massen viel zu gering. Auslöser sind die rotierenden Arbeitsmaschinen im Netz, deren Drehzahl von der Netzfrequenz bestimmt wird. Bei fallender Frequenz reduziert sich die Wellenleistung der Motoren je nach Typ der angetriebenen Arbeitsmaschine. Der Effekt beträgt im Netz ca. 1% der aktuellen Leistung pro Hz. Ganz anders funktioniert die Frequenzregelung bei drehzahlregelbaren Maschinen. Dort wird bei Abweichung der Frequenz vom Sollwert die Leistung der Antriebsmaschinen geändert. Die Statik beträgt 5%. Das bedeutet, dass die Nennleistung eines Kraftwerksblocks bei 5% Unterschreitung der Drehzahl unter den Drehzahlsollwert erreicht wird. Es ist eine Proportionalregelung und die führt nicht selbstständig auf die Sollfrequenz von 50 Hz zurück. Das muss die Netzleitwarte durch Anweisung an die Blockwarten bewirken. Die Reaktionszeit des Drehzahlreglers liegt im Millisekundenbereich. Moderne Anlagen haben einen elektronischen Turbinenregler. Bei dem kann man den Frequenzeinfluss abschalten und die Maschine ohne Beachtung der Frequenz leistungsgeregelt fahren. Dadurch entsteht ein neuer Markt, der Regelleistungsmarkt. Da wird der Strom höher bezahlt. Aber ich schweife ab.

Jetzt folgt für alle Interessierten, die sich das Programm heruntergeladen und installiert haben, mithilfe des Programms eine kleine Einführung in die Funktion eines Elektrizitätsnetzes. Eine Anleitung zur Installation befindet sich am Ende dieses Aufsatzes. Bitte öffnen Sie die PDF-Datei „Netzdemo.pdf“ am Ende dieses Beitrages.

Ich fasse die Ergebnisse der Tests zusammen:

In dem Inselnetz erfolgt der Blackout immer durch falsche oder risikoreiche Fahrweise der Anlagen. Das erhöhte Risiko eines Blackouts muss man in Kauf nehmen, um mit der EE-Erzeugung in eine einigermaßen wirtschaftliche Situation zu kommen, trotz massiver Subvention. Die Kosten tragen ja nicht die Betreiber, sondern die Verbraucher. Die technischen Gründe für den Blackout sind folgende:

  1. Zu geringes Abwurfvermögen des Kraftwerks. Es wird durch die Fahrweise der EE-Anlagen eine Situation hervorgerufen, in der durch eine Windböe Windleistung entsteht, die nicht vom Kraftwerk abgeworfen werden kann. Eine weitere Möglichkeit ist der Ausfall eines Teilnetzes oder eines Großverbrauchers durch Schäden an der Technik. Auch dieser Verlust muss vom Kraftwerk abgeworfen werden können. Der Grund ist immer zu hohe EE-Erzeugung, die nicht regelbar ist.

  2. Zu wenig laufende Leistungsreserve im Kraftwerk. Bei normalem Kraftwerksbetrieb kann immer der Leistungsverlust eines Blocks von den anderen Blöcken des Werkes aufgefangen werden. Das ist gegenüber der EE-Erzeugung nicht der Fall. Der Wunsch des Bürgermeisters, möglichst viel Strom mit EE-Anlagen zu erzeugen, führt dazu, dass die durch EE-Strom ersetzten Kraftwerksblöcke in den Abblasebetrieb gehen, was ordentlich Geld kostet. Also wird man einen Block nach dem anderen abfahren, bis der Abblasebetrieb beendet ist. Das reicht aber den EE-Hanseln noch nicht, denn sie merken, dass die Leistung des Kraftwerks auch von nur einem Block erbracht werden kann. Also nehmen sie alle Blöcke bis auf einen außer Betrieb. Den braucht man ja zur Vorgabe der Frequenz an die EE-Anlagen. Jetzt braucht nur eine Flaute eintreten, Windanlagen ausfallen, PV-Strom ausfallen, oder ein Großverbraucher wird zugeschaltet, schon ist der Blackout durch Unterfrequenz da.

Ich weise nur noch einmal darauf hin, dass der letzte einigermaßen sichere Betriebszustand erreicht war, als eine Last von 60 MW mit 7,5 MW Windleistung, der Rest vom konventionellen Kraftwerk gedeckt wurde. Dazu waren drei Windfelder mit 60 MW Nennleistung erforderlich. Der Bürgermeister sollte jetzt die Windböen gesetzlich verbieten lassen.

Die Situation für dieses Netz ändert sich sofort, wenn es ans Verbundnetz gekoppelt ist. Dann kann man alle erlebten Probleme auf andere abwälzen. Das ist ja deutsche Politik aus der Nähe betrachtet. Dass die Nachbarn am Verbundnetz das Gleiche machen, ist nicht auszuschließen. Dann hat man die A….-Karte gezogen.

Ich Danke allen die bis hierher durchgehalten haben.

Herzlichst Michael Treml, Bremen

PS.:

Hier ist die Anleitung zur Installation des Programms. Richten Sie einen Ordner dafür ein. Nennen Sie ihn z. B. „Netzdemo“. Laden Sie die folgenden Links in diesen Ordner. Den Anweisungen des Fileservers „Filehorst“ folgen. Immer „Datei speichern“ wählen.

https://filehorst.de/d/cdoEHnwH

https://filehorst.de/d/cqEywxjk

https://filehorst.de/d/cioynvmq

Es sind die Dateien: Netzdemo.Cab Setup.exe SETUP.LST

Die Dateien sind nach dem herunter laden im Ordner „Downloads“. Dateien in den Ordner „Netzdemo“ verschieben. Starten Sie die Datei „setup.exe“. Die Datei wird installiert. Starten Sie das Programm „Netzdemo.exe“.

Netzdemo




Kritik an einer neuen Studie von Santer et al. (2019)

Abbildung 1: aus Santer et al. (2019)

Die Ergebnisse ihrer Studie zeigt Abbildung 1. Es ist keine Graphik der Temperatur, sondern eines geschätzten Verhältnisses zwischen „Signal und Rauschen“. Die horizontale Linie repräsentiert Sigma-Einheiten, die man – falls das zugrunde liegende statistische Modell korrekt ist – interpretieren kann als die Punkte, an welchen der Schweif der Verteilung sehr klein wird. Wenn also die Linie ein Sigma-Niveau passiert, ist das „Signal“ anthropogener Erwärmung aus dem „Rauschen“ der natürlichen Variabilität im passenden Umfang hervorgetreten. Sie berichten, dass die 3-Sigma-Grenze einen p-Wert von 1/741 aufweist, während die 5-Sigma-Grenze einen p-Wert von 1/3,5 Millionen hat. Da alle Linien die 5-Sigma-Marke bis 2015 überqueren, folgern sie, dass die anthropogene Auswirkung auf das Klima definitiv gefunden ist.

Ich möchte hier vier Aspekte dieser Studie ansprechen, welche die Schlussfolgerungen erheblich schwächen: (a) die Differenz zwischen der Existenz eines Signals und der Größenordnung der Auswirkung, (b) die verwirrende Natur ihres experimentellen Designs, (c) das invalide Design ihres Nur-Natur-Vergleichsparameters und (d) Probleme bei der Relation von „Sigma“-Grenzen und Wahrscheinlichkeiten.

(a) Existenz eines Signals vs. Größenordnung der Auswirkung

Nehmen wir einmal an, wir stellen einen alten Analog-Radioempfänger auf ein schwaches Signal einer weit entfernten Radiostation ein. Mittels Verschieben des Senderknopfes bekommt man vielleicht ein Signal, das gut genug ist um zu erkennen, dass eine Komposition von Bach gespielt wird. Aber die Stärke des Signals sagt nichts über das Tempo der Musik; das ist eine andere Berechnung.

In gleicher Weise sagt uns obiges Diagramm nichts über die Größenordnung der Auswirkung von Treibhausgasen auf die Temperatur und das Klima. Es zeigt nur zweierlei: Eine Maßzahl der Rate, wie sich die Korrelation zwischen Beobachtungen und Modellergebnissen, getrieben durch natürliche und anthropogene Antriebe mit der Zeit, verbessert, dividiert durch eine Maßzahl der Standardabweichung der gleichen Maßzahl unter einer „Null-Hypothese“ einer (vermeintlich) rein natürlichen Variabilität. In dieser Hinsicht ist es wie eine t-Statistik [?], die ebenfalls in Sigma-Einheiten gemessen wird. Da es keine Verbesserung mit der Zeit geben kann im Fit zwischen den Beobachtungen und dem natural-only comparator*, führt jede Verbesserung des Signals zu einer Erhöhung des Sigma-Niveaus.

[*Eine passende Übersetzung ist schwer. Weiter unten ist der Terminus übersetzt worden mit „nur-natürlich-Komparator“. Bessere Vorschläge seitens der Leserschaft sind willkommen. Anm. d. Übers.]

Selbst falls man Abbildung 1 als Nominalbeitrag akzeptiert, ist sie konsistent mit einer sehr hohen oder sehr geringen Sensitivität bzgl. Treibhausgasen – oder irgendwo dazwischen. Sie ist beispielsweise konsistent mit den Ergebnissen von Christy and McNider, welche ebenfalls auf Satellitendaten basieren, dass nämlich die Sensitivität bei Verdoppelung der Treibhausgase viel geringer ist als typischerweise von den Modellen simuliert.

(b) Verwirrtes Signal-Design

Der Begleitinformation zufolge zogen Santer et al. jährlich gemittelte Klimamodell-Daten auf der Grundlage historischer Antriebe und auf dem (RCP8.5)-Szenario basierende natürliche und anthropogene Antriebe heran und konstruierten daraus eine Temperatur-Zeitreihe der mittleren Troposphäre. Diese enthielt auch eine Adjustierung für stratosphärische Abkühlung (d. h. eine „Korrektur“). Sie mittelten alle Modelle und Modellläufe, vernetzten die Daten in 10 Grad X 10 Grad-Gitterboxen (insgesamt 576, wobei die Polargebiete außen vor blieben) und extrahierten daraus 40 jährliche Temperatur-Anomalien für jede Gitterbox im Zeitraum 1979 bis 2018. Aus diesen extrahierten sie einen räumlichen „Fingerabdruck“ des vom Modell erzeugten Klima-Musters unter Anwendung einer wesentlichen Komponenten-Analyse aka empirischer Orthogonal-Funktionen. Man kann es sich vorstellen als ein gewichtetes zeitliches Mittel der Anomaliewerte für jede Gitterbox. Obwohl es in der Studie oder in der Begleitinformation nicht gezeigt wird, sieht das Muster so aus (die Graphik stammt aus einer separaten Studie):

Abbildung 2: Räumliches Muster eines Fingerabdrucks

Die grauen Bereiche in Abbildung 2 über den Polen repräsentieren außen vor gelassene Gitterboxen, da nicht alle Satelliten-Reihen auch die Pole abdecken. Die Farben markieren PC „loadings“ [?] und nicht Temperaturen, aber da das erste PC etwa 98% der Varianz erklärt, kann man sie als mittlere Temperaturanomalien betrachten, ohne zu weit abzuschweifen. Folglich ist das Fingerabdruck-Muster ein solches von verstärkter Erwärmung in den Tropen mit lokalen Abweichungen hier und dort.

Dies ist das Muster, mit dem sie die Beobachtungen korrelieren wollen als ein Verfahren, um den anthropogenen „Fingerabdruck“ aufzuspüren. Aber in den Modellen ist es verbunden mit sowohl natürlichen als auch anthropogenen Antrieben zusammen im Zeitraum 1979 bis 2018. Sie bezeichnen dies als HIST+8.5-Daten, was heißt, dass die Modellläufe bis 2006 mit historischen Antrieben (sowohl natürlich als auch anthropogen) liefen und danach nur noch mit Antrieben gemäß dem RCP8.5-Szenario. Die Schlussfolgerung der Studie lautet, dass die Beobachtungen jetzt den in obiger Abbildung dargestellten Verhältnissen ähneln als eine Null-Hypothese („Nur natürliche Antriebe“) – ergo: anthropogener Fingerabdruck entdeckt. Aber HIST8.5 ist ein kombinierter Fingerabdruck, und tatsächlich haben sie den anthropogenen Anteil nicht herausgefiltert.

Sie haben also keineswegs einen eindeutigen anthropogenen Fingerabdruck identifiziert. Was sie entdeckt haben ist, dass Beobachtungen besser zu Modellen passen, wenn sie ein Erwärmungsmuster wie in Abbildung 2 enthalten, unabhängig von den Gründen, als jene, die das nicht enthalten. Es kann sein, dass ein Graph, welcher das ausschließlich anthropogene Signal darstellt, so aussehen würde wie in Abbildung 1, aber aus ihrer Analyse geht das in keiner Weise hervor.

(c) Invalider nur-natürlicher Komparator

Obiges Argument würde eine geringere Rolle spielen, falls der „nur-natürliche“ Komparator als Treiber der Erwärmung durch natürliche Antriebe fungieren würde. Aber das ist konstruktionsbedingt nicht der Fall.

Das Fingerabdruck-Verfahren beginnt damit, die beobachtete räumliche Verteilung von Temperaturanomalien heranzuziehen und diese mit dem Muster in Abbildung 2 oben zu korrelieren, wobei sich ein Korrelations-Koeffizient für jedes Jahr ergibt. Dann betrachten sie den Trend jener Korrelations-Koeffizienten als Maßzahl dafür, wie gut der Fit mit der Zeit wird. Die Korrelationen selbst werden weder in der Studie noch in den Begleitinformationen angesprochen.

Danach konstruieren die Autoren ein „Rauschen“-Muster, welches als „nur-natürlich“ dienen soll, entgegen den Fakten in obigem Diagramm. Sie beginnen mit der Auswahl von 200-Jahre-Kontrollläufen von 36 Modellen und teilen sie in das gleiche 10 X 10-Format ein. Vielleicht werden sie über alles mitteln, aber erst wird jede Gitterbox in jedem Modell trendbereinigt, was ich als fehlerhaften Schritt betrachte.

Alles hängt davon ab, wie valide der Komparator der natürlichen Variabilität ist. Man gibt uns keine Erklärung, warum die Autoren glauben, dass es eine glaubwürdige Analogie ist zu natürlichen Temperatur-Mustern, die assoziiert sind mit nicht-anthropogenen Antrieben nach 1979. Das ist fast mit Sicherheit nicht der Fall. Die Summe der Vulkan- und Solar-Reihe nach 1979 im AR 5 des IPCC sieht so aus:

Abbildung 3: Natürliche Antriebe laut IPCC von 1979 bis 2017

Dies impliziert eindeutig, dass natürliche Antriebe eine insgesamte Erwärmung induziert hätten über das Stichproben-Intervall, und da die tropische Verstärkung unabhängig von der Art des Antriebs erfolgt, würde eine räumliche „nur-natürlich“-Verteilung wahrscheinlich so aussehen wie Abbildung 2. Aber mit der Trendbereinigung jeder Gitterbox haben Santer et al. derartige Muster eliminiert und den geschätzten natürlichen Komparator nach 1979 künstlich verschlechtert.

Die Schlussfolgerungen der Autoren hängen entscheidend von der Hypothese ab, dass ihre Schätzung aufgrund der „natürlichen“ Modell-Variabilität plausibel repräsentiert, wie es von 1979 bis 2018 ohne Treibhausgase ausgesehen hätte. Die Autoren betonen die Bedeutung dieser Hypothese in ihren Begleitinformationen (Seite 10):

Unsere Hypothese hinsichtlich der Angemessenheit unserer Schätzungen bzgl. der Modell-Variabilität ist entscheidend. Beobachtete Temperaturaufzeichnungen sind simultan beeinflusst sowohl von interner Variabilität als auch von multiplen externen Antrieben. Wir verfolgen nicht die „reine“ interne Variabilität, so dass es immer etwas nicht reduzierbare Unsicherheit bei der Unterteilung der beobachteten Temperaturaufzeichnungen in intern und extern getriebene Komponenten geben wird. Alle Vergleiche der beobachteten Variabilität mit derjenigen in den Modellen sind beeinflusst durch diese Unsicherheit, vor allem in weniger gut aufgezeichneten Zeitmaßstäben vieler Jahrzehnte“.

Wie sie sagen, jede Studie zur Erkennung von Fingerabdruck und Signalen ist abhängig von der Qualität des „nur-natürlich“-Komparators. Unglücklicherweise haben sie durch die Trendbereinigung ihrer Kontrollläufe Gitterbox für Gitterbox so ziemlich sichergestellt, dass das Muster der natürlichen Variabilität als ein Komparator künstlich degradiert wird.

Das ist so, als ob man von einem Bankräuber wüsste, dass er ein 1,80 Meter großer Mann ist und die Polizei ihre bevorzugten Verdächtigen in eine Linie mit kleinen Frauen stellen würde. Man könnte eine vertrauenswürdige Zeugen-Identifikation bekommen, aber man wüsste nicht, ob diese valide ist.

Was alles noch viel schlimmer macht, die Treibhausgas-beeinflusste Erwärmung stammt aus Modellen, welche so frisiert worden sind, dass sie zu grundlegenden Aspekten der beobachteten Erwärmungstrends des 20. Jahrhunderts passen. Während dies in der mittleren Troposphäre weniger eine Rolle spielen würde als an der Oberfläche, gäbe es dennoch die teilweise Verstärkung der Gleichheit zwischen Modellsimulationen und Beobachtung infolge nachträglicher Manipulation.

[Anmerkung des Übersetzers: Es folgen noch mehrere detaillierte Darstellungen und Vergleiche zwischen den Parametern, die nur für Fachleute klar durchschaubar sind. Dazu beschreibt der Autor die Entwicklung eines eigenen Modells. Alles läuft darauf hinaus, dass Santers Studie wieder einmal viel verschleiert und nichts enthüllt. Dies geht auch aus der Bewertung des Autors am Ende des Beitrags hervor:]

Schlussfolgerungen

Die Tatsache, dass die t-Statistik von anthro in meinem Beispiel auf ein tiefes Niveau fällt, „beweist“ nicht, dass anthropogene Antriebe keine Auswirkungen auf die Temperatur haben. Sie zeigt aber, dass im Rahmen meines Modells die Auswirkungen nicht signifikant sind. …

Und das liegt in der Natur der Sache statistischer Modellierungen: sie beruhen auf Spezifikationen und Hypothesen. …

Weil ich also genug Gründe habe, die Validität des Modells von Santer et al. zu bezweifeln, akzeptiere ich auch nicht ihre Schlussfolgerungen. Sie haben nicht das gezeigt, was sie sagen gezeigt zu haben. Im Einzelnen haben sie keinen eindeutigen anthropogenen Fingerabdruck identifiziert oder eine glaubwürdige Berücksichtigung der natürlichen Variabilität vorgelegt. Auch haben sie nicht den Gebrauch von Gauss’schen p-Werten gerechtfertigt. Ihre Behauptung, einen „goldenen Standard“ von Beweisen erhalten zu haben, ist unberechtigt, teils schon deswegen, weil statistische Modellierung das niemals ergeben kann, und teils wegen der spezifischen Probleme in ihrem Modell.

Link: https://judithcurry.com/2019/03/01/critique-of-the-new-santer-et-al-2019-paper/

Übersetzt von Chris Frey EIKE




Gegenwind – Trumps „Red Team“ bzgl. Klima formiert sich

Die Initiative des National Security Coucil [etwa: Nationaler Sicherheitsrat] NSC soll Wissenschaftler zusammenrufen und beauftragen, die Ernsthaftigkeit der Klimawissenschaft zu hinterfragen, ebenso wie das Ausmaß, in dem Menschen für Klimaprobleme verantwortlich sind. Das sagten drei namentlich nicht genannte Regierungsbeamte der Post. Weiter berichtete die Zeitung, dass der Plan von Regierungsbeamten im Lageraum des Weißen Hauses diskutiert worden ist. Es soll eine modifizierte Version des leitenden NSC-Direktors und Klimawandel-Leugners [?] William Happer sein. Damit soll ein Gremium bzgl. Klimawandel und nationale Sicherheit ins Leben gerufen werden.

Der NSC lehnte es ab, den Beitrag in der Post zu kommentieren.

Auf der Sitzung hat der stellvertretende Sicherheitsberater Charles Kupperman gesagt, dass Präsident Trump empört sei, dass die [US-]Bundesregierung im vorigen Jahr den National Climate Assessment [den nationalen Klimazustands-Bericht] veröffentlicht hatte. Darin wurde davor gewarnt, dass der Klimawandel verheerende Auswirkungen auf die Wirtschaft, auf Gesundheit und Umwelt haben könnte und dass die gegenwärtigen Bemühungen, dem Klimawandel zu begegnen, unzureichend seien.

———————-

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2019/02/25/pushback-trumps-climate-red-team-forms/

Übersetzt von Chris Frey EIKE




AGW: Ein verwor­renes Netz strangu­liert seine Schöpfer und Befür­worter

Die Herausgeber des Journals Nature haben das Journal ins Leben gerufen. Jenes Journal veröffentlichte alles, was es in die Finger bekam, um die betrügerische Wissenschaft zu verbreiten, welche die Grundlage der nicht überprüften AGW-Hypothese ist. Allerdings war man auch dort den Regeln und Verfahren unterworfen, welche für akademische Forschung und Veröffentlichungen verpflichtend waren. Das ist kein Problem, falls das Thema globale Erwärmung ein rein wissenschaftliches Thema wäre, aber das war es ja niemals. Es war von Anfang an eine politische Inanspruchnahme der Wissenschaft für eine politische Agenda. Der ursprüngliche Artikel stammte von einer Gruppe unter Leitung von Ben Santer, also von jemandem mit einer langen Historie inmitten des AGW-Betrugs.

Ein Artikel unter der Überschrift „Evidence that humans are responsible for global warming hits ‘gold standard’ certainty level“ gibt darüber Aufschluss, enthält aber auch den Kommentar von Santer, dass „das Narrativ, dass Wissenschaftler die Ursache des Klimawandels nicht kennen, falsch ist. Wir kennen die Ursache“. Es ist eine Fortsetzung seiner Arbeit, den Betrug immer weiterzutreiben. Er stellte seinen Kommentar auf die Grundlage, dass wir den Grund für Klimawandel kennen, und zwar aufgrund der Arbeit des IPCC. Dort betrachtete man ausschließlich menschliche Ursachen, und es ist unmöglich, das zu bestimmen, solange man den natürlichen Klimawandel nebst dessen Ursachen nicht kennt und versteht. Falls das der Fall wäre, wären Vorhersagen immer korrekt. Falls das der Fall wäre, bräuchte man Santer und all die anderen Forscher sowie Millionen Dollar nicht mehr

Warum also stellt Santer eine solche Behauptung auf? Aus dem gleichen Grunde wie alle Aktionen im AGW-Betrug: um einen Ansturm zu treiben, erzeugt durch die Dringlichkeit, die politische Agenda zu übernehmen. Es ist der klassische „Der Himmel fällt uns auf den Kopf“-Alarmismus. Santers Arbeit folgt dem jüngsten „Notfall“-Report des IPCC, welcher bei der COP 24 in Polen vorgestellt worden ist und dem zufolge uns noch 12 Jahre bleiben.

Eines der ersten Beispiele dieser Schöpfung einer ungenauen Wissenschaft zur verstärkten Betonung der Dringlichkeit war die Verweildauer von CO2 in der Atmosphäre. In einer Reaktion auf die Behauptung der Erfordernis dringender Maßnahmen haben viele Forscher darauf hingewiesen, dass das Niveau und die Steigerung desselben nicht hinreichend sei, um dringende Maßnahmen zu ergreifen. Mit anderen Worten, man lasse sich nicht vorschnell zu etwas hinreißen. Das IPCC reagierte darauf mit der Behauptung, dass selbst wenn jede Erzeugung von CO2 aufhören würde, das Problem noch Jahrzehnte lang bestehen würde wegen der Verweildauer von 100 Jahren von CO2 in der Atmosphäre. Aus einer von Lawrence Solomon erstellten Graphik geht jedoch hervor, dass die Verweildauer in Wirklichkeit 4 bis 6 Jahre betragen würde (Abbildung 1).

Abbildung 1

Dieses Muster der Betonung der Dringlichkeit durchzieht die gesamte Historie des AGW-Betrugs.

Lord Walter Scott sagte: „What a tangled web we weave when first we practice to deceive“ [etwa: „Was für ein verworrenes Netz wir weben, wenn wir zum ersten Mal Betrug praktizieren“]. Ein anderer großer Autor baute auf diesem Gedanken auf, jedoch aus einem anderen Blickwinkel. Mark Twain sagte: „Falls man die Wahrheit sagt, braucht man sich nicht zu erinnern“. In eigenartiger Weise widersprechen sie oder erklären zumindest, wie sich der Betrug ausbreiten, bestehen bleiben und sein verheerendes Ziel erreichen konnte. Das Netz wurde inzwischen so verworren und die Verbindungen der Netzfäden so kompliziert, dass die Menschen nie mehr sehen können, was passiert. Dies gilt besonders, wenn es bei dem Betrug um ein geheimnisvolles Thema geht, von dem die meisten Menschen gar nichts verstehen.

All diese Beobachtungen sind auf den größten Betrug aller Zeiten anwendbar, nämlich der Behauptung, dass menschlich erzeugtes CO2 globale Erwärmung verursacht. Das Ganze ist den meisten Menschen selbst heute noch unbekannt, und das ist ein Garant für den Erfolg des Betrugs. Das wirkliche Ziel war es zu beweisen, dass Überbevölkerung in Kombination mit industrieller Entwicklung die Ressourcen auf nicht nachhaltige Weise ausschöpfen würde. Maurice Strong erklärte, dass das Problem für den Planeten die industrialisierten Nationen sind, und warf die Frage auf, ob es nicht in unserer Verantwortung liege, diese loszuwerden. Die zugrundeliegende Hypothese war, dass CO2, ein Abfallprodukt bei der Verbrennung fossiler Treibstoffe, globae Erwärmung verursacht und die Erde zerstört. Sie mussten diese Verteufelung des CO2 unbedingt aufrecht erhalten, koste es, was es wolle, und hier beginnt das Weben des verworrenen Netzes.

Zu Beginn kontrollierten das IPCC und angeschlossene Agenturen die zwei maßgeblichen Variablen, nämlich Temperatur und CO2. Phil Jones verlieh dem Ausmaß der Kontrolle über die Temperatur Ausdruck in einer Antwort auf eine Anfrage von Warwick Hughes, welche Stationen herangezogen und wie diese in seiner Graphik adjustiert worden waren. Am 21. Februar 2005 erhielt er folgende Antwort:

„Wir haben rund 25 Jahre in die Arbeit investiert. Warum sollte ich Ihnen die Daten zur Verfügung stellen, wenn es doch Ihr Ziel ist herauszufinden, ob mit den Daten etwas nicht stimmt?“

Die Kontrolle über die globalen Temperaturdaten setzte sich fort bis zum Eintreffen der ersten Satellitendaten im Jahre 1978. Trotz aller Limitierungen ergab sich damit eine viel vollständigere Abdeckung, nämlich etwa 97% bis 98%. Dies steht im Vergleich zu den etwa 15% Abdeckung von Oberflächen-Daten.

Unabhängig von der Abdeckung mussten die Oberflächen-Daten zu den Satellitendaten passen, wie Abbildung 2 zeigt:

Abbildung 2

Dies verhinderte jedoch nur die Veränderung der letzten 41 Jahre der Aufzeichnung, nicht jedoch die Veränderung historischer Aufzeichnungen. Der Artikel von Dr. Marohasy ist lediglich eine weitere Illustration des Musters. Tony Heller führte die vollständigste Analyse der zugefügten Adjustierungen durch. Jene, welche die Veränderungen vorgenommen haben behaupten, wie sie es auch auf die Herausforderung von Marohasy getan haben, dass die Korrekturen notwendig und Instrumentenfehlern, Aufstellungsorten und Änderungen der Umgebung geschuldet waren wie etwa dem UHI-Effekt. Das Problem ist jedoch, dass diese Änderungen ausnahmslos nur in eine Richtung gingen, nämlich die historischen Aufzeichnungen niedriger darzustellen. Dies verändert den zeitlichen Gradienten der Temperaturänderung dahingehend, dass die Stärke und die Rate der Erwärmung verstärkt wird. Eines der ersten Beispiele derartiger Adjustierungen ist die Aufzeichnung von Auckland in Neuseeland (Abbildung 3). Man beachte die Überlappung während der letzten Jahrzehnte:

Abbildung 3

Das IPCC übte die Kontrolle auf die CO2-Aufzeichnungen von Anfang an aus, und das ist auch heute noch so. Sie ziehen die Aufzeichnung vom Mauna Loa heran sowie Daten von anderen Messpunkten mit ähnlicher Instrumentierung und Verfahren als Grundlage für ihre Behauptungen. Charles Keeling, einer der frühesten Befürworter von AGW, wurde von Roger Revelle entdeckt und an das Scripps-Institut berufen. Jawohl, das ist das gleiche Heiligtum, welches Al Gore in seinem Film An Inconvenient Truth glorifiziert hat. Keeling etablierte eine CO2-Messstation, welcher der Standard für das IPCC ist. Das Problem ist, dass der Mauna Loa ein Vulkan aus ozeanischer Kruste ist, dass die Lava nicht so zähflüssig und gasreicher ist als bei kontinentalen Vulkanen wie etwa dem Ätna. Eine Dokumentation mit dem Titel Future Frontiers: Mission Galapagos erinnerte mich an Studien vom Ätna vor Jahren, welche zeigten, wie sehr CO2 aus dem Boden stieg – Hunderte von Kilometern rund um den Krater. Die Dokumentation ist zwar der übliche „Die Menschen zerstören den Planeten“-Unsinn. Aber an einer Stelle tauchen sie in das Wasser rund um eine massive Vulkaninsel und waren erstaunt, wie deutlich sichtbar CO2 von überall aus dem Ozeangrund drang.

Charles Keeling ließ sich seine Instrumente und die angewendeten Verfahren patentieren. Sein Sohn Ralph setzte seine Arbeit am Scripps Institute fort und ist Mitglied im IPCC. Sein jüngster Auftritt in den Medien involvierte eine alarmistische Studie mit einem kapitalen Fehler – einer Überschätzung um 60%. Abbildung 4 zeigt ihn mit der PR-Meisterin des IPCC-Narrativs Naomi Oreskes:

Abbildung 4

Abbildung 5 zeigt das gegenwärtige CO2-Niveau am Mauna Loa. Es zeigt sich eine stetige Zunahme seit 1958 mit der jahreszeitlichen Variation:

Abbildung 5

Diese Zunahme erfolgt kontinuierlich 41 Jahre lang, was bemerkenswert ist, wenn man längerfristigere Aufzeichnungen betrachtet. Zum Beispiel zeigt der Eisbohrkern aus der Antarktis eine bemerkenswerte Variabilität (Abbildung 6):

Abbildung 6

Die Eisbohrkern-Aufzeichnung stammt aus Bläschen, deren Entstehung mindestens 70 Jahre dauert. Dann wird ein geglättetes 70-Jahre-Mittel angebracht. Die Kombination entfernt den größten Teil der Variabilität, und das eliminiert jede Chance, das Ergebnis zu verstehen und einzuordnen.

Abbildung 7 zeigt das Ausmaß der Glättung. Sie enthält einen Vergleich über 2000 Jahre Messungen von CO2 mittels zwei unterschiedlichen Messverfahren. Man erkennt den Unterschied in der Variabilität, aber auch den Unterschied des Gesamtniveaus in der Atmosphäre, der zwischen etwa 260 und 320 ppm schwankt:

Abbildung 7

Allerdings gibt es auch eine Aufzeichnung aus jüngerer Zeit, welche ähnliche Differenzen zeigt hinsichtlich Variation und Gesamtmenge (Abbildung 8). Daraus geht klar hervor, dass das IPCC die Aufzeichnung so geglättet hat, dass es die CO2-Aufzeichnung kontrolliert. Die gepunktete Linie zeigt die Eisbohrkern-Aufzeichnung aus der Antarktis und wie die Mauna-Loa-Kurve erzeugt worden war, um den geglätteten, aber ungenauen Verlauf fortzusetzen. Zbigniew Jaworowski, ein Atmosphären-Chemiker und Eisbohrkern-Spezialist erklärt, was mit den CO2-Messungen in Eisbohrkernen nicht stimmt. Sein entsprechender Artikel ist betitelt mit „CO2: The Greatest Scientific Scandal of Our Time“. Natürlich griff man ihn an, aber dennoch hielten die UN seine Qualifikationen und Fähigkeiten für so gut, dass sie ihn zum Leiter der Untersuchungsgruppe beriefen, welche die Tschernobyl-Katastrophe untersuchen sollte.

Überlagert ist in der Abbildung die Graphik von über 90.000 Atmosphären-Messungen von CO2, welche im Jahre 1812 begonnen hatten. Die Veröffentlichung des Sauerstoffniveaus in der Atmosphäre löste die Sammlung von CO2-Daten aus. Die Wissenschaft wollte den prozentualen Anteil aller Gase in der Atmosphäre erfassen. Man war nicht interessiert an globaler Erwärmung oder irgendwelcher anderen Auswirkungen jener Gase – man wollte einfach genaue Daten haben, was das IPCC niemals vorhatte.

Abbildung 8

[Anmerkung von Blogbetreiber Anthony Watts: Ich ordne der Arbeit von Ernst Georg Beck in Abbildung 8 keine Genauigkeit zu, weil das chemische Verfahren fehleranfällig ist und die Messpunkte der Datengewinnung (zumeist im Bodenniveau von Städten) hoch variable CO2-Gehalte aufweisen. Man beachte die hohe Variabilität der Daten. – Anthony Watts.

Bemerkung des Übersetzers dazu: Diese Graphik von E. G. Beck hat er selbst später als fehlerhaft im Sinne von zu lokal beurteilt. Anm. d. Übers.]

Man wusste um diese Aufzeichnungen schon vor Jahrzehnten. Es war der Eisenbahn-Ingenieur Guy Callendar, der diese Aufzeichnung in Zusammenarbeit mit bekannten Namen der wissenschaftlichen Gemeinschaft vorgestellt hatte. Ernst-Georg Beck schrieb dazu:

„Die moderne Treibhausgas-Hypothese basiert auf der Arbeit von G. S. Callendar und C. D. Keeling. Sie folgt S. Arrhenius, wie später vom IPCC popularisiert“.

Callendar wählte willkürlich einen einheitlichen Datensatz aus, um zu behaupten, dass das mittlere Niveau bei 270 ppm lag. Er änderte die Steigung des Graphen von einer Zunahme in eine Abnahme (Abbildung 9). Jaworowski kreiste die von ihm gewählten Daten ein, aber ich habe die Trendlinien für alle Daten (rot) und Callendars Datenauswahl (blau) hinzugefügt:

Abbildung 9

Tom Wigley, Direktor der Climatic Research Unit (CRU) und einer der Väter von AGW, führte die Aufzeichnung 1983 in die Klima-Gemeinschaft ein, und zwar mit einem Beitrag in der Zeitschrift Climate Change mit dem Titel „The Pre-Industrial Carbon Dioxide Level“. Er behauptete auch, dass die Aufzeichnung ein vorindustrielles CO2-Niveau von 270 ppm ergeben. Man betrachte die Daten!

Das IPCC und dessen Unterstützer etablierten das vorindustrielle CO2-Niveau mittels Rosinenpickerei und Manipulation. Sie halten weiterhin den Finger auf die Angaben zum atmosphärischen Niveau mittels Kontrolle der Mauna Loa-Aufzeichnung, und sie kontrollieren die Daten der jährlichen menschlichen Erzeugung. Sie erklären das so:

Das IPCC hat die Task Force on Inventories (TFI) ins Leben gerufen, um das National Greenhouse Gas Inventory Programme (NGGIP) zu betreiben, welches diese Verfahren entwickeln soll. Die Parteien im UNFCCC sind überein gekommen, die IPCC-Leitlinien anzuwenden bei der Berichterstattung vor der Konvention.

Wie entwickelt das IPCC seine inventarisierten Leitlinien? Ernannte Experten aus der ganzen Welt entwerfen die Berichte unter Anwendung der IPCC-Verfahren, die dann zweimal extensiv begutachtet werden, bevor sie vom IPCC genehmigt werden. Dieses Verfahren stellt sicher, dass die größtmögliche Bandbreite von Standpunkten in die Dokumente einfließt.

Mit anderen Worten, sie behalten sich die letztendliche Entscheidung vor, welche Daten für ihre Berichte und als Input für ihre Computermodelle verwendet werden.

Das hat alles lange Zeit funktioniert. Allerdings, wie es mit allen Betrügereien der Fall ist, enthüllt selbst das verworrenste Netz irgendwann seine wahre Natur. Sie fahren fort, dass atmosphärische CO2-Niveau zunehmen zu lassen und dieses dann der Welt vorzuführen als bestätigt durch die Messungen am Mauna Loa. Allerdings ist ihnen durch die Ankunft von Satellitenmessungen die Kontrolle über die jüngsten Temperaturdaten entglitten. Sie können die CO2-Daten jetzt nicht mehr niedriger machen, weil dies ihren gesamten Betrug offensichtlich machen würde, und sie sind dazu verdammt, alles, was noch übrig ist von ihrem Betrug und ihren Manipulationen zu verewigen. Alles, was ihnen blieb, ist u. A. die Abwärts-Korrektur historischer Aufzeichnungen, die Bezeichnung globale Erwärmung in Klimawandel zu ändern und immer schärfere Bedrohungs-Szenarien zu erzeugen wie etwa die genannten 12 Jahre bis zum von Santer prophezeiten sicheren Untergang.*

[*Ross McKittrick hat die entsprechende Studie von Santer in einem eigenen Beitrag widerlegt. Dieser folgt demnächst hier beim EIKE in deutscher Übersetzung. Anm. d. Übers.]

Link: https://wattsupwiththat.com/2019/03/03/anthropogenic-global-warming-agw-a-tangled-web-strangling-its-creators-and-proponents/

Übersetzt von Chris Frey EIKE