Safety First: Zum besseren Verständnis meiner hemisphä­rischen Energie­bilanz

Denn ein „natürlicher atmosphärischer Treibhauseffekt“ wurde niemals wissenschaftlich nachgewiesen, weder experimentell noch theoretisch. Vielmehr basiert selbst seine theoretische Ableitung über die Schwarzschild-Gleichung und die Strahlungstransfergleichungen auf den ominösen minus 18° Celsius aus der konventionellen (und falschen) S‐B Schwarzkörperberechnung, gemittelt über die gesamte Erdoberfläche, und deren rechnerischer Differenz von 33° Celsius zu einer global gemessenen Mitteltemperatur (Near Surface Temperature = NST) von plus 14,8° Celsius.

Im letzten Artikel über meinen hemisphärischen Stefan-Boltzmann Ansatz hier auf EIKE mit dem Titel „Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an“ hatte ich am Ende eine hemisphärische Gleichung für die globale Energiebilanz unserer Erde aufgestellt:

[1] (IN = 940 W/m² * R2) = (OUT = 235 W/m² * 4 R2) @ NST (= 14,8 °C)

Meine abschließende Erklärung lautete dort: „Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.“

Offenbar konnten die geschätzten Kommentatoren mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in der Form „P/A = * (T4-T04)“, die dieser Betrachtung zugrunde liegt, aber recht wenig anfangen, möglicherweise auch deshalb, weil es sich um ein richtiges Zitat aus einem „falschen Buch“ gehandelt haben soll. Und „falsche Bücher“ sind für wahre Gläubige bekanntermaßen höchst verwerflich. Immerhin hatte dort ein freundlicher Chronist die Zahl meiner häretischen Artikel für eine spätere IPCC-Inquisition bereits genauestens dokumentiert.
Aber eigentlich richten sich meine Artikel ja an interessierte Laien und ergebnisoffen denkende Fachleute: In den Kommentaren zu einem anderen EIKE-Artikel wurde gerade in einem Link auf den Vortrag von Klaus Ermecke „Energiepolitik im Konzeptnebel?“ verwiesen. Dort wiederum findet sich ab Minute 46:10 ein interessantes Diagramm, das die oben in Gleichungsform beschriebene Strahlungssituation auf unserer Erde grafisch verdeutlicht. Die nachstehende Abbildung von Herrn Ermecke ist daher für ein besseres Verständnis meiner Ausführungen zum hemisphärischen Stefan-Boltzmann Ansatz hervorragend geeignet:

Abbildung 1: Chart aus dem Vortrag von Klaus Ermecke „Energiepolitik im Konzeptnebel?“ © KE Research 2007/2009 mit freundlicher Genehmigung

Diese Abbildung von Ermecke hat gegenüber den bekannten Darstellungen von Kiehl und Trenberth zwei Vorteile und einen großen Nachteil: Einerseits beschränkt sie sich auf eine grundsätzliche Betrachtung der beiden wesentlichen Strahlungsvorgänge (IN und OUT) und beinhaltet insbesondere auch die Wärmespeicherung, andererseits fehlt hier eine Quantifizierung der Strahlungsflüsse. Diesen fehlenden Strahlungsflüssen ist nun mit meiner hemisphärischen Energiebilanz [1] sehr leicht abzuhelfen. Dort wird die temperaturwirksame hemisphärische Sonneneinstrahlung mit der durchschnittlichen globalen Abstrahlung gleichgesetzt. Und der Wärmeinhalt der globalen Zirkulationen (Atmosphäre und Ozeane) wird über die gemessene Durchschnittstemperatur unserer Erde (NST) definiert: Die NST wird üblicherweise mit 14,8 Grad Celsius angegeben. Sie stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN und OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten.

Der quasi-konstante NST-Wert wurde also bereits um die langjährige Ein-und Abstrahlung bereinigt und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun. Er repräsentiert vielmehr die natürlichen Wärmespeicher unserer Erde, deren eigener Wärmefluss aus dem Erdinneren dabei vernachlässigbar ist. Wenn wir also bei der NST in einer langjährigen Betrachtung alle tages- und jahreszeitlich variablen Prozesse auf unserer Erde als durchschnittlich ausgeglichen voraussetzen können, dann lassen sich die Begrifflichkeiten aus der obigen Abbildung von Ermecke und mein hemisphärischer Ansatz für die globale Energiebilanz unserer Erde folgendermaßen zusammenfügen:

Abbildung 2: Die Graphik von Klaus Ermecke mit den Werten aus Gleichung [1]

Wir können hier also folgende grafisch dargestellten Begrifflichkeiten und die physikalischen Größen aus der hemisphärischen Energiebilanz einander direkt zuordnen:

Heizsystem: Die Sonne liefert auf der Tagseite der Erde netto 940 W/m2 temperaturwirksame Strahlung auf einer Kreisfläche von R2 (mit dem Erdradius „R“).

Energiespeicherungs- und Transportsystem: Die NST von 14,8 °C repräsentiert den global gemittelten Netto-Wärmeinhalt von Atmosphäre und Ozeanen im Gleichgewicht von Ein- und Abstrahlung.

Kühlsystem: Die Erde strahlt im Temperaturgleichgewicht (NST=const.) durchschnittlich 235 W/m2 über ihre Gesamtfläche 4R2 in den Weltraum ab.

Damit ergibt sich in Kombination der Darstellung und Begrifflichkeiten von Ermecke mit Gleichung [1] das folgende Bild:

Abbildung 3: Kombination der Darstellung von Klaus Ermecke mit den Werten aus Gleichung [1]

Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes lautet in einer etwas ausführlicheren Form „S = S-S0 = * (T4-T04)“. Und jetzt wird hoffentlich auch deutlich, dass es entscheidend darauf ankommt, die S-B Umgebungstemperatur T0 bei allen Berechnungen korrekt zu definieren. Wenn man nämlich die Temperatur des Weltalls als Umgebungstemperatur der globalen Temperaturmeßstationen definiert, dann gelangt man zum konventionellen S-B Ansatz mit minus 18°C und einem „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad Celsius.

Aber wo stehen eigentlich die Thermometer der Messstationen für die Berechnung der NST, etwa am Rande des Weltraums?

Nein, keine der globalen Temperatur-Messstationen steht am Rande des Weltraums mit seiner Umgebungstemperatur von fast null Grad Kelvin. Selbst in der Polarnacht der jeweiligen Winterhemisphäre bleibt die gemessene Temperatur deutlich oberhalb von minus 100°C. Das T0 der S-B Umgebungsgleichung repräsentiert also die örtliche Temperatur von Atmosphäre und Ozeanen in der Umgebung der jeweiligen Messstation. Und im langjährigen Durchschnitt über alle Messstationen auf der Erde gilt dann folglich, dass diese S-B Umgebungstemperatur gleich der global gemessenen Durchschnittstemperatur sein muss, also „T0 = NST“.

Es ist schon sehr erstaunlich, wie sich der Absolute Nullpunkt einfach so in die konventionelle S-B Temperaturberechnung für unsere Erde „einschleichen“ konnte, obwohl er in der Umgebung der Temperaturmessstationen gar nicht vorkommt. Dieser Wert hat sich nämlich allein aus einer Betrachtung unserer Erde vom Weltraum aus ergeben. Und nach dem Stefan-Boltzmann-Gesetz müsste ein selbstleuchtender Stern, der mit konstant 235 W/m2 abstrahlt, tatsächlich eine Temperatur von minus 18°C aufweisen. Daraus entsteht das Paradoxon, dass, aus dem Weltraum betrachtet, unsere Erde zwar eine gemessene Mitteltemperatur von 14,8°C besitzt, aber nur mit durchschnittlich 235 W/m² anstatt mit 390 W/m² abstrahlt. Durch die Einführung eines „natürlichen atmosphärischen Treibhauseffektes“ (THE), der durch eine sogenannte „atmosphärische Gegenstrahlung“ verursacht werden soll, wird dieses Paradoxon nun in die Erdatmosphäre verlegt, ohne es aufzulösen. Dieser THE soll nämlich die Erdoberfläche zusätzlich um 33 °C von minus 18°C auf 14,8°C erwärmen, ohne dass sich die globale Abstrahlung von 235 W/m² dadurch verändert, Zitat (mit leicht abweichenden Strahlungswerten):

Die Erdoberfläche strahlt Wärme mit durchschnittlich 390 Watt pro Quadratmeter ab. Das entspricht der Wärmeabstrahlung eines sog. Schwarzen Körpers bei 15°C. In 70 km Höhe strahlt die Erde nach Absorption durch Treibhausgase und Wolken innerhalb der Atmosphäre nur noch Wärme mit durchschnittlich 240 Watt pro Quadratmeter ab. Das entspricht der Wärmeabstrahlung eines sog. Schwarzen Körpers bei -18°C. Die Differenz zwischen Boden und 70 km beträgt 150 Watt pro Quadratmeter und 33°C. Das ist die sog. Differenz für den natürlichen Treibhauseffekt.“

Dieses Zitat lässt sich allerdings auch umkehren:

Die Strahlungsdifferenz zwischen Erdboden und der Atmosphäre in 70 km Höhe beträgt angeblich 150 (ich rechne mit 155) Watt pro Quadratmeter und 33°C. Und die Abstrahlung eines Schwarzen Körpers mit einer beliebigen Temperatur (T) beträgt bei einer Umgebungstemperatur (T0 ungleich 0°K) nur dessen Strahlungsdifferenz entsprechend der S-B Umgebungsgleichung „S = * (T4-T04)“. Nach der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes kann ein Schwarzer Körper also mit einer deutlich geringeren Leistung abstrahlen, als es das Stefan-Boltzmann-Gesetz in dem Spezialfall (T0=0°K) mit „P/A=*T4“ vorgibt, denn es kommt dabei allein auf seine Umgebungstemperatur T0 an. Dabei gilt, dass diese Strahlung umso geringer wird, je kleiner die Temperaturdifferenz ist.

Und nun wenden wir den Blickwinkel des obigen Zitates auf die S-B Umgebungsgleichung an:

Die Atmosphäre in 70 km Höhe strahlt bei (T0=minus18°C) mit 240 (ich rechne mit 235) W/m² in den Weltraum ab. Diese rechnerische Differenz zum Wärmeinhalt der oberflächennahen Atmosphäre und der Ozeane mit durchschnittlich (T=14,8°C) entspricht dann nach der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes 150 (ich rechne mit 155) W/m². Bei diesen 150/155 W/m² handelt es sich also keineswegs um einen Wärmefluss vom Kälteren zum Wärmeren („Gegenstrahlung“), sondern um den Wärmefluss zwischen einem warmen und einem kälteren Körper nach der S-B Umgebungsgleichung. Und dazu bedarf es lediglich einer thermischen Schichtung der Erdatmosphäre, so wie sie sich nach obigem Zitat ja auch tatsächlich darstellt.

Die durchschnittliche Abstrahlung unserer Erde von 235 W/m2 (@ 4R2) steht bei einer durchschnittlichen „Speichertemperatur“ von 14,8°C von Atmosphäre und Ozeanen also im thermischen Gleichgewicht mit dem solaren Klimaantrieb von netto 940 W/m2 (@ R2). Und diese Beziehung lässt keinerlei Raum für einen „natürlichen atmosphärischen Treibhauseffekt“.

Übrigens findet man bereits bei Gerlich(†), und später auch bei Gerlich und Tscheuschner in der theoretischen Herleitung einer globalen Durchschnittstemperatur mit dem Stefan-Boltzmann-Gesetz eine Aufteilung der Strahlungsflüsse für die Tag- und Nachtseite der Erde. So wird in einem Vortragsskript von Professor Gerlich (1995), dort auf Seite 19, ein globaler S-B Ansatz mit einer breitenabhängigen Strahlungsmenge (σT4 = ν S cosϑ) auf der Tagseite und 0 W/m² auf der Nachtseite vorgestellt. Mit diesen beiden Randbedingungen wird dann allerdings über „0 bis 2π“ integriert, also über den gesamten Tagesverlauf von 24 Stunden. Das Ergebnis ist zwangsläufig eine konventionelle Mittelung der S-B Individualtemperaturen über die gesamte Erdoberfläche mit einem globalen Durchschnittswert von minus 129 °C bei 30% Albedo (dort Seite 20). Dieses Modell bildet einen einseitig bestrahlten und thermisch nicht speicherfähigen Schwarzkörper ab. Dasselbe Ergebnis findet man später auch bei Gerlich und Tscheuschner (2009), beispielsweise in Kapitel 3.7.4 der deutschen Übersetzung.

Die Temperaturgenese durch die Sonneneinstrahlung erfolgt aber ausschließlich auf der Tagseite der Erde (Integration über 0 bis π), während die Temperatur auf der Nachtseite der Erde (π bis 2π) wegen des Wärmeinhalts von Atmosphäre und Ozeanen niemals auf eine Temperatur von 0°Kelvin (entsprechend 0 W/m²) absinken kann. Das oben beschriebene Integral „0 bis 2π“ bildet also nicht die tatsächlich vorliegende Situation auf unserer Erde ab und ist deshalb wohl eher auf ihren Trabanten anwendbar (hier auf den Seiten 6 bis 8).

Fokussieren wir jetzt einmal auf die Tagseite der Erde: Die -129 °C aus der Berechnung von Professor Gerlich entsprechen 144°K und sind das rechnerische Temperaturmittel für die gesamte Erdoberfläche (nachfolgend FE) aus den individuellen S-B Ortstemperaturen. Folglich gilt:

Mittelung von T @ FE: (Σi=1n Ti + Σj=1m Tj)/(n+m) = 144°K

mit den Temperaturen Ti(i=1 bis n) auf der Nachtseite und Tj(j=1 bis m) auf der Tagseite
(n+m) = Anzahl aller Einzelwerte auf der Tag- und Nachtseite, die zur Mittelung beitragen

Tag- und Nachtseite der Erde sind symmetrische Halbkugeln, daher gilt (i=j) und (n=m):

für die Nachtseite @FE/2 gilt: Σi=1n Ti = 0°K

damit ergibt die Mittelung @ FE : (Σj=1m Tjj)/(2m) = 144°K

für die Tagseite @FE/2 gilt dann: (Σj=1m Tjj)/(m) = 2 * 144°K = 288°K = 15°C

Oder ganz einfach ausgedrückt: Bei der Mittelung von Professor Gerlich stammen alle Temperaturen ungleich Null von der Tagseite der Erde. Wenn wir uns bei der Durchschnittsbildung also auf diese Hälfte der Erdoberfläche beschränken, dann verdoppelt sich das Ergebnis auf 15°C. Und damit wären wir dann wieder bei meinem hemisphärischen Stefan-Boltzmann Ansatz…

Hier die beiden PDFs:

2018_a    2018_b




Warum das Vorsorge-Prinzip schlechte Politik ist

Die meisten Ängste stellen sich jedoch ziemlich schnell als falsch heraus. Auf jede echte Gefahr kommen hunderte von falschen Gefahren. Über das Nichteintreffen einer Gefahr wird allgemein nichts berichtet, weil derartige Informationen einfach keinen Nachrichtenwert haben. Folge: Die meisten geschürten falschen Ängste bleiben irgendwo im öffentlichen Bewusstsein haften.

Beispiel: im Jahre 1981 hieß es, dass Kaffee ursächlich sein soll für 50% aller Fälle von Bauchspeicheldrüsenkrebs. Aber die Wissenschaftler, die diese Behauptung in Umlauf gebracht hatten, zogen dieselbe im Jahre 1986 wieder zurück. Dennoch dauerte es bis zum Jahr 2016, bis die International Agency for Research on Cancer die Behauptung zurückzog, dass Kaffee eine mögliche Ursache für Krebs sei. Wahrscheinlich dauert es noch sehr viel länger, bis diese Angst aus dem öffentlichen Bewusstsein verschwunden ist.

Das Problem bei diesen vermeintlichen Gefahren ist natürlich, dass wir nicht im Voraus wissen, welche dieser Gefahren echt und welche falsch ist. Aber in den meisten Fällen ist der von falschen Ängsten angerichtete Schaden gering. Vielleicht hören einige von uns auf, Kaffee zu trinken, aber das ist unerheblich.

Erst wenn Regierungen sich den [falschen] Ängsten annehmen, kann es unheilvoll werden. Riesige Mengen Steuergelder könnten dann verschwendet oder irrationale Verbote verhängt werden.

Wir wissen, wie schwierig es ist, Regierungen davon abzuhalten, sich in unser Leben einzumischen. Die Kosten-Nutzen-Analyse wurde besonders deswegen eingeführt, um Bürokratien davon abzuhalten, schon bei geringsten Gefahren gleich Amok zu laufen.

Die Kosten-Nutzen-Analyse kann oftmals verschlungen sein. Alle Bürokraten und Minister hassen sie, aber es ist wichtig, ihnen eine entscheidende Disziplin aufzuerlegen.

Die Kosten-Nutzen-Analyse ist besonders geeignet, um mit Ängsten umzugehen. Dessen Forderung nach eindeutigen Beweise für Schäden (oder zumindest der beste verfügbare Beweis für Schäden) sowie eine Analyse mit Szenarien unterschiedlicher Risiken können einen vernünftigen und umsichtigen Weg weisen.

Da sich die meisten Ängste ohnehin als falsch herausstellen (wie die AGW-Angst und die GM-Angst [GM = genmanipulierte Nahrungsmittel]), ist es sehr wichtig, die Regierungen nicht von der Leine zu lassen.

Unglücklicherweise wurde die hart errungene Verbesserung politischer Entscheidungsprozesse mittels des Kosten-Nutzen-Verfahrens nach der Einführung des Vorsorgeprinzips in den neunziger Jahren beiseite geschoben. Die vielleicht beste Formulierung hinsichtlich der Umwelt findet sich im Prinzip 15 der Rio-Deklaration aus dem Jahr 1992, die da lautet: „Um die Umwelt zu schützen, sollte das Vorsorgeprinzip in großem Umfang von den Staaten entsprechend ihren Möglichkeiten angewendet werden. Wo es Bedrohungen mit ernsten oder irreversiblen Schäden gibt, sollte das Fehlen voller wissenschaftlicher Sicherheit nicht angeführt werden, um kosteneffektive Maßnahmen zum Schutz der Umwelt zu verschieben“.

Dies mahnt die Regierungen (die „Staaten“) energisch vorzugehen, falls sie den Verdacht haben, dass etwas falsch laufen könnte – ein Verdacht reicht schon. Es verlangt von den Regierungen nicht, die Art der Schädigung zu verstehen oder auch nur zu überlegen, ob der Schaden überhaupt eintreten wird.

Es mahnt die Regierungen nicht dazu, eine bessere Szenarien-Analyse durchzuführen und die Option zu wählen, welche für die Gesellschaft am vorteilhaftesten ist. Stattdessen ist es im Endeffekt ein Appell, das Kosten-Nutzen-Verfahren zu übergehen und einen Blanko-Scheck für starke Maßnahmen auszustellen.

Auf diese Weise verleiht das Vorsorgeprinzip den Bürokraten die Freiheit, nur die Vorteile anzusprechen (z. B. die vermeintlichen Vorteile erneuerbarer Energie) und dabei die Kosten zu ignorieren – oder nur die imaginären Kosten anzuführen (z. B. bei genmanipulierten Nahrungsmitteln) und die Vorteile zu ignorieren.

Dieser Grundsatz kehrt die Beweislast für Schäden bei behördlichen Eingriffen um. Er unterminiert die Vernunft und Aufklärung selbst, was uns in die Dark Ages zurückführt. Es ist unmöglich, über das Vorsorgeprinzip zu streiten, weil es besonders den Gebrauch von Logik ausschließt.

Wäre dieses Prinzip in der Vergangenheit angewendet worden, wäre es Wissenschaftlern nicht gestattet gewesen, Impfstoffe oder Antibiotika zu entwickeln, welche unvermeidlich ein paar Nebenwirkungen haben und in sehr seltenen Fällen sogar tödlich wirken können.

Während die Anwendung des Vorsorgeprinzips einige wenige Nebenwirkungen verhindert hätte, wäre es aber auch nicht zum Hauptnutzen gekommen – nämlich zur Rettung hunderter Millionen Menschenleben. Nur eine soziale Kosten-Nutzen-Analyse kann uns dabei helfen, die Gesamtheit aller Kosten und den Nutzen gegeneinander abzuwägen.

Gleichermaßen hätte das Vorsorgeprinzip es den Wissenschaftlern nicht gestattet, Kernforschung zu betreiben, gab es doch da das Risiko des Baus einer Atombombe. Aber Kernforschung hat uns nicht nur die Atombombe beschert, sondern auch die Kernkraft, den Flug eines mit Kernkraft betriebenen Raumfahrzeugs zum Mars, Nuklear-Medizin, Röntgenbilder und Strahlungs-Therapien.

Mittels der Ausbeutung unserer Ängste verleiht das Vorsorgeprinzip die Macht über unsere Präferenzen und Entscheidungen nicht nur den nationalen machthungrigen Regierungen, sondern auch globalen Mega-Bürokratien. Das IPCC ist nur ein Beispiel hierfür.

Dieses Prinzip war ein Gottesgeschenk für die Linken nach dem Zusammenbruch des Kommunismus‘. Die Schönheit des Vorsorgeprinzips liegt für die Sozialisten darin, dass es ihnen ermöglicht wird, moralische Überlegenheit zu kapern, während sie die vollständige Kontrolle über die Gesellschaft fordern. Der Green New Deal der Sozialisten in den USA ist bis heute eines der unverschämtesten Beispiele dafür. Und er basiert vollständig auf dem Vorsorgeprinzip.

—————————

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/why-the-precautionary-principle-is-bad-policy/




Der Treibhaus-Effekt – das wissen­schaftliche Verfahren

Heute behauptet das IPCC, dass wir uns in einer „Klima-Krise“ befinden, welche zum Aussterben von einer Million Spezies führen wird und die eine große Gefahr für die Menschheit ist. Im jüngsten Sonderbericht vom Oktober 2018 des IPCC heißt es:

Prophezeiungen zufolge wird ein Anstieg der Temperatur Extremwetter-Ereignisse hervorrufen, steigenden Meeresspiegel, das Aussterben von Spezies und eine reduzierte Kapazität zur Erzeugung von Nahrungsmitteln.

Im 4. Nationalen Klimazustands-Bericht der USA finden sich ähnliche Behauptungen, darunter:

Gesundheit: Auswirkungen durch den Klimawandel bzgl. Extremwetter und Ereignissen mit Klimabezug, Luftqualität und die Übertragung von Krankheiten durch Insekten und Schädlinge, auf Nahrung und Wasser bedrohen immer stärker die Gesundheit und das Wohlergehen der amerikanischen Bevölkerung, besonders Populationen, die schon jetzt verwundbar sind.

Und: Landwirtschaft: steigende Temperatur, extreme Hitze, Dürre und Buschbrände auf Weideflächen sowie schwere Wolkenbrüche werden die landwirtschaftliche Produktivität in den USA zunehmend beeinträchtigen. Erwartete Zunahmen der Schwierigkeiten für Nutzvieh, abnehmende Ernteerträge und -qualität sowie Änderungen bzgl. Extremereignissen in den USA und anderswo bedrohen ländliche Landschaften, eine nachhaltige Versorgung mit Nahrungsmitteln und die Preisstabilität.

Die Alarme wurden inzwischen so intensiv, dass es in einem Artikel in Kaiser Health News heißt:

Therapeut Andrew Bryant sagt, dass der grundlegende Klimareport der UN aus dem vorigen Oktober neue mentale Gesundheitsprobleme bei Patienten auslöste.

Ich erinnere mich an Sitzungen mit Leuten am nächsten Tag. Sie hatten Klimawandel niemals zuvor erwähnt, und es war wie ,ich höre immer wieder von diesem Report’“, sagte Bryant. „Einige Patienten brachten ängstliche Gefühle zum Ausdruck, und auch während der Folgesitzungen sprachen wir über das Thema“.

Obwohl es sich nicht um eine offizielle klinische Diagnose handelt, haben die psychiatrischen und psychologischen Gemeinschaften Bezeichnungen für das Phänomen: „Klima-Stress“, „Klima-Kummer“, „Klima-Angst“ oder „Öko-Angst“.

Eine entscheidende Frage ist: Wie sehr wenden das IPCC und das USGCRP das wissenschaftliche Verfahren an? Die Antwort lautet: „überhaupt nicht!“. Man stützt sich auf Spekulationen und nicht auf physikalische Beweise durch Experimente und rigorose Beobachtungen. Im TWTW [= The Week That Was, eine Rubrik, die in der im WUWT erscheinenden wöchentlichen Rubrik von SEPP „Weekly Climate and Energy News Roundup“ jeweils am Anfang steht. Anm. d. Übers.] vom 15. Juni 2019 diskutierte das Right Climate Stuff Research Team (TRCS), bestehend aus „pensionierten Veteranen der Apollo-Mission und anderen frühen bemannten Raumflügen, die sich freiwillig trafen, um ihre wissenschaftlichen und Ingenieur-Erfahrungen anzubieten, um eine objektive, unabhängige Abschätzung des AGW-Alarms und die Wahrscheinlichkeit einer tatsächlichen Bedrohung durchzuführen“.

Unter Ausnutzung ihrer nachweislichen Erfahrungen bei der Problem-Identifizierung und -Spezifizierung, bei Grundlagen-Analysen und dem Treffen von Entscheidungen durchforsteten sie hunderte von Berichten und technischen Studien mit Relevanz zu diesem Thema, und sie diskutierten darüber mit Experten auf allen Seiten der Kontroverse. Auf der Grundlage der Prinzipien der Energie-Einsparung entwarfen sie ihr eigenes Modell bzgl. AGW, in welches Treibhausgas-Daten und die Temperatur der Erde von 1850 bis 2017 eingingen. Anders als das IPCC und deren Folge-Institutionen haben sie ihr Modell validiert.

In einem Video auf der unten verlinkten Website des TCRS erklärt Hal Doiron die Ergebnisse und die Defizite in den Ergebnissen von IPCC und USGCRP. Doiron schrieb:

Das primäre Problem, das wir bzgl. der Klimaforschung und dessen alarmierender Prophezeiungen einer globalen Erwärmung sehen ist, dass man sich viel zu sehr auf nicht validierte Modelle in den Schlussfolgerungen und Veröffentlichungen beruft. Wir, die NASA-Weltraum-Veteranen, ignorieren automatisch derartige nicht validierte Modelle und konzentrieren uns ausschließlich auf verfügbare physikalische Daten, denn das ist genau das, was man uns antrainiert hat und was die Erfahrungen des Unbekannten bzgl. der bemannten Raumfahrt uns lehrten.

Die NASA hat seine Politik im [Sonderbericht] NASA-STD-7009 festgeschrieben. Sie verbietet die Verwendung der Ergebnisse von nicht validierten Modellen bei allen Entscheidungen bzgl. der bemannten Raumfahrt, wenn die Sicherheit der Menschen auf dem Spiel steht.

Das Problem scheint darin zu bestehen, die Führung der NASA dazu zu bringen, das wissenschaftliche Verfahren auf alle seine Publikationen anzuwenden. Siehe die diesbezüglichen Links hier.

————————————

Autor Ken Haapala ist Präsident des Science and Environmental Policy Project SEPP

Link: https://wattsupwiththat.com/2019/07/22/weekly-climate-and-energy-news-roundup-368/, erster Beitrag.

Übersetzt von Chris Frey EIKE




Klima-Extremis­mus: Demokratie und Fortschritt stehen vor dem Aussterben

Extinction Rebellion hatte jüngst nichts Besseres zu tun als den Verkehr in Bristol zu blockieren als Teil ihres Planes, den Planeten zu retten. Allerdings stellt sich heraus, dass sehr Viele sich über Verkehrsstaus, verursacht durch Hippies und radikalisierte Jugendliche, schwer ärgern.

Ein Anrufer bei BBC Bristol behauptete, dass Ärzte ihm gesagt hätten, sofort zu seinem Vater zu kommen, weil dieser im Sterben liege, bevor es zu spät ist. Der Rückstau bedeutete, dass er nun tatsächlich zu spät kam.

Der Vorfall in Bristol ist ein weiterer Indikator dafür, dass der Streit über den Klimawandel rasch zu einer absteckenden Trennlinie wird in dem gefürchteten Kulturkampf in UK. Zusammen mit der nationalen Schlammschlacht um den Brexit kommt die Schlacht um die Umwelt als eine Teilung in Klassen, politische Haltungen und Stammeszugehörigkeit daher.

Jüngere Wähler neigen dazu, zutiefst besorgt zu sein ob der globalen Erwärmung. Sie machen für den Klimawandel die vermeintliche Selbst-Absorption einer verbrauchssüchtigen ältere Generation verantwortlich, die nichts anderes im Sinn hat als ein möglichst starkes BIP-Wachstum – viel stärker als der Planet verkraften kann. Die Radikalen wollen sofortige Maßnahmen gegen Autos, Flugzeuge und Gasöfen. Und sie sind felsenfest davon überzeugt, unanfechtbar recht zu haben.

Da gibt es aber einen Haken. Die Vorgänge der letzten Jahre belegen, dass die Belehrung vermeintlich minder bemittelter Zeitgenossen (nach Bildung und ökonomisch) durch rechthaberische Individuen der Mittelklasse nicht gut funktioniert. Widerstand und der Wunsch, scheinheiligen und tyrannisierenden Eliten einen Tritt zu versetzen, spielten eine nicht unerhebliche Rolle beim Ergebnis des Brexit-Referendums.

Werden die meisten Wähler begrüßen, was als Nächstes von der grünen Front kommt? Um das Versprechen der Regierung umzusetzen, bis zum Jahr 2050 Kohlenstoff-neutral zu werden, muss den Verbrauchern bald von ihren Oberen beigebracht werden, wie man effektiv Millionen von Gasöfen ersetzt, wie man obligatorische und unwirksame Induktionsherde in der Küche betreibt und dass man eine potentiell strafende Besteuerung von Petroleum und Flugreisen einführen muss.

Extiction Rebellion sagt, dass selbst das 2050-Ziel beklagenswert unzureichend ist. UK muss bis 2025 Kohlenstoff-neutral werden; Wirtschaftswachstum muss effektiv beendet werden, und die Massen-Blockade auf Straßen wird sich verstärken, bis sie bekommen, was sie haben wollen.

Schon jetzt überlastete Polizeikräfte sind zutiefst besorgt über die Protest-Pläne von Extinction Rebellion. Bristol vor ein paar Tagen war lediglich eine Mittsommer-Probe für viel umfangreichere Vor-Brexit-Proteste, die im Oktober geplant sind, warnte die Polizeiführung. The Times berichtet, dass die Polizei sich viel härtere Strafen für Wiederholungstäter wünscht.

Die Bedenken der Polizeidirektion reflektieren die Warnungen in einem Report mit der Bezeichnung Extremism Rebellion, veröffentlicht in dieser Woche von der Denkfabrik Policy Exchange. Die Autoren, von denen einer, nämlich Richard Walton, ein ehemaliger Leiter einer Polizei-Abteilung gegen Terrorismus ist, wurden dafür kritisiert, die Protestierer als radikale und extremistische Anarchisten bezeichnet zu haben, die wie wild darauf aus sind, die Demokratie zu beseitigen. Aber sie haben verdammt recht. Die Demokratie steht auf dem Spiel. Extinction Rebellion akzeptiert keine grundlegenden demokratischen Prinzipien und möchte das britische parlamentarische System abschaffen.

Dies wurde offensichtlich in einer bei oberflächlicher Betrachtung vernünftig klingenden Rede von Rupert Read. Der Philosoph wurde zum offiziellen Sprecher von ER, der in dieser Woche im Radio die Proteste verteidigte. Read hat es wiederholt nicht geschafft, ins Parlament gewählt zu werden. Kann es sein, dass es eine Verbindung gibt zwischen diesem Umstand und seinem Trachten nach Veränderung des politischen Systems, unter welchem er immer wieder gescheitert ist?

Extiction Rebellion ist nicht im Entferntesten anti-demokratisch, sondern man will einfach eine neue Art der Demokratie, sagte Read der BBC. Dies könnte verlockend klingen angesichts der Art und Weise, mit der die Brexit-Farce den Glauben an unsere Institutionen unterminiert hat. ER will eine Bürger-Versammlung – ein beruhigender Terminus – ins Leben rufen. Diese soll Ministern und Abgeordneten (den Abgeordneten, die wir wählen!) sagen, was sie tun sollen. „Ein Bürgerrat zu Klima und ökologischer Gerechtigkeit wird diesen gordischen Knoten durchschlagen“, sagt die Organisation. „Politikern wird Zugang zu öffentlichen Beurteilungen gegeben, die auf faire und informierte Art und Weise zustande gekommen waren“.

Das Modell ist in mehreren Ländern angewendet worden, um schwierige moralische Sackgassen aufzubrechen. Aber kein Land hat das Modell bei der Aufgabe angewendet – aus guten Gründen – dessen Wirtschaft und Gesellschaft umzumodeln und wirtschaftliches Wachstum zu beenden.

Die inhärenten Inkonsistenzen des Bürgerrats werden schnell schreiend hervortreten bei Anwendung auf die Wirtschaft. Was passiert, falls die für den Rat ausgewählten Bürger nicht genau dem folgen, was Extinction Rebellion will? ER sagte, dass dieser Klima-Notstand eine existenzielle Krise ist, weshalb es unwahrscheinlich ist, dass die Blockaden aufhören, selbst wenn die Wähler in einer Folgewahl die Größe der Rechnung erkennen und diejenigen närrischen Abgeordneten hinauswerfen, welche die Kontrolle einem Bürgerrat übergeben hatten – vermutlich ins Leben gerufen unter einem Überwachungs-Komitee unter der Leitung von Rupert Read.

Es gibt einen fundamentalen demokratischen Einwand. Jeder, der danach trachtet, der Wirtschaft das zuzufügen, was Extinction Rebellion plant, sollte dies in ein Partei-Manifest gießen; es sollte hinterfragt werden von Medien und Wählern, von geeigneten Kandidaten vertreten werden, im Kampf gegen andere Parteien gewinnen, eine Regierung bilden, falls sie die Sitze bekommen und mittels Gesetzgebung und/oder Referendum das Ende der Ökonomie implementieren, wie wir sie kennen.

Kein Wunder, dass Extinction Rebellion das konventionelle Vorgehen scheut. Sie werden niemals der Gewinner sein. Während die Öffentlichkeit empfänglich ist für allgemeine Gedanken, den Planeten zu schützen, wird es niemals so etwas wie eine Mehrheit für eine Palette politischer Maßnahmen geben, die das Fliegen sowie wirtschaftliches Wachstum verbieten, wenn die Emissionen von UK drastisch gesunken sind und neue Ökonomien so viel mehr emittieren.

———————————–

Die ganze Story steht hier.

Link: https://www.thegwpf.com/climate-extremism-democracy-and-progress-are-facing-extinction/

Übersetzt von Chris Frey EIKE




Klima-Alarmisten: Hitzewelle Deutschland (Wetter) = Hitzewelle auf der ganzen Welt (Klima)

Schon vor einigen Woche hat der Autor dazu Beiträge verfasst, zuletzt hier. Die darin am Schluss aufgestellte Behauptung, dass es im Juli keine neuerliche Hitzewelle geben würde, war dabei natürlich völlig daneben. Andererseits: Man kann daran sehen, was passiert, wenn man sich ungenau ausdrückt: Die Aussage, dass „eine neuerliche Hitzewelle im Juli damit unwahrscheinlich ist“, hätte besser gepasst – und würde auch jetzt passen. Denn: Bei Wetter-Statistiken (und genau das war ja die Aussage) gibt es nun einmal keinen Korrelationsfaktor 1!

Damit sind wir aber beim Thema. Im oben verlinkten Beitrag war es um die Hitzewelle Ende Juni gegangen. Das damalige Zirkulationsmuster wies mit dem derzeitigen Zirkulationsmuster eine Ähnlichkeit auf, wie sie bei Wetter (und hier geht es ja ausschließlich um Wetter!) auch nicht jedes Jahr vorkommt. Andererseits – gibt es nicht bei Wetter immer eine Erhaltensneigung?

Schauen wir mal im Einzelnen. Damals ging die Hitzewelle bei uns einher mit einem wirklich ungewöhnlichen Kaltluftvorstoß vor der Iberischen Halbinsel. Und genau das Gleiche ist jetzt auch wieder der Fall:

Abbildung 1: Geopotential im 500-hPa-Niveau (farbig) und Bodendruck (weiße Linien) von Freitag dem 26.7.2019, 00 UTC (= 02 Uhr MESZ)

Man erkennt genau wie damals einen Trog und damit einher gehend einen Kaltluftkörper, der zum zweiten Mal innerhalb eines Monats Juli so weit nach Süden reicht, wie es selbst im Winter nicht jedes Mal vorkommt. Man siehe dazu die Beschreibung im oben verlinkten Beitrag. Eine atmosphärische „Etage“ tiefer stellt sich das Ganze so dar:

Abbildung 2: Temperaturverteilung im 850-hPa-Niveau (farbig) und Höhenlinien der 850-hPa-Fläche über NN (Die Bezifferung 155 über Norddeutschland bedeutet, dass entlang der hindurch laufenden Linie der Luftdruck in 1550 m ü. NN genau 850 hPa beträgt. Die Bezifferung 135 über dem Ostatlantik bedeutet entsprechend, dass genau dieser Luftdruck dort schon in einer Höhe von 1350 m ü. NN herrscht).

Bemerkung zu den beiden Graphiken: Es handelt sich um eine numerische Vorhersage von 24 Stunden. Alle Graphiken von Wetterzentrale.de

Abbildung 3: Satellitenbild vom 25. Juli 2019, 06 UTC (= 08 MESZ). Die kumuliforme Bewölkung belegt die ungewöhnlich weit nach Süden ausgreifende Kaltluft.

Einen wichtigen Beitrag zu diesem Thema hat kürzlich auch KÄMPFE geschrieben (hier). Darin belegt er ganz allgemein eine Tendenz zu meridionalen (= N-S bzw. S-N) Strömungsmustern und eines allgemein geringen zonalen Grundstromes (= Westwind-Komponente). Die derzeitige Wetterlage ist ein weiterer Beleg dafür. Wenn der ausgleichende Einfluss eines Ozeans fehlt, sind natürlich die vom Festland geprägten Extreme viel größer. Das gilt für alle Zeitmaßstäbe, also auch Jahreszeiten. Da darf man auf den kommenden Winter gespannt sein. Eine Südlage wie derzeit im Januar hätte zwar auf den Bergen ebenfalls sehr mildes Wetter zur Folge (vielleicht mit Föhn im Alpenvorland), aber sonst dürfte sich in den bodennahen Luftschichten ziemlich die Kaltluft halten.

Hier sollen aber noch weitere bemerkenswerte Vorgänge angesprochen werden. Zu der beschriebenen verstärkten meridionalen Komponente gehört natürlich auch mal eine Strömung von der anderen Seite, also von Norden und Nordwesten. Genau das war ja in diesem Monat auch der Fall, und zwar um den 10. Juli. Es gab auch hier ein Extrem, soll doch die Temperatur in Bad Berleburg in NRW am Morgen des 9. Juli 2019 unter -3°C gesunken sein. Nun muss man natürlich bei allen gemeldeten Temperaturextremen vorsichtig sein, weil nie dazu gesagt wird, wie diese Messungen durchgeführt worden waren. Der Vizepräsident des EIKE Michael Limburg kann ein Lied davon singen.

Dennoch, es war für Juli „ungewöhnlich“ kalt. Der beste Beleg dafür ist die Neuschneeauflage auf dem Zugspitzplatt von 30 cm am 10. Juli.

Aber hat man jemals in den Mainstream-Medien von diesem Kälterekord etwas gehört?

Dieser Kaltlufteinbruch dürfte verhindern, dass auch die Mitteltemperatur des Juli 2019 rekordhoch ausfällt. Und damit noch einmal zurück zur Bemerkung in der Einleitung, dass Hitzewellen „im Zuge des Klimawandels immer öfter auftreten“.

Was dabei völlig ausgeblendet wird: Die zweite große „Kältewelle“ vor der Iberischen Halbinsel ist dort ziemlich sicher genauso extrem wie die Hitze bei uns. Nur: Dort wohnt keiner, dort misst keiner. Würde man aber beide Anomaliegebiete (Hitze hier, Kälte dort) übereinanderlegen, käme als Temperatur-Anomalie wohl ziemlich genau Null heraus. Für die „Klimakatastrophe“ bleibt also nichts übrig.

Eindrucksvoll wird dieser Umstand von einer Karte der Abweichung der Temperatur im 850-hPa-Niveau belegt:

Abbildung 4: Abweichung der Temperatur im 850-hPa-Niveau. Näheres dazu bei wetterzentrale.de. Link zur Graphik hier.

Man erkennt klar, wie isoliert das Wärmezentrum über Mitteleuropa daher kommt. Legt man alle Anomaliegebiete nur im Kartenausschnitt übereinander, dürfte sogar weniger als Null herauskommen.

Abschließend soll noch auf einen ähnlich bemerkenswerten Vorgang hingewiesen werden, der im Mittelfrist-Zeitraum (5 bis 7 Tage) von den Wettervorhersage-Modellen simuliert wird, und zwar über Osteuropa. Es wäre noch ein Beleg für die von Kämpfe beschriebenen Zirkulationsmuster:

Abbildung 5: Gleiche Darstellung wie Abbildung 1, aber vorausberechnet für Dienstag, den 30. Juli 2019.

Abbildung 6: Wie vor, jedoch im 850-hPa-Niveau

Die Entwicklung eines ganzen Sturmwirbels mitten über dem Festland in Nordosteuropa ist extrem ungewöhnlich, genauso wie der Kaltluftvorstoß auf seiner Westseite. Die Temperatur im 850-hPa-Niveau soll über Nordskandinavien bis -5°C sinken. Das würde bis fast hinunter auf Seehöhe Schneeschauer bedeuten.

Man stelle sich mal vor, ein ähnlicher Vorgang würde sich in einem halben Jahr abspielen… .