Alarmisten-Website: Hitze-Rekord von Lingen ist unbrauchbar!

Nun hat sogar eine fest auf der alarmistischen Seite verdrahtete Website, nämlich wetteronline.de, selbst sozusagen „amtlich“ diesen Wert aus seinen Statistiken entfernt wegen „so viel berechtigter Kritik, dass wetteronline diesen Wert nicht anerkennt“.

Zur Begründung wird im Wesentlichen aufkommender Baumwuchs genannt, der „die Belüftungs-Situation ändert“.

Dann aber kommt es dicke: Man liest: „erkennt man den Wert nicht an, rücken ,Klimawandelleugner‘ auf den Plan und erklären, dass es nach dem Medienhype ja gar nicht so heiß gewesen sei“. Natürlich fehlt jeder Hinweis darauf, wer mit „Klimawandelleugner“ gemeint ist. Dem Autor jedenfalls ist kein einziger bekannt.

Dann kommt aber noch etwas: „Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standortqualität im Allgemeinen aufgetaucht. Denn auch hierbei treten viele Probleme auf, insbesondere wenn es um Wolken- und Wetterzustandsmeldungen geht“. Na sowas! Da müssen bei den Betreibern von wetteronline aber viele Stirnen gerunzelt worden sein.

Der Link zur entsprechenden Site von Wetteronline steht hier.




Die Öko-Faschisten schlagen wieder zu!

Zum Beispiel habe ich bereits im Jahre 2009 auf die Arbeit eines australischen Philosophen verwiesen, welcher schrieb: „Wenn der Groschen gefallen ist, glaube ich, dass Demokratie ein weniger wichtiges Ziel ist als der Schutz des Planeten vor dem Ende des Lebens auf ihm“ (Es gibt weitere derartige Statements unter diesem Link).

Diese Woche wartete Foreign Policy mit der direkten Schlagzeile auf [übersetzt]: „Demokratie ist der größte Feind des Planeten“ [Original: Democracy Is the Planet’s Greatest Enemy]. Schön, dass Freiheit und Selbstbestimmung so offen angegriffen werden. Aus dem Artikel:

Falls die Wahldemokratie unzureichend ist, um gegen den Klimawandel vorzugehen – und diese Aufgabe ist derzeit die dringendste, vor der die Menschheit steht – dann sind andere Arten der Politik dringend erforderlich. Die radikalste Alternative wäre es, sich von der Demokratie insgesamt loszusagen. Das autoritäre System in China hat bestimmte Vorteile, wenn es darum geht, dem Klimawandel zu begegnen: Ein-Parteien-Gesetz bedeutet sich freimachen von Wahlzyklen und weniger Bedarf an öffentlichen Beratungen. Technokratische Lösungen, welche die Macht in die Hände nicht gewählter Experten legen, könnte grundlegende Entscheidungen aus den Händen der Wähler nehmen.

Fast könnte man glauben, dass es sich hier um eine Parodie handelt, wenn ich es nicht besser wüsste. Man schaue mal am Grab von Woodrow Wilson*, ob vielleicht sein Geist entwichen ist.

[*Man schaue ggf. hier bei Wikipedia, wer das war. Er hat als Präsident der USA Anfang des 20. Jahrhunderts u. A. die Rassentrennung in den USA wieder eingeführt. Anm. d. Übers.]

———————————–

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/the-eco-fascists-strike-again/

Übersetzt von Chris Frey EIKE




Safety First: Zum besseren Verständnis meiner hemisphä­rischen Energie­bilanz

Denn ein „natürlicher atmosphärischer Treibhauseffekt“ wurde niemals wissenschaftlich nachgewiesen, weder experimentell noch theoretisch. Vielmehr basiert selbst seine theoretische Ableitung über die Schwarzschild-Gleichung und die Strahlungstransfergleichungen auf den ominösen minus 18° Celsius aus der konventionellen (und falschen) S‐B Schwarzkörperberechnung, gemittelt über die gesamte Erdoberfläche, und deren rechnerischer Differenz von 33° Celsius zu einer global gemessenen Mitteltemperatur (Near Surface Temperature = NST) von plus 14,8° Celsius.

Im letzten Artikel über meinen hemisphärischen Stefan-Boltzmann Ansatz hier auf EIKE mit dem Titel „Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an“ hatte ich am Ende eine hemisphärische Gleichung für die globale Energiebilanz unserer Erde aufgestellt:

[1] (IN = 940 W/m² * R2) = (OUT = 235 W/m² * 4 R2) @ NST (= 14,8 °C)

Meine abschließende Erklärung lautete dort: „Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.“

Offenbar konnten die geschätzten Kommentatoren mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in der Form „P/A = * (T4-T04)“, die dieser Betrachtung zugrunde liegt, aber recht wenig anfangen, möglicherweise auch deshalb, weil es sich um ein richtiges Zitat aus einem „falschen Buch“ gehandelt haben soll. Und „falsche Bücher“ sind für wahre Gläubige bekanntermaßen höchst verwerflich. Immerhin hatte dort ein freundlicher Chronist die Zahl meiner häretischen Artikel für eine spätere IPCC-Inquisition bereits genauestens dokumentiert.
Aber eigentlich richten sich meine Artikel ja an interessierte Laien und ergebnisoffen denkende Fachleute: In den Kommentaren zu einem anderen EIKE-Artikel wurde gerade in einem Link auf den Vortrag von Klaus Ermecke „Energiepolitik im Konzeptnebel?“ verwiesen. Dort wiederum findet sich ab Minute 46:10 ein interessantes Diagramm, das die oben in Gleichungsform beschriebene Strahlungssituation auf unserer Erde grafisch verdeutlicht. Die nachstehende Abbildung von Herrn Ermecke ist daher für ein besseres Verständnis meiner Ausführungen zum hemisphärischen Stefan-Boltzmann Ansatz hervorragend geeignet:

Abbildung 1: Chart aus dem Vortrag von Klaus Ermecke „Energiepolitik im Konzeptnebel?“ © KE Research 2007/2009 mit freundlicher Genehmigung

Diese Abbildung von Ermecke hat gegenüber den bekannten Darstellungen von Kiehl und Trenberth zwei Vorteile und einen großen Nachteil: Einerseits beschränkt sie sich auf eine grundsätzliche Betrachtung der beiden wesentlichen Strahlungsvorgänge (IN und OUT) und beinhaltet insbesondere auch die Wärmespeicherung, andererseits fehlt hier eine Quantifizierung der Strahlungsflüsse. Diesen fehlenden Strahlungsflüssen ist nun mit meiner hemisphärischen Energiebilanz [1] sehr leicht abzuhelfen. Dort wird die temperaturwirksame hemisphärische Sonneneinstrahlung mit der durchschnittlichen globalen Abstrahlung gleichgesetzt. Und der Wärmeinhalt der globalen Zirkulationen (Atmosphäre und Ozeane) wird über die gemessene Durchschnittstemperatur unserer Erde (NST) definiert: Die NST wird üblicherweise mit 14,8 Grad Celsius angegeben. Sie stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN und OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten.

Der quasi-konstante NST-Wert wurde also bereits um die langjährige Ein-und Abstrahlung bereinigt und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun. Er repräsentiert vielmehr die natürlichen Wärmespeicher unserer Erde, deren eigener Wärmefluss aus dem Erdinneren dabei vernachlässigbar ist. Wenn wir also bei der NST in einer langjährigen Betrachtung alle tages- und jahreszeitlich variablen Prozesse auf unserer Erde als durchschnittlich ausgeglichen voraussetzen können, dann lassen sich die Begrifflichkeiten aus der obigen Abbildung von Ermecke und mein hemisphärischer Ansatz für die globale Energiebilanz unserer Erde folgendermaßen zusammenfügen:

Abbildung 2: Die Graphik von Klaus Ermecke mit den Werten aus Gleichung [1]

Wir können hier also folgende grafisch dargestellten Begrifflichkeiten und die physikalischen Größen aus der hemisphärischen Energiebilanz einander direkt zuordnen:

Heizsystem: Die Sonne liefert auf der Tagseite der Erde netto 940 W/m2 temperaturwirksame Strahlung auf einer Kreisfläche von R2 (mit dem Erdradius „R“).

Energiespeicherungs- und Transportsystem: Die NST von 14,8 °C repräsentiert den global gemittelten Netto-Wärmeinhalt von Atmosphäre und Ozeanen im Gleichgewicht von Ein- und Abstrahlung.

Kühlsystem: Die Erde strahlt im Temperaturgleichgewicht (NST=const.) durchschnittlich 235 W/m2 über ihre Gesamtfläche 4R2 in den Weltraum ab.

Damit ergibt sich in Kombination der Darstellung und Begrifflichkeiten von Ermecke mit Gleichung [1] das folgende Bild:

Abbildung 3: Kombination der Darstellung von Klaus Ermecke mit den Werten aus Gleichung [1]

Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes lautet in einer etwas ausführlicheren Form „S = S-S0 = * (T4-T04)“. Und jetzt wird hoffentlich auch deutlich, dass es entscheidend darauf ankommt, die S-B Umgebungstemperatur T0 bei allen Berechnungen korrekt zu definieren. Wenn man nämlich die Temperatur des Weltalls als Umgebungstemperatur der globalen Temperaturmeßstationen definiert, dann gelangt man zum konventionellen S-B Ansatz mit minus 18°C und einem „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad Celsius.

Aber wo stehen eigentlich die Thermometer der Messstationen für die Berechnung der NST, etwa am Rande des Weltraums?

Nein, keine der globalen Temperatur-Messstationen steht am Rande des Weltraums mit seiner Umgebungstemperatur von fast null Grad Kelvin. Selbst in der Polarnacht der jeweiligen Winterhemisphäre bleibt die gemessene Temperatur deutlich oberhalb von minus 100°C. Das T0 der S-B Umgebungsgleichung repräsentiert also die örtliche Temperatur von Atmosphäre und Ozeanen in der Umgebung der jeweiligen Messstation. Und im langjährigen Durchschnitt über alle Messstationen auf der Erde gilt dann folglich, dass diese S-B Umgebungstemperatur gleich der global gemessenen Durchschnittstemperatur sein muss, also „T0 = NST“.

Es ist schon sehr erstaunlich, wie sich der Absolute Nullpunkt einfach so in die konventionelle S-B Temperaturberechnung für unsere Erde „einschleichen“ konnte, obwohl er in der Umgebung der Temperaturmessstationen gar nicht vorkommt. Dieser Wert hat sich nämlich allein aus einer Betrachtung unserer Erde vom Weltraum aus ergeben. Und nach dem Stefan-Boltzmann-Gesetz müsste ein selbstleuchtender Stern, der mit konstant 235 W/m2 abstrahlt, tatsächlich eine Temperatur von minus 18°C aufweisen. Daraus entsteht das Paradoxon, dass, aus dem Weltraum betrachtet, unsere Erde zwar eine gemessene Mitteltemperatur von 14,8°C besitzt, aber nur mit durchschnittlich 235 W/m² anstatt mit 390 W/m² abstrahlt. Durch die Einführung eines „natürlichen atmosphärischen Treibhauseffektes“ (THE), der durch eine sogenannte „atmosphärische Gegenstrahlung“ verursacht werden soll, wird dieses Paradoxon nun in die Erdatmosphäre verlegt, ohne es aufzulösen. Dieser THE soll nämlich die Erdoberfläche zusätzlich um 33 °C von minus 18°C auf 14,8°C erwärmen, ohne dass sich die globale Abstrahlung von 235 W/m² dadurch verändert, Zitat (mit leicht abweichenden Strahlungswerten):

Die Erdoberfläche strahlt Wärme mit durchschnittlich 390 Watt pro Quadratmeter ab. Das entspricht der Wärmeabstrahlung eines sog. Schwarzen Körpers bei 15°C. In 70 km Höhe strahlt die Erde nach Absorption durch Treibhausgase und Wolken innerhalb der Atmosphäre nur noch Wärme mit durchschnittlich 240 Watt pro Quadratmeter ab. Das entspricht der Wärmeabstrahlung eines sog. Schwarzen Körpers bei -18°C. Die Differenz zwischen Boden und 70 km beträgt 150 Watt pro Quadratmeter und 33°C. Das ist die sog. Differenz für den natürlichen Treibhauseffekt.“

Dieses Zitat lässt sich allerdings auch umkehren:

Die Strahlungsdifferenz zwischen Erdboden und der Atmosphäre in 70 km Höhe beträgt angeblich 150 (ich rechne mit 155) Watt pro Quadratmeter und 33°C. Und die Abstrahlung eines Schwarzen Körpers mit einer beliebigen Temperatur (T) beträgt bei einer Umgebungstemperatur (T0 ungleich 0°K) nur dessen Strahlungsdifferenz entsprechend der S-B Umgebungsgleichung „S = * (T4-T04)“. Nach der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes kann ein Schwarzer Körper also mit einer deutlich geringeren Leistung abstrahlen, als es das Stefan-Boltzmann-Gesetz in dem Spezialfall (T0=0°K) mit „P/A=*T4“ vorgibt, denn es kommt dabei allein auf seine Umgebungstemperatur T0 an. Dabei gilt, dass diese Strahlung umso geringer wird, je kleiner die Temperaturdifferenz ist.

Und nun wenden wir den Blickwinkel des obigen Zitates auf die S-B Umgebungsgleichung an:

Die Atmosphäre in 70 km Höhe strahlt bei (T0=minus18°C) mit 240 (ich rechne mit 235) W/m² in den Weltraum ab. Diese rechnerische Differenz zum Wärmeinhalt der oberflächennahen Atmosphäre und der Ozeane mit durchschnittlich (T=14,8°C) entspricht dann nach der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes 150 (ich rechne mit 155) W/m². Bei diesen 150/155 W/m² handelt es sich also keineswegs um einen Wärmefluss vom Kälteren zum Wärmeren („Gegenstrahlung“), sondern um den Wärmefluss zwischen einem warmen und einem kälteren Körper nach der S-B Umgebungsgleichung. Und dazu bedarf es lediglich einer thermischen Schichtung der Erdatmosphäre, so wie sie sich nach obigem Zitat ja auch tatsächlich darstellt.

Die durchschnittliche Abstrahlung unserer Erde von 235 W/m2 (@ 4R2) steht bei einer durchschnittlichen „Speichertemperatur“ von 14,8°C von Atmosphäre und Ozeanen also im thermischen Gleichgewicht mit dem solaren Klimaantrieb von netto 940 W/m2 (@ R2). Und diese Beziehung lässt keinerlei Raum für einen „natürlichen atmosphärischen Treibhauseffekt“.

Übrigens findet man bereits bei Gerlich(†), und später auch bei Gerlich und Tscheuschner in der theoretischen Herleitung einer globalen Durchschnittstemperatur mit dem Stefan-Boltzmann-Gesetz eine Aufteilung der Strahlungsflüsse für die Tag- und Nachtseite der Erde. So wird in einem Vortragsskript von Professor Gerlich (1995), dort auf Seite 19, ein globaler S-B Ansatz mit einer breitenabhängigen Strahlungsmenge (σT4 = ν S cosϑ) auf der Tagseite und 0 W/m² auf der Nachtseite vorgestellt. Mit diesen beiden Randbedingungen wird dann allerdings über „0 bis 2π“ integriert, also über den gesamten Tagesverlauf von 24 Stunden. Das Ergebnis ist zwangsläufig eine konventionelle Mittelung der S-B Individualtemperaturen über die gesamte Erdoberfläche mit einem globalen Durchschnittswert von minus 129 °C bei 30% Albedo (dort Seite 20). Dieses Modell bildet einen einseitig bestrahlten und thermisch nicht speicherfähigen Schwarzkörper ab. Dasselbe Ergebnis findet man später auch bei Gerlich und Tscheuschner (2009), beispielsweise in Kapitel 3.7.4 der deutschen Übersetzung.

Die Temperaturgenese durch die Sonneneinstrahlung erfolgt aber ausschließlich auf der Tagseite der Erde (Integration über 0 bis π), während die Temperatur auf der Nachtseite der Erde (π bis 2π) wegen des Wärmeinhalts von Atmosphäre und Ozeanen niemals auf eine Temperatur von 0°Kelvin (entsprechend 0 W/m²) absinken kann. Das oben beschriebene Integral „0 bis 2π“ bildet also nicht die tatsächlich vorliegende Situation auf unserer Erde ab und ist deshalb wohl eher auf ihren Trabanten anwendbar (hier auf den Seiten 6 bis 8).

Fokussieren wir jetzt einmal auf die Tagseite der Erde: Die -129 °C aus der Berechnung von Professor Gerlich entsprechen 144°K und sind das rechnerische Temperaturmittel für die gesamte Erdoberfläche (nachfolgend FE) aus den individuellen S-B Ortstemperaturen. Folglich gilt:

Mittelung von T @ FE: (Σi=1n Ti + Σj=1m Tj)/(n+m) = 144°K

mit den Temperaturen Ti(i=1 bis n) auf der Nachtseite und Tj(j=1 bis m) auf der Tagseite
(n+m) = Anzahl aller Einzelwerte auf der Tag- und Nachtseite, die zur Mittelung beitragen

Tag- und Nachtseite der Erde sind symmetrische Halbkugeln, daher gilt (i=j) und (n=m):

für die Nachtseite @FE/2 gilt: Σi=1n Ti = 0°K

damit ergibt die Mittelung @ FE : (Σj=1m Tjj)/(2m) = 144°K

für die Tagseite @FE/2 gilt dann: (Σj=1m Tjj)/(m) = 2 * 144°K = 288°K = 15°C

Oder ganz einfach ausgedrückt: Bei der Mittelung von Professor Gerlich stammen alle Temperaturen ungleich Null von der Tagseite der Erde. Wenn wir uns bei der Durchschnittsbildung also auf diese Hälfte der Erdoberfläche beschränken, dann verdoppelt sich das Ergebnis auf 15°C. Und damit wären wir dann wieder bei meinem hemisphärischen Stefan-Boltzmann Ansatz…

Hier die beiden PDFs:

2018_a    2018_b




Warum das Vorsorge-Prinzip schlechte Politik ist

Die meisten Ängste stellen sich jedoch ziemlich schnell als falsch heraus. Auf jede echte Gefahr kommen hunderte von falschen Gefahren. Über das Nichteintreffen einer Gefahr wird allgemein nichts berichtet, weil derartige Informationen einfach keinen Nachrichtenwert haben. Folge: Die meisten geschürten falschen Ängste bleiben irgendwo im öffentlichen Bewusstsein haften.

Beispiel: im Jahre 1981 hieß es, dass Kaffee ursächlich sein soll für 50% aller Fälle von Bauchspeicheldrüsenkrebs. Aber die Wissenschaftler, die diese Behauptung in Umlauf gebracht hatten, zogen dieselbe im Jahre 1986 wieder zurück. Dennoch dauerte es bis zum Jahr 2016, bis die International Agency for Research on Cancer die Behauptung zurückzog, dass Kaffee eine mögliche Ursache für Krebs sei. Wahrscheinlich dauert es noch sehr viel länger, bis diese Angst aus dem öffentlichen Bewusstsein verschwunden ist.

Das Problem bei diesen vermeintlichen Gefahren ist natürlich, dass wir nicht im Voraus wissen, welche dieser Gefahren echt und welche falsch ist. Aber in den meisten Fällen ist der von falschen Ängsten angerichtete Schaden gering. Vielleicht hören einige von uns auf, Kaffee zu trinken, aber das ist unerheblich.

Erst wenn Regierungen sich den [falschen] Ängsten annehmen, kann es unheilvoll werden. Riesige Mengen Steuergelder könnten dann verschwendet oder irrationale Verbote verhängt werden.

Wir wissen, wie schwierig es ist, Regierungen davon abzuhalten, sich in unser Leben einzumischen. Die Kosten-Nutzen-Analyse wurde besonders deswegen eingeführt, um Bürokratien davon abzuhalten, schon bei geringsten Gefahren gleich Amok zu laufen.

Die Kosten-Nutzen-Analyse kann oftmals verschlungen sein. Alle Bürokraten und Minister hassen sie, aber es ist wichtig, ihnen eine entscheidende Disziplin aufzuerlegen.

Die Kosten-Nutzen-Analyse ist besonders geeignet, um mit Ängsten umzugehen. Dessen Forderung nach eindeutigen Beweise für Schäden (oder zumindest der beste verfügbare Beweis für Schäden) sowie eine Analyse mit Szenarien unterschiedlicher Risiken können einen vernünftigen und umsichtigen Weg weisen.

Da sich die meisten Ängste ohnehin als falsch herausstellen (wie die AGW-Angst und die GM-Angst [GM = genmanipulierte Nahrungsmittel]), ist es sehr wichtig, die Regierungen nicht von der Leine zu lassen.

Unglücklicherweise wurde die hart errungene Verbesserung politischer Entscheidungsprozesse mittels des Kosten-Nutzen-Verfahrens nach der Einführung des Vorsorgeprinzips in den neunziger Jahren beiseite geschoben. Die vielleicht beste Formulierung hinsichtlich der Umwelt findet sich im Prinzip 15 der Rio-Deklaration aus dem Jahr 1992, die da lautet: „Um die Umwelt zu schützen, sollte das Vorsorgeprinzip in großem Umfang von den Staaten entsprechend ihren Möglichkeiten angewendet werden. Wo es Bedrohungen mit ernsten oder irreversiblen Schäden gibt, sollte das Fehlen voller wissenschaftlicher Sicherheit nicht angeführt werden, um kosteneffektive Maßnahmen zum Schutz der Umwelt zu verschieben“.

Dies mahnt die Regierungen (die „Staaten“) energisch vorzugehen, falls sie den Verdacht haben, dass etwas falsch laufen könnte – ein Verdacht reicht schon. Es verlangt von den Regierungen nicht, die Art der Schädigung zu verstehen oder auch nur zu überlegen, ob der Schaden überhaupt eintreten wird.

Es mahnt die Regierungen nicht dazu, eine bessere Szenarien-Analyse durchzuführen und die Option zu wählen, welche für die Gesellschaft am vorteilhaftesten ist. Stattdessen ist es im Endeffekt ein Appell, das Kosten-Nutzen-Verfahren zu übergehen und einen Blanko-Scheck für starke Maßnahmen auszustellen.

Auf diese Weise verleiht das Vorsorgeprinzip den Bürokraten die Freiheit, nur die Vorteile anzusprechen (z. B. die vermeintlichen Vorteile erneuerbarer Energie) und dabei die Kosten zu ignorieren – oder nur die imaginären Kosten anzuführen (z. B. bei genmanipulierten Nahrungsmitteln) und die Vorteile zu ignorieren.

Dieser Grundsatz kehrt die Beweislast für Schäden bei behördlichen Eingriffen um. Er unterminiert die Vernunft und Aufklärung selbst, was uns in die Dark Ages zurückführt. Es ist unmöglich, über das Vorsorgeprinzip zu streiten, weil es besonders den Gebrauch von Logik ausschließt.

Wäre dieses Prinzip in der Vergangenheit angewendet worden, wäre es Wissenschaftlern nicht gestattet gewesen, Impfstoffe oder Antibiotika zu entwickeln, welche unvermeidlich ein paar Nebenwirkungen haben und in sehr seltenen Fällen sogar tödlich wirken können.

Während die Anwendung des Vorsorgeprinzips einige wenige Nebenwirkungen verhindert hätte, wäre es aber auch nicht zum Hauptnutzen gekommen – nämlich zur Rettung hunderter Millionen Menschenleben. Nur eine soziale Kosten-Nutzen-Analyse kann uns dabei helfen, die Gesamtheit aller Kosten und den Nutzen gegeneinander abzuwägen.

Gleichermaßen hätte das Vorsorgeprinzip es den Wissenschaftlern nicht gestattet, Kernforschung zu betreiben, gab es doch da das Risiko des Baus einer Atombombe. Aber Kernforschung hat uns nicht nur die Atombombe beschert, sondern auch die Kernkraft, den Flug eines mit Kernkraft betriebenen Raumfahrzeugs zum Mars, Nuklear-Medizin, Röntgenbilder und Strahlungs-Therapien.

Mittels der Ausbeutung unserer Ängste verleiht das Vorsorgeprinzip die Macht über unsere Präferenzen und Entscheidungen nicht nur den nationalen machthungrigen Regierungen, sondern auch globalen Mega-Bürokratien. Das IPCC ist nur ein Beispiel hierfür.

Dieses Prinzip war ein Gottesgeschenk für die Linken nach dem Zusammenbruch des Kommunismus‘. Die Schönheit des Vorsorgeprinzips liegt für die Sozialisten darin, dass es ihnen ermöglicht wird, moralische Überlegenheit zu kapern, während sie die vollständige Kontrolle über die Gesellschaft fordern. Der Green New Deal der Sozialisten in den USA ist bis heute eines der unverschämtesten Beispiele dafür. Und er basiert vollständig auf dem Vorsorgeprinzip.

—————————

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/why-the-precautionary-principle-is-bad-policy/




Der Treibhaus-Effekt – das wissen­schaftliche Verfahren

Heute behauptet das IPCC, dass wir uns in einer „Klima-Krise“ befinden, welche zum Aussterben von einer Million Spezies führen wird und die eine große Gefahr für die Menschheit ist. Im jüngsten Sonderbericht vom Oktober 2018 des IPCC heißt es:

Prophezeiungen zufolge wird ein Anstieg der Temperatur Extremwetter-Ereignisse hervorrufen, steigenden Meeresspiegel, das Aussterben von Spezies und eine reduzierte Kapazität zur Erzeugung von Nahrungsmitteln.

Im 4. Nationalen Klimazustands-Bericht der USA finden sich ähnliche Behauptungen, darunter:

Gesundheit: Auswirkungen durch den Klimawandel bzgl. Extremwetter und Ereignissen mit Klimabezug, Luftqualität und die Übertragung von Krankheiten durch Insekten und Schädlinge, auf Nahrung und Wasser bedrohen immer stärker die Gesundheit und das Wohlergehen der amerikanischen Bevölkerung, besonders Populationen, die schon jetzt verwundbar sind.

Und: Landwirtschaft: steigende Temperatur, extreme Hitze, Dürre und Buschbrände auf Weideflächen sowie schwere Wolkenbrüche werden die landwirtschaftliche Produktivität in den USA zunehmend beeinträchtigen. Erwartete Zunahmen der Schwierigkeiten für Nutzvieh, abnehmende Ernteerträge und -qualität sowie Änderungen bzgl. Extremereignissen in den USA und anderswo bedrohen ländliche Landschaften, eine nachhaltige Versorgung mit Nahrungsmitteln und die Preisstabilität.

Die Alarme wurden inzwischen so intensiv, dass es in einem Artikel in Kaiser Health News heißt:

Therapeut Andrew Bryant sagt, dass der grundlegende Klimareport der UN aus dem vorigen Oktober neue mentale Gesundheitsprobleme bei Patienten auslöste.

Ich erinnere mich an Sitzungen mit Leuten am nächsten Tag. Sie hatten Klimawandel niemals zuvor erwähnt, und es war wie ,ich höre immer wieder von diesem Report’“, sagte Bryant. „Einige Patienten brachten ängstliche Gefühle zum Ausdruck, und auch während der Folgesitzungen sprachen wir über das Thema“.

Obwohl es sich nicht um eine offizielle klinische Diagnose handelt, haben die psychiatrischen und psychologischen Gemeinschaften Bezeichnungen für das Phänomen: „Klima-Stress“, „Klima-Kummer“, „Klima-Angst“ oder „Öko-Angst“.

Eine entscheidende Frage ist: Wie sehr wenden das IPCC und das USGCRP das wissenschaftliche Verfahren an? Die Antwort lautet: „überhaupt nicht!“. Man stützt sich auf Spekulationen und nicht auf physikalische Beweise durch Experimente und rigorose Beobachtungen. Im TWTW [= The Week That Was, eine Rubrik, die in der im WUWT erscheinenden wöchentlichen Rubrik von SEPP „Weekly Climate and Energy News Roundup“ jeweils am Anfang steht. Anm. d. Übers.] vom 15. Juni 2019 diskutierte das Right Climate Stuff Research Team (TRCS), bestehend aus „pensionierten Veteranen der Apollo-Mission und anderen frühen bemannten Raumflügen, die sich freiwillig trafen, um ihre wissenschaftlichen und Ingenieur-Erfahrungen anzubieten, um eine objektive, unabhängige Abschätzung des AGW-Alarms und die Wahrscheinlichkeit einer tatsächlichen Bedrohung durchzuführen“.

Unter Ausnutzung ihrer nachweislichen Erfahrungen bei der Problem-Identifizierung und -Spezifizierung, bei Grundlagen-Analysen und dem Treffen von Entscheidungen durchforsteten sie hunderte von Berichten und technischen Studien mit Relevanz zu diesem Thema, und sie diskutierten darüber mit Experten auf allen Seiten der Kontroverse. Auf der Grundlage der Prinzipien der Energie-Einsparung entwarfen sie ihr eigenes Modell bzgl. AGW, in welches Treibhausgas-Daten und die Temperatur der Erde von 1850 bis 2017 eingingen. Anders als das IPCC und deren Folge-Institutionen haben sie ihr Modell validiert.

In einem Video auf der unten verlinkten Website des TCRS erklärt Hal Doiron die Ergebnisse und die Defizite in den Ergebnissen von IPCC und USGCRP. Doiron schrieb:

Das primäre Problem, das wir bzgl. der Klimaforschung und dessen alarmierender Prophezeiungen einer globalen Erwärmung sehen ist, dass man sich viel zu sehr auf nicht validierte Modelle in den Schlussfolgerungen und Veröffentlichungen beruft. Wir, die NASA-Weltraum-Veteranen, ignorieren automatisch derartige nicht validierte Modelle und konzentrieren uns ausschließlich auf verfügbare physikalische Daten, denn das ist genau das, was man uns antrainiert hat und was die Erfahrungen des Unbekannten bzgl. der bemannten Raumfahrt uns lehrten.

Die NASA hat seine Politik im [Sonderbericht] NASA-STD-7009 festgeschrieben. Sie verbietet die Verwendung der Ergebnisse von nicht validierten Modellen bei allen Entscheidungen bzgl. der bemannten Raumfahrt, wenn die Sicherheit der Menschen auf dem Spiel steht.

Das Problem scheint darin zu bestehen, die Führung der NASA dazu zu bringen, das wissenschaftliche Verfahren auf alle seine Publikationen anzuwenden. Siehe die diesbezüglichen Links hier.

————————————

Autor Ken Haapala ist Präsident des Science and Environmental Policy Project SEPP

Link: https://wattsupwiththat.com/2019/07/22/weekly-climate-and-energy-news-roundup-368/, erster Beitrag.

Übersetzt von Chris Frey EIKE