Ein Fall des Vergleichs von Äpfeln mit Mandarinen und Erdbeeren…

Trotz des wachsenden Widerstandes gegen Windparks auf der ganzen Welt seitens prominenter Umweltaktivisten, Naturschützer und besorgter Bürger glauben viele Menschen immer noch naiv an das simplistische Märchen der Vorteile von Windparks. Typisch für diese simple Denkweise, welche das Thema Klimawandel allgemein untermauert, ist, dass der operettenhafte Glorienschein um erneuerbare Energie niemals einer reifen, rationalen Diskussion darüber ausgesetzt worden ist, ob die Kosten – umweltlicher, ökonomischer und sozialer Art – die vermeintlichen Vorteile nicht weit überwiegen. Sicher ist Wind sauber und erneuerbar. Daraus folgt aber nicht, dass die industriellen Maschinen zum Abfangen des Windes ebenfalls sauber, erneuerbar oder in irgendeiner Weise ,gut‘ für die Umwelt oder die Menschen sind, weder allgemein noch an speziellen Orten. Zumindest sollten die Negativa genauso offen und ehrlich diskutiert werden wie es bei den Positiva der Fall ist.

Der öffentlich geäußerte Widerstand von Mr. Brown gegen den Windpark führte dazu, dass er von allen Seiten angegriffen wurde ob seiner scheinheiligen NIMBY*-Haltung angesichts seiner vorherigen Unterstützung für erneuerbare Energie und seiner vorherigen Proteste gegen die Adani-Kohlezeche. Die Wohlmeinenderen behaupteten, er sei einfach ,falsch informiert‘ und brachten online eine Flut schäbiger Argumente und Statistiken vor nebst Links zu ,wissenschaftlichen Studien‘, um die Windparks gegen das Argument des Massentodes der fliegenden Fauna zu verteidigen.

[*NIMBY = Not In My Back Yard = nicht vor meiner Haustür. Anm. d. Übers.]

Eine Studie, auf die immer wieder verwiesen wird, trägt den Titel [übersetzt] „Die Kosten fossiler Treibstoffe und von Kernkraft bzgl. Flora und Fauna“ [Original: The Avian and Wildlife Costs of Fossil Fuels and Nuclear Power], erschienen am 4. Dezember 2012 im Journal of Integrative Environmental Sciences (vol. 9, 255-278). Der Autor schreibt, dass „frühere Begutachtungen von 616 Studien zu Windenergie und Vogelsterben zu dem Ergebnis gekommen waren, dass jeder einzelne eine negative Verbindung zwischen Windenergie und der Natur ringsum zeichnet“ (Sovacool 2009). Er fährt dann fort, Windparks zu preisen, wendet dabei aber zutiefst betrügerische Logiken und Verfahren an. Die Studie vergleicht direkte Auswirkungen vor Ort (d. h. tatsächliche Todesfälle von Vögeln von Kollisionen mit Kühltürmen von Kernkraftwerken sowie Überland-Stromleitungen) PLUS die indirekten Todesfälle stromauf- und -abwärts durch den gesamten Kohle- und Uran-Treibstoffzyklus wie Bergbau, Zerstörung von Habitaten und Verbrennung. Folgerichtig berechnet die Studie 46.000 tote Vögel durch Windparks 2009 in den USA, 460.000 durch Kernkraftwerke und 24 Millionen durch fossile Kraftwerke! Das ist äquivalent zu einer Todesrate pro Gigawatt von jeweils 0,27; 0,6 und 9,4.

Nun könnte man argumentieren, dass die Auswirkungen der Treibstoff-Extraktion nicht für Windparks gelten, weil Wind der ,Treibstoff‘ ist. Aber die Studie versäumt es, die gesamte Palette bzgl. der Errichtung von Windturbinen und Windparks zu erfassen, als da wären Bergbau, Infrastruktur, Herstellung und Zerstörung von Habitaten. All dies hat genau wie Kohle und Kernkraft indirekte Auswirkungen auf Vögel. Eine Erweiterung von Windparks bedeutet, dass das Material für viele weitere Schlacht-Maschinen abgebaut werden muss, und viel mehr Landfläche wird zur Stromerzeugung verbraucht. Wegen der geringen Energiedichte von Windenergie ist ein Landverbrauch 40 bis 50 mal so groß wie der eines Kohlekraftwerkes und 90 bis 100 mal so groß wie der eines Gaskraftwerkes erforderlich.

In die Studie haben auch sämtliche vermeintliche Schäden der fossilen Treibstoffe bzgl. der höchst strittigen, unbewiesenen und schlecht definierten Auswirkungen auf den ,Klimawandel‘ Eingang gefunden:

Hinsichtlich fossil betriebener Kraftwerke stammen die bedeutendsten Todesfälle vom Klimawandel, welcher Wetterabläufe ändert und die Habitate zerstört, auf welche die Vögel angewiesen sind.

Das ist eine durch und durch ungestützte Behauptung. Tatsächlich heißt es im 5. IPCC-Zustandsbericht:

Es gibt SEHR GERINGES Vertrauen, dass das beobachtete Aussterben von Spezies der jüngsten Erwärmung zugeordnet werden kann, was dem SEHR GERINGEN Anteil von Aussterbefällen geschuldet ist, welche dem Klimawandel zugeschrieben werden sowie der DÜRFTIGEN NATUR der meisten Zuordnungen.

In der Studie heißt es weiter:

Zieht man die vom IPCC erwarteten mittelfristigen Szenarien des Klimawandels in Betracht, wird projiziert, dass 15% bis 37% aller Vogel-Spezies bis zum Jahr 2050 ausgestorben sein könnten. Auch diese Zahlen können vorsichtig quantifiziert werden zu 9,16 Todesfällen pro GWh durch Öl-, Erdgas- und Kohlekraftwerke.

Vorsichtig‘ tatsächlich. Falls beobachtete Aussterbefälle von Spezies nicht dem gegenwärtigen Klimawandel zugeordnet werden können, wie ist es dann möglich, zukünftige Aussterbe-Fälle einem schlecht definierten und unbewiesenen ,Klimawandel‘ zuzuordnen? Der Autor betont, dass „die Berechnung der Relation zwischen Vogeltod und Klimawandel zugegebenermaßen grob vereinfachend ist“. Unglücklicherweise ist dies jedoch nicht das, was die ideologisch blinden Leser aus dieser Studie mitnehmen. Die erstaunliche Zahl von 24 Millionen getöteten Vögeln, welche fossilen Treibstoffen in die Schuhe geschoben wird, ändert sich dramatisch, wenn der ,Klimawandel‘ aus der Gleichung genommen wird. Selbst wenn man den Bergbau auf das Schuldkonto der fossilen Treibstoffe, aber nicht auf das Schuldkonto von Windparks schreibt, dann erkennt man, dass Windparks eine höhere Todesrate aufweisen von 0,269 pro GWh im Vergleich zu 0,2 für Energie aus fossilen Treibstoffen.

Die Schlussfolgerung der Studie, wonach Windparks eine geringere Vogelsterblichkeit pro Gigawattstunde aufweisen als Energie aus Kohle oder Kernkraft, enthält eine weitere falsche Hypothese: „Der breitere Verbrauch von Windenergie kann Wildnis und Vögel retten, weil er diese schädlicheren Stromquellen ersetzt“. Dies leugnet den Umstand, dass alle Windparks Backup-Energie benötigen, welche gewöhnlich durch fossile Treibstoffe oder Kernkraft zur Verfügung gestellt wird. Die umweltlichen Auswirkungen ordentlich zu unterscheiden zwischen Windenergie und anderen Energiequellen ist vollkommen unaufrichtig. Tatsächlich zeigen jüngste Studien, dass die Nachfrage nach fossilen Treibstoffen zunimmt, wenn erneuerbare Energie ausgeweitet wird. Um fossile Energie und Kernkraft vollständig mit Wind- (und/oder Solar-)Parks zu ersetzen, bräuchte man Batterien, deren indirekte Auswirkungen ebenfalls Eingang finden müssten in die Berechnung der Auswirkungen des Treibstoff-Zyklus‘ auf Habitate, wenn man einen Äpfel-mit-Äpfeln-Vergleich vornehmen möchte.

James Hansen, einer der bekanntesten Alarmisten der globalen Erwärmung, stellte im Jahre 2016 fest:

Der Gedanke, dass erneuerbare Energien & Batterien allein alle benötigte Energie zur Verfügung stellen werden, ist phantastisch. Es ist auch ein grotesker Gedanke wegen der erschütternden Umweltverschmutzung durch Bergbau und Abraum-Lagerung, falls die gesamte Energie aus Erneuerbaren und Batterien gewonnen wird“.

Und schließlich fährt die Studie damit fort, das fadenscheinigste aller Argumente zu bringen: Erheblich mehr Vögel kommen zu Tode durch Überlandleitungen, Mobilfunk-Masten, Autos, Fenster in Gebäuden und Katzen. Die Folgerung: „Die Auswirkungen von Windturbinen sind daher vernachlässigbar im Vergleich zu anderen Ursachen der Vogelsterblichkeit“.

Dieses leere Argument wird von den Twitterern, den Aktivisten, Akademikern und den Medien online wieder und immer wieder wiederholt – aber dennoch ist die Schlussfolgerung eine aberwitzig unlogische Schlussfolgerung. Keine der anderen Ursachen von Vogelsterblichkeit verschwindet, egal welche Art Energie wir verbrauchen! Es ist unsinnig zu argumentieren, dass weil mehr Todesfälle schon jetzt verursacht werden durch andere Faktoren, die damit gar nicht im Zusammenhang stehen, sind zusätzliche Todesfälle inkonsequent, vor allem, wenn man die speziellen Vogelspezies im Blick hat, die von Windparks betroffen werden. Katzen töten keine Adler. Es ist so, als würden wir argumentieren, dass weil wir schon jetzt viele Fische fangen, es kein Thema ist, dass wir mehr Fische fangen im Großen Barriere-Riff. Weil es schon jetzt große umweltliche Auswirkungen gibt, ist es inkonsequent, anderswo zusätzliche Umweltauswirkungen mittels negativer Aktivitäten zu erzeugen. Lächerlich.

Zur Ehre des Autors muss gesagt werden, dass er ,eine Anzahl hervorstechender Begrenzungen der Studie‘ einräumt, wenn er schreibt, dass „die Rolle des Klimawandels bzgl. des Aussterbens von Vogelspezies‘ – obschon wirklich besorglich – nicht überzeugend ist und dass man daher dieser mit extremer Vorsicht entgegen gehen muss“. Er schreibt auch, dass „diese Ergebnisse keine Lizenz für Vögel tötende Windturbinen sind, für Windparks, die fahrlässig errichtet werden oder für Forschungen nach besseren Designs, die Windenergie weniger destruktiv machen bzgl. Wildnis und Habitate“.

Es ist eine Schande, dass jene Begrenzungen (und die große Anzahl von Studien, welche belegen, dass Windparks tatsächlich eine ernste Bedrohung für Vögel und Fledermäuse sind), von all Jenen ignoriert werden, die einer Agenda folgen, und dass zweifelhafte, nicht nachvollziehbare Berechnungen und kaum begründete Rechtfertigungen weiterhin Munition für zahllose Klimawandel-Aktivisten liefern als ,Beweis‘, dass Millionen durch Windparks getötete Vögel unbedeutend sind.

Link: https://wattsupwiththat.com/2019/07/23/a-case-of-comparing-apples-to-tangelos-and-strawberries/

Übersetzt von Chris Frey EIKE




Alarmisten-Website: Hitze-Rekord von Lingen ist unbrauchbar!

Nun hat sogar eine fest auf der alarmistischen Seite verdrahtete Website, nämlich wetteronline.de, selbst sozusagen „amtlich“ diesen Wert aus seinen Statistiken entfernt wegen „so viel berechtigter Kritik, dass wetteronline diesen Wert nicht anerkennt“.

Zur Begründung wird im Wesentlichen aufkommender Baumwuchs genannt, der „die Belüftungs-Situation ändert“.

Dann aber kommt es dicke: Man liest: „erkennt man den Wert nicht an, rücken ,Klimawandelleugner‘ auf den Plan und erklären, dass es nach dem Medienhype ja gar nicht so heiß gewesen sei“. Natürlich fehlt jeder Hinweis darauf, wer mit „Klimawandelleugner“ gemeint ist. Dem Autor jedenfalls ist kein einziger bekannt.

Dann kommt aber noch etwas: „Wird er für ungültig erklärt, wären wohl schnell unangenehme Fragen zur Standortqualität im Allgemeinen aufgetaucht. Denn auch hierbei treten viele Probleme auf, insbesondere wenn es um Wolken- und Wetterzustandsmeldungen geht“. Na sowas! Da müssen bei den Betreibern von wetteronline aber viele Stirnen gerunzelt worden sein.

Der Link zur entsprechenden Site von Wetteronline steht hier.




Die Öko-Faschisten schlagen wieder zu!

Zum Beispiel habe ich bereits im Jahre 2009 auf die Arbeit eines australischen Philosophen verwiesen, welcher schrieb: „Wenn der Groschen gefallen ist, glaube ich, dass Demokratie ein weniger wichtiges Ziel ist als der Schutz des Planeten vor dem Ende des Lebens auf ihm“ (Es gibt weitere derartige Statements unter diesem Link).

Diese Woche wartete Foreign Policy mit der direkten Schlagzeile auf [übersetzt]: „Demokratie ist der größte Feind des Planeten“ [Original: Democracy Is the Planet’s Greatest Enemy]. Schön, dass Freiheit und Selbstbestimmung so offen angegriffen werden. Aus dem Artikel:

Falls die Wahldemokratie unzureichend ist, um gegen den Klimawandel vorzugehen – und diese Aufgabe ist derzeit die dringendste, vor der die Menschheit steht – dann sind andere Arten der Politik dringend erforderlich. Die radikalste Alternative wäre es, sich von der Demokratie insgesamt loszusagen. Das autoritäre System in China hat bestimmte Vorteile, wenn es darum geht, dem Klimawandel zu begegnen: Ein-Parteien-Gesetz bedeutet sich freimachen von Wahlzyklen und weniger Bedarf an öffentlichen Beratungen. Technokratische Lösungen, welche die Macht in die Hände nicht gewählter Experten legen, könnte grundlegende Entscheidungen aus den Händen der Wähler nehmen.

Fast könnte man glauben, dass es sich hier um eine Parodie handelt, wenn ich es nicht besser wüsste. Man schaue mal am Grab von Woodrow Wilson*, ob vielleicht sein Geist entwichen ist.

[*Man schaue ggf. hier bei Wikipedia, wer das war. Er hat als Präsident der USA Anfang des 20. Jahrhunderts u. A. die Rassentrennung in den USA wieder eingeführt. Anm. d. Übers.]

———————————–

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/the-eco-fascists-strike-again/

Übersetzt von Chris Frey EIKE




Safety First: Zum besseren Verständnis meiner hemisphä­rischen Energie­bilanz

Denn ein „natürlicher atmosphärischer Treibhauseffekt“ wurde niemals wissenschaftlich nachgewiesen, weder experimentell noch theoretisch. Vielmehr basiert selbst seine theoretische Ableitung über die Schwarzschild-Gleichung und die Strahlungstransfergleichungen auf den ominösen minus 18° Celsius aus der konventionellen (und falschen) S‐B Schwarzkörperberechnung, gemittelt über die gesamte Erdoberfläche, und deren rechnerischer Differenz von 33° Celsius zu einer global gemessenen Mitteltemperatur (Near Surface Temperature = NST) von plus 14,8° Celsius.

Im letzten Artikel über meinen hemisphärischen Stefan-Boltzmann Ansatz hier auf EIKE mit dem Titel „Fangen wir mit dem Stefan-Boltzmann-Gesetz noch einmal ganz von vorne an“ hatte ich am Ende eine hemisphärische Gleichung für die globale Energiebilanz unserer Erde aufgestellt:

[1] (IN = 940 W/m² * R2) = (OUT = 235 W/m² * 4 R2) @ NST (= 14,8 °C)

Meine abschließende Erklärung lautete dort: „Wir haben hier auf unserer Erde also eine ausgeglichene globale Strahlungsbilanz bei einer konstanten global gemessenen Durchschnittstemperatur, wie immer diese auch ermittelt worden sein mag oder vielleicht erst viel später einmal korrekt ermittelt werden wird. Diese global gemessene Durchschnittstemperatur repräsentiert damit den durchschnittlichen globalen Netto-Wärmeinhalt von Atmosphäre und Ozeanen auf unserer Erde, um den herum permanent die hemisphärische Einstrahlung und die globale Abstrahlung erfolgen.“

Offenbar konnten die geschätzten Kommentatoren mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in der Form „P/A = * (T4-T04)“, die dieser Betrachtung zugrunde liegt, aber recht wenig anfangen, möglicherweise auch deshalb, weil es sich um ein richtiges Zitat aus einem „falschen Buch“ gehandelt haben soll. Und „falsche Bücher“ sind für wahre Gläubige bekanntermaßen höchst verwerflich. Immerhin hatte dort ein freundlicher Chronist die Zahl meiner häretischen Artikel für eine spätere IPCC-Inquisition bereits genauestens dokumentiert.
Aber eigentlich richten sich meine Artikel ja an interessierte Laien und ergebnisoffen denkende Fachleute: In den Kommentaren zu einem anderen EIKE-Artikel wurde gerade in einem Link auf den Vortrag von Klaus Ermecke „Energiepolitik im Konzeptnebel?“ verwiesen. Dort wiederum findet sich ab Minute 46:10 ein interessantes Diagramm, das die oben in Gleichungsform beschriebene Strahlungssituation auf unserer Erde grafisch verdeutlicht. Die nachstehende Abbildung von Herrn Ermecke ist daher für ein besseres Verständnis meiner Ausführungen zum hemisphärischen Stefan-Boltzmann Ansatz hervorragend geeignet:

Abbildung 1: Chart aus dem Vortrag von Klaus Ermecke „Energiepolitik im Konzeptnebel?“ © KE Research 2007/2009 mit freundlicher Genehmigung

Diese Abbildung von Ermecke hat gegenüber den bekannten Darstellungen von Kiehl und Trenberth zwei Vorteile und einen großen Nachteil: Einerseits beschränkt sie sich auf eine grundsätzliche Betrachtung der beiden wesentlichen Strahlungsvorgänge (IN und OUT) und beinhaltet insbesondere auch die Wärmespeicherung, andererseits fehlt hier eine Quantifizierung der Strahlungsflüsse. Diesen fehlenden Strahlungsflüssen ist nun mit meiner hemisphärischen Energiebilanz [1] sehr leicht abzuhelfen. Dort wird die temperaturwirksame hemisphärische Sonneneinstrahlung mit der durchschnittlichen globalen Abstrahlung gleichgesetzt. Und der Wärmeinhalt der globalen Zirkulationen (Atmosphäre und Ozeane) wird über die gemessene Durchschnittstemperatur unserer Erde (NST) definiert: Die NST wird üblicherweise mit 14,8 Grad Celsius angegeben. Sie stellt eine langjährige globale Durchschnittstemperatur dar, bei der im Idealfall alle Energieflüsse (IN und OUT) über den Tag- und Nachtverlauf sowie die Breitenverteilung und der Jahresverlauf aller benutzten Meßstationen bereits korrekt herausgemittelt worden sein sollten.

Der quasi-konstante NST-Wert wurde also bereits um die langjährige Ein-und Abstrahlung bereinigt und hat überhaupt nichts mehr mit der globalen Strahlungsbilanz zu tun. Er repräsentiert vielmehr die natürlichen Wärmespeicher unserer Erde, deren eigener Wärmefluss aus dem Erdinneren dabei vernachlässigbar ist. Wenn wir also bei der NST in einer langjährigen Betrachtung alle tages- und jahreszeitlich variablen Prozesse auf unserer Erde als durchschnittlich ausgeglichen voraussetzen können, dann lassen sich die Begrifflichkeiten aus der obigen Abbildung von Ermecke und mein hemisphärischer Ansatz für die globale Energiebilanz unserer Erde folgendermaßen zusammenfügen:

Abbildung 2: Die Graphik von Klaus Ermecke mit den Werten aus Gleichung [1]

Wir können hier also folgende grafisch dargestellten Begrifflichkeiten und die physikalischen Größen aus der hemisphärischen Energiebilanz einander direkt zuordnen:

Heizsystem: Die Sonne liefert auf der Tagseite der Erde netto 940 W/m2 temperaturwirksame Strahlung auf einer Kreisfläche von R2 (mit dem Erdradius „R“).

Energiespeicherungs- und Transportsystem: Die NST von 14,8 °C repräsentiert den global gemittelten Netto-Wärmeinhalt von Atmosphäre und Ozeanen im Gleichgewicht von Ein- und Abstrahlung.

Kühlsystem: Die Erde strahlt im Temperaturgleichgewicht (NST=const.) durchschnittlich 235 W/m2 über ihre Gesamtfläche 4R2 in den Weltraum ab.

Damit ergibt sich in Kombination der Darstellung und Begrifflichkeiten von Ermecke mit Gleichung [1] das folgende Bild:

Abbildung 3: Kombination der Darstellung von Klaus Ermecke mit den Werten aus Gleichung [1]

Die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes lautet in einer etwas ausführlicheren Form „S = S-S0 = * (T4-T04)“. Und jetzt wird hoffentlich auch deutlich, dass es entscheidend darauf ankommt, die S-B Umgebungstemperatur T0 bei allen Berechnungen korrekt zu definieren. Wenn man nämlich die Temperatur des Weltalls als Umgebungstemperatur der globalen Temperaturmeßstationen definiert, dann gelangt man zum konventionellen S-B Ansatz mit minus 18°C und einem „natürlichen atmosphärischen Treibhauseffekt“ von 33 Grad Celsius.

Aber wo stehen eigentlich die Thermometer der Messstationen für die Berechnung der NST, etwa am Rande des Weltraums?

Nein, keine der globalen Temperatur-Messstationen steht am Rande des Weltraums mit seiner Umgebungstemperatur von fast null Grad Kelvin. Selbst in der Polarnacht der jeweiligen Winterhemisphäre bleibt die gemessene Temperatur deutlich oberhalb von minus 100°C. Das T0 der S-B Umgebungsgleichung repräsentiert also die örtliche Temperatur von Atmosphäre und Ozeanen in der Umgebung der jeweiligen Messstation. Und im langjährigen Durchschnitt über alle Messstationen auf der Erde gilt dann folglich, dass diese S-B Umgebungstemperatur gleich der global gemessenen Durchschnittstemperatur sein muss, also „T0 = NST“.

Es ist schon sehr erstaunlich, wie sich der Absolute Nullpunkt einfach so in die konventionelle S-B Temperaturberechnung für unsere Erde „einschleichen“ konnte, obwohl er in der Umgebung der Temperaturmessstationen gar nicht vorkommt. Dieser Wert hat sich nämlich allein aus einer Betrachtung unserer Erde vom Weltraum aus ergeben. Und nach dem Stefan-Boltzmann-Gesetz müsste ein selbstleuchtender Stern, der mit konstant 235 W/m2 abstrahlt, tatsächlich eine Temperatur von minus 18°C aufweisen. Daraus entsteht das Paradoxon, dass, aus dem Weltraum betrachtet, unsere Erde zwar eine gemessene Mitteltemperatur von 14,8°C besitzt, aber nur mit durchschnittlich 235 W/m² anstatt mit 390 W/m² abstrahlt. Durch die Einführung eines „natürlichen atmosphärischen Treibhauseffektes“ (THE), der durch eine sogenannte „atmosphärische Gegenstrahlung“ verursacht werden soll, wird dieses Paradoxon nun in die Erdatmosphäre verlegt, ohne es aufzulösen. Dieser THE soll nämlich die Erdoberfläche zusätzlich um 33 °C von minus 18°C auf 14,8°C erwärmen, ohne dass sich die globale Abstrahlung von 235 W/m² dadurch verändert, Zitat (mit leicht abweichenden Strahlungswerten):

Die Erdoberfläche strahlt Wärme mit durchschnittlich 390 Watt pro Quadratmeter ab. Das entspricht der Wärmeabstrahlung eines sog. Schwarzen Körpers bei 15°C. In 70 km Höhe strahlt die Erde nach Absorption durch Treibhausgase und Wolken innerhalb der Atmosphäre nur noch Wärme mit durchschnittlich 240 Watt pro Quadratmeter ab. Das entspricht der Wärmeabstrahlung eines sog. Schwarzen Körpers bei -18°C. Die Differenz zwischen Boden und 70 km beträgt 150 Watt pro Quadratmeter und 33°C. Das ist die sog. Differenz für den natürlichen Treibhauseffekt.“

Dieses Zitat lässt sich allerdings auch umkehren:

Die Strahlungsdifferenz zwischen Erdboden und der Atmosphäre in 70 km Höhe beträgt angeblich 150 (ich rechne mit 155) Watt pro Quadratmeter und 33°C. Und die Abstrahlung eines Schwarzen Körpers mit einer beliebigen Temperatur (T) beträgt bei einer Umgebungstemperatur (T0 ungleich 0°K) nur dessen Strahlungsdifferenz entsprechend der S-B Umgebungsgleichung „S = * (T4-T04)“. Nach der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes kann ein Schwarzer Körper also mit einer deutlich geringeren Leistung abstrahlen, als es das Stefan-Boltzmann-Gesetz in dem Spezialfall (T0=0°K) mit „P/A=*T4“ vorgibt, denn es kommt dabei allein auf seine Umgebungstemperatur T0 an. Dabei gilt, dass diese Strahlung umso geringer wird, je kleiner die Temperaturdifferenz ist.

Und nun wenden wir den Blickwinkel des obigen Zitates auf die S-B Umgebungsgleichung an:

Die Atmosphäre in 70 km Höhe strahlt bei (T0=minus18°C) mit 240 (ich rechne mit 235) W/m² in den Weltraum ab. Diese rechnerische Differenz zum Wärmeinhalt der oberflächennahen Atmosphäre und der Ozeane mit durchschnittlich (T=14,8°C) entspricht dann nach der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes 150 (ich rechne mit 155) W/m². Bei diesen 150/155 W/m² handelt es sich also keineswegs um einen Wärmefluss vom Kälteren zum Wärmeren („Gegenstrahlung“), sondern um den Wärmefluss zwischen einem warmen und einem kälteren Körper nach der S-B Umgebungsgleichung. Und dazu bedarf es lediglich einer thermischen Schichtung der Erdatmosphäre, so wie sie sich nach obigem Zitat ja auch tatsächlich darstellt.

Die durchschnittliche Abstrahlung unserer Erde von 235 W/m2 (@ 4R2) steht bei einer durchschnittlichen „Speichertemperatur“ von 14,8°C von Atmosphäre und Ozeanen also im thermischen Gleichgewicht mit dem solaren Klimaantrieb von netto 940 W/m2 (@ R2). Und diese Beziehung lässt keinerlei Raum für einen „natürlichen atmosphärischen Treibhauseffekt“.

Übrigens findet man bereits bei Gerlich(†), und später auch bei Gerlich und Tscheuschner in der theoretischen Herleitung einer globalen Durchschnittstemperatur mit dem Stefan-Boltzmann-Gesetz eine Aufteilung der Strahlungsflüsse für die Tag- und Nachtseite der Erde. So wird in einem Vortragsskript von Professor Gerlich (1995), dort auf Seite 19, ein globaler S-B Ansatz mit einer breitenabhängigen Strahlungsmenge (σT4 = ν S cosϑ) auf der Tagseite und 0 W/m² auf der Nachtseite vorgestellt. Mit diesen beiden Randbedingungen wird dann allerdings über „0 bis 2π“ integriert, also über den gesamten Tagesverlauf von 24 Stunden. Das Ergebnis ist zwangsläufig eine konventionelle Mittelung der S-B Individualtemperaturen über die gesamte Erdoberfläche mit einem globalen Durchschnittswert von minus 129 °C bei 30% Albedo (dort Seite 20). Dieses Modell bildet einen einseitig bestrahlten und thermisch nicht speicherfähigen Schwarzkörper ab. Dasselbe Ergebnis findet man später auch bei Gerlich und Tscheuschner (2009), beispielsweise in Kapitel 3.7.4 der deutschen Übersetzung.

Die Temperaturgenese durch die Sonneneinstrahlung erfolgt aber ausschließlich auf der Tagseite der Erde (Integration über 0 bis π), während die Temperatur auf der Nachtseite der Erde (π bis 2π) wegen des Wärmeinhalts von Atmosphäre und Ozeanen niemals auf eine Temperatur von 0°Kelvin (entsprechend 0 W/m²) absinken kann. Das oben beschriebene Integral „0 bis 2π“ bildet also nicht die tatsächlich vorliegende Situation auf unserer Erde ab und ist deshalb wohl eher auf ihren Trabanten anwendbar (hier auf den Seiten 6 bis 8).

Fokussieren wir jetzt einmal auf die Tagseite der Erde: Die -129 °C aus der Berechnung von Professor Gerlich entsprechen 144°K und sind das rechnerische Temperaturmittel für die gesamte Erdoberfläche (nachfolgend FE) aus den individuellen S-B Ortstemperaturen. Folglich gilt:

Mittelung von T @ FE: (Σi=1n Ti + Σj=1m Tj)/(n+m) = 144°K

mit den Temperaturen Ti(i=1 bis n) auf der Nachtseite und Tj(j=1 bis m) auf der Tagseite
(n+m) = Anzahl aller Einzelwerte auf der Tag- und Nachtseite, die zur Mittelung beitragen

Tag- und Nachtseite der Erde sind symmetrische Halbkugeln, daher gilt (i=j) und (n=m):

für die Nachtseite @FE/2 gilt: Σi=1n Ti = 0°K

damit ergibt die Mittelung @ FE : (Σj=1m Tjj)/(2m) = 144°K

für die Tagseite @FE/2 gilt dann: (Σj=1m Tjj)/(m) = 2 * 144°K = 288°K = 15°C

Oder ganz einfach ausgedrückt: Bei der Mittelung von Professor Gerlich stammen alle Temperaturen ungleich Null von der Tagseite der Erde. Wenn wir uns bei der Durchschnittsbildung also auf diese Hälfte der Erdoberfläche beschränken, dann verdoppelt sich das Ergebnis auf 15°C. Und damit wären wir dann wieder bei meinem hemisphärischen Stefan-Boltzmann Ansatz…

Hier die beiden PDFs:

2018_a    2018_b




Warum das Vorsorge-Prinzip schlechte Politik ist

Die meisten Ängste stellen sich jedoch ziemlich schnell als falsch heraus. Auf jede echte Gefahr kommen hunderte von falschen Gefahren. Über das Nichteintreffen einer Gefahr wird allgemein nichts berichtet, weil derartige Informationen einfach keinen Nachrichtenwert haben. Folge: Die meisten geschürten falschen Ängste bleiben irgendwo im öffentlichen Bewusstsein haften.

Beispiel: im Jahre 1981 hieß es, dass Kaffee ursächlich sein soll für 50% aller Fälle von Bauchspeicheldrüsenkrebs. Aber die Wissenschaftler, die diese Behauptung in Umlauf gebracht hatten, zogen dieselbe im Jahre 1986 wieder zurück. Dennoch dauerte es bis zum Jahr 2016, bis die International Agency for Research on Cancer die Behauptung zurückzog, dass Kaffee eine mögliche Ursache für Krebs sei. Wahrscheinlich dauert es noch sehr viel länger, bis diese Angst aus dem öffentlichen Bewusstsein verschwunden ist.

Das Problem bei diesen vermeintlichen Gefahren ist natürlich, dass wir nicht im Voraus wissen, welche dieser Gefahren echt und welche falsch ist. Aber in den meisten Fällen ist der von falschen Ängsten angerichtete Schaden gering. Vielleicht hören einige von uns auf, Kaffee zu trinken, aber das ist unerheblich.

Erst wenn Regierungen sich den [falschen] Ängsten annehmen, kann es unheilvoll werden. Riesige Mengen Steuergelder könnten dann verschwendet oder irrationale Verbote verhängt werden.

Wir wissen, wie schwierig es ist, Regierungen davon abzuhalten, sich in unser Leben einzumischen. Die Kosten-Nutzen-Analyse wurde besonders deswegen eingeführt, um Bürokratien davon abzuhalten, schon bei geringsten Gefahren gleich Amok zu laufen.

Die Kosten-Nutzen-Analyse kann oftmals verschlungen sein. Alle Bürokraten und Minister hassen sie, aber es ist wichtig, ihnen eine entscheidende Disziplin aufzuerlegen.

Die Kosten-Nutzen-Analyse ist besonders geeignet, um mit Ängsten umzugehen. Dessen Forderung nach eindeutigen Beweise für Schäden (oder zumindest der beste verfügbare Beweis für Schäden) sowie eine Analyse mit Szenarien unterschiedlicher Risiken können einen vernünftigen und umsichtigen Weg weisen.

Da sich die meisten Ängste ohnehin als falsch herausstellen (wie die AGW-Angst und die GM-Angst [GM = genmanipulierte Nahrungsmittel]), ist es sehr wichtig, die Regierungen nicht von der Leine zu lassen.

Unglücklicherweise wurde die hart errungene Verbesserung politischer Entscheidungsprozesse mittels des Kosten-Nutzen-Verfahrens nach der Einführung des Vorsorgeprinzips in den neunziger Jahren beiseite geschoben. Die vielleicht beste Formulierung hinsichtlich der Umwelt findet sich im Prinzip 15 der Rio-Deklaration aus dem Jahr 1992, die da lautet: „Um die Umwelt zu schützen, sollte das Vorsorgeprinzip in großem Umfang von den Staaten entsprechend ihren Möglichkeiten angewendet werden. Wo es Bedrohungen mit ernsten oder irreversiblen Schäden gibt, sollte das Fehlen voller wissenschaftlicher Sicherheit nicht angeführt werden, um kosteneffektive Maßnahmen zum Schutz der Umwelt zu verschieben“.

Dies mahnt die Regierungen (die „Staaten“) energisch vorzugehen, falls sie den Verdacht haben, dass etwas falsch laufen könnte – ein Verdacht reicht schon. Es verlangt von den Regierungen nicht, die Art der Schädigung zu verstehen oder auch nur zu überlegen, ob der Schaden überhaupt eintreten wird.

Es mahnt die Regierungen nicht dazu, eine bessere Szenarien-Analyse durchzuführen und die Option zu wählen, welche für die Gesellschaft am vorteilhaftesten ist. Stattdessen ist es im Endeffekt ein Appell, das Kosten-Nutzen-Verfahren zu übergehen und einen Blanko-Scheck für starke Maßnahmen auszustellen.

Auf diese Weise verleiht das Vorsorgeprinzip den Bürokraten die Freiheit, nur die Vorteile anzusprechen (z. B. die vermeintlichen Vorteile erneuerbarer Energie) und dabei die Kosten zu ignorieren – oder nur die imaginären Kosten anzuführen (z. B. bei genmanipulierten Nahrungsmitteln) und die Vorteile zu ignorieren.

Dieser Grundsatz kehrt die Beweislast für Schäden bei behördlichen Eingriffen um. Er unterminiert die Vernunft und Aufklärung selbst, was uns in die Dark Ages zurückführt. Es ist unmöglich, über das Vorsorgeprinzip zu streiten, weil es besonders den Gebrauch von Logik ausschließt.

Wäre dieses Prinzip in der Vergangenheit angewendet worden, wäre es Wissenschaftlern nicht gestattet gewesen, Impfstoffe oder Antibiotika zu entwickeln, welche unvermeidlich ein paar Nebenwirkungen haben und in sehr seltenen Fällen sogar tödlich wirken können.

Während die Anwendung des Vorsorgeprinzips einige wenige Nebenwirkungen verhindert hätte, wäre es aber auch nicht zum Hauptnutzen gekommen – nämlich zur Rettung hunderter Millionen Menschenleben. Nur eine soziale Kosten-Nutzen-Analyse kann uns dabei helfen, die Gesamtheit aller Kosten und den Nutzen gegeneinander abzuwägen.

Gleichermaßen hätte das Vorsorgeprinzip es den Wissenschaftlern nicht gestattet, Kernforschung zu betreiben, gab es doch da das Risiko des Baus einer Atombombe. Aber Kernforschung hat uns nicht nur die Atombombe beschert, sondern auch die Kernkraft, den Flug eines mit Kernkraft betriebenen Raumfahrzeugs zum Mars, Nuklear-Medizin, Röntgenbilder und Strahlungs-Therapien.

Mittels der Ausbeutung unserer Ängste verleiht das Vorsorgeprinzip die Macht über unsere Präferenzen und Entscheidungen nicht nur den nationalen machthungrigen Regierungen, sondern auch globalen Mega-Bürokratien. Das IPCC ist nur ein Beispiel hierfür.

Dieses Prinzip war ein Gottesgeschenk für die Linken nach dem Zusammenbruch des Kommunismus‘. Die Schönheit des Vorsorgeprinzips liegt für die Sozialisten darin, dass es ihnen ermöglicht wird, moralische Überlegenheit zu kapern, während sie die vollständige Kontrolle über die Gesellschaft fordern. Der Green New Deal der Sozialisten in den USA ist bis heute eines der unverschämtesten Beispiele dafür. Und er basiert vollständig auf dem Vorsorgeprinzip.

—————————

Der ganze Beitrag steht hier.

Link: https://www.thegwpf.com/why-the-precautionary-principle-is-bad-policy/