Klimarea­listisches „Forum für Demokratie“ wird größte Fraktion im niederlän­dischen Senat.

Alle Parteien außer der PVV von Geert Wilders stehen hinter den Plänen, hunderte Milliarden für die Energie-Transition für eine Zukunft ohne fossile Treibstoffe auszugeben, und die Links-Gruppen stellen das Thema Klima vor das Thema Einwanderung, weshalb sich der Wahlkampf hauptsächlich um Klimapolitik drehte. Sowohl Baudet als auch Wilders bezogen einen skeptischen Standpunkt, doch stand bei Baudet das Klima, bei Wilders der Islam im Mittelpunkt. Aber Baudet war viel aggressiver und direkter.

Baudet nutzte viele Klima-realistische Organisationen in den Niederlanden als Informationsquellen, womit er sicherstellen wollte zu wissen, wovon er redet. Obwohl unter extremer Musterung seiner Standpunkte stehend und trotz aggressiver Reaktionen nahezu der gesamten Presse stellte sich heraus, dass er den meisten objektiven Fakten-Checks zufolge die Wahrheit gesagt hatte.

Die zentralen Punkte von Baudet waren:

1) Die gesamten Bemühungen, den niederländischen Anteil des Paris-Abkommens zu erfüllen, würden die globale Erwärmung nur um 0,0003°C ändern.

Im Fakten-Check des niederländischen Wetterdienstes KNMI räumte dieses ein, dass es tatsächlich 0,00007°C waren, also noch schlimmer als die 0,0003°C.

Dies wiederholte er bei seinen öffentlichen Auftritten bis zum Erbrechen, was auch von seinen Opponenten nicht mehr geleugnet wurde und was ihm einen großen Vorteil verschaffte und viele Menschen schockierte.

2) Die Kosten der Klimapolitik wären immens. Für die komplette Transition bis zum Jahre 2050 nannte er 1 Billion Euro ein Best Estimate. Das sind 234.000 Euro pro Familie. Der Fakten-Check kam auf 700 Milliarden Euro, aber ohne Benennung der Genauigkeit dieser Schätzung. Das gab Baudet die Gelegenheit, die 700 Milliarden Euro zu erwähnen und hinzuzufügen, dass es wohl eher 1000 Milliarden Euro wären. Auch hierüber gab es keinen Streit.

3) Die öffentlichen Rundfunk- und Fernsehsender betrieben blind die Klima-Agenda, verschwiegen die Kosten, waren nicht unparteiisch und ehrlich bzgl. der Fakten, wie es sein sollte laut ihrem Auftrag und ihrer Finanzierung seitens des Steuerzahlers.

Man sollte noch erwähnen, dass Baudet aus der Tatsache deutliche Unterstützung erwuchs, dass die Energiepreise für Familien in Holland im Januar in die Höhe geschossen sind. Dies war zum großen Teil der ersten Stufe der Klimapolitik aus dem Jahr 2013 geschuldet, dem „Energy Accord“. Baudet löste im Parlament einen kleinen Aufruhr aus, als er mit einem Bericht unserer Gruppe winkte, in welchem die Kosten des Energy Accord zu 107 Milliarden Euro berechnet worden waren und er eine Debatte darüber forderte (was natürlich von der Mehrheit abgelehnt worden ist).

Die Rolle der niederländischen Klima-Realisten

Das Forum for Democracy FvD wurde im September 2016 gegründet und war zu Beginn hinsichtlich Klimawandel neutral. Aber unsere Gruppe pflegte gute Kontakte, und Baudet erkannte bald, wie wichtig dieses Thema war. Also studierte er ein halbes Jahr lang sehr sorgfältig das Thema Klimawandel und entschloss sich dann, das Thema zum Schwerpunkt seiner Partei für die Wahlen zu machen.

Das war ein gewagtes Unternehmen, und nach seinem ersten Klima-skeptischen „Coming Out“ verlor er einige Sitze bei Wahlen. Aber schon nach ein paar Wochen gab es einen erstaunlichen Zuwachs in den Wahlen, mit dem unglaublichen Ergebnis, dass sie zur größten Partei bei den Regionalwahlen geworden ist – und das nur zwei Jahre nach dem Eintritt in die Politik. Niemals zuvor in der Geschichte schaffte es eine Partei, aus dem Nichts zur größten Partei zu werden. Ich denke, dass es ein Fanal war und dass dieser Sieg eine direkte Folge einer Klima-skeptischen Kampagne war.

Ich unterscheide hier zwischen Skeptikern und Realisten: Baudet nimmt eine feste Haltung ein, wenn er nicht glaubt, dass irgendeine Maßnahme nötig ist, um das Klima zu beeinflussen und dass all das Geld, welches die Regierung für nachhaltige Energie ausgibt, verschwendet ist. Klima-Realisten würden nicht unbedingt so weit gehen, vermute ich.

Politische Konsequenzen

Die Wähler haben zu erkennen gegeben, dass das Forum for Democracy 26 Sitze (von 150) im Parlament einnehmen würde, falls es jetzt Wahlen gäbe. Daran kann man erkennen, dass man noch lange nicht Verantwortung für die Niederlande übernehmen kann, wenn man die größte Partei ist. Aber zusammen mit der anderen Skeptiker-Partei PVV haben sie einen Stimmenanteil von 24,3%.

Die Hauptauswirkung des bemerkenswerten Sieges der FvD ist ein schmerzliches Dilemma für seinen Rivalen, die (einst, vor langer Zeit…) liberale VVD von Premierminister Rutte (heute mehr eine weit links stehende Opportunisten-Gruppe).

Der Senat muss dem Klima-Gesetz immer noch zustimmen, akzeptiert im Parlament, womit alle Regierungen von jetzt an gezwungen sind, mit der Transition zu einer Welt ohne fossile Treibstoffe weiterzumachen.

Falls die VVD das unterschreibt, werden sie sehr viele ihrer Wähler bei den nächsten Wahlen an die FvD verlieren.

Falls sie nicht unterschreibt, wird die Regierung mit Sicherheit von D66 [eine links-liberale Partei in den Niederlanden] zerschlagen. Diese Partei konzentriert sich um eine nachhaltige Klimapolitik und erwartet, darob viele Stimmen zu gewinnen.

Es ist höchst wahrscheinlich, dass die VVD es ablehnen wird zu unterschreiben, wobei sie so tun wird, als hätte sie ihre Meinung bzgl. Klimapolitik geändert. Damit will sie versuchen, einige der leichtgläubigen Wähler dazu zu verleiten zurückzukommen. Im Geheimen jedoch ist der Grund für die Verweigerung der Unterschrift, dass Mark Rutte einen Spitzenjob in Brüssel antreten will, was er nicht tun kann, solange er Premierminister ist. Diese Entwicklung würde eine gewaltige Änderung im Bereich Klimapolitik verursachen.

Link: https://ecr.network/climate-realist-forum-for-democracy-to-become-the-largest-party-in-dutch-senate/

Übersetzt von Chris Frey EIKE




IEA-Vorhersage: Solar wird Kohle & Erdgas bis 2040 überholen

IEA-Prognose bzgl. Weltenergie: Solar-Kapazität wird bis 2040 Kohle und Erdgas überholen

Sonal Patel

Photovoltaik (PV) könnte Kohle und Gas überflügeln und bis zum Jahr 2035 zur größten Quelle installierter Energie-Kapazität der Welt werden, falls die Länder die versprochene Politik zur Erreichung der gesetzten Ziele weiter verfolgen. Dies verlautete von der IEA in deren Welt-Energie-Prognose 2019 (WEO2019).

Der jährlichen Publikation der IEA zufolge ist eine grundlegende Verschiebung hin zu Low-Carbon-Quellen unvermeidlich. Sollte man der angekündigten Politik folgen, könnte sich der Anteil der Erneuerbaren-Erzeugung – nicht der Kapazität – fast verdoppeln. Kohle könnte schon im Jahre 2026 überholt werden. Zusammen könnte der Anteil von PV und Windrädern erzeugten Strom von 7% auf 24% steigen. Dies ist eine grundlegende Änderung im Vergleich zum Bericht des Vorjahres (WEO2018).

Fossil erzeugte Energie könnte anteilmäßig bis 2040 unter 50% fallen, heute beträgt der Anteil etwa zwei Drittel. Der Kohle-Anteil, der sich zwischen 1970 und 2013 verfünffacht hatte, könnte von 38% heute auf 25% im Jahre 2040 sinken.

Allerdings könnte die Erzeugung mittels Erdgas, welche sich während der letzten 22 Jahre verdreifacht hatte, bis 2040 auf 50% steigen, hauptsächlich der billigen Versorgung mit Schiefergas geschuldet.

Power Magazine

[Unübersetzbares Wortspiel. Mit Nuts sind hier Verrücktheiten gemeint. Anm. d. Übers.]

If… [falls…]

Abbildung 1: Falls die Welt ökonomischen Selbstmord begeht (Sustainable Development 2040) können wir den Planeten retten.

But… [Aber…]

Abbildung 2: Aber dem Stated Policies Scenario zufolge werden wir im Jahre 2040 fast drei mal so viel Erdgas und doppelt so viel Kohle verbrennen als zu Beginn des 21. Jahrhunderts! Super!

If ifs and buts were candy and nuts“, könnten wir den Planeten retten. Glücklicherweise muss der Planet aber gar nicht gerettet werden. Der Planet bemerkt uns nicht einmal.

Warnung: Viele F-Bomben und andere clevere Profanitäten

Es kann gut sein, dass die bis zur Mitte des Jahrhunderts installierte PV-Kapazität weiter zunimmt und Kohle und Erdgas bis dahin in dieser Hinsicht überholt hat. Dennoch dürfte der mit PV tatsächlich erzeugte Strom bis zum Jahr 2050 nicht einmal in die Nähe von Kohle kommen. Kohle- und Erdgas-Kraftwerke können 85% bis 90% ihrer Nenn-Kapazität liefern, PV dagegen höchstens 30%. 2100 GW-Kohlekraftwerke liefern bei Ausschöpfung von 50% ihrer Kapazität mehr Strom als 3100 GW Solar-Kapazität, welche höchstens 30% ihrer Kapazität ausschöpfen.

Erdgas wird weiterhin Solar-PV ausstechen*

[Diese Überschrift ist im Original wesentlich drastischer formuliert! Anm. d. Übers.]

Das gilt zumindest für das US-Festland.

Abbildung 3: US-Stromerzeugung AEO2019, Prognose der US EIA

Allerdings haben die allermeisten PV-Installationen keinen anderen Zweck als Vorschriften der Regierung zu erfüllen.

Im Referenzfall AEO2019 liegt das Wert-Kosten-Verhältnis des Erdgas-Kombikraftwerks während der gesamten Projektion am nächsten bei 1,0, was darauf hindeutet, dass sein Wert seine Kosten nur deckt. Den größten Anteil an neuen Kraftwerken haben Erdgas-Kombiblöcke (43% der Gesamtzahl der Kraftwerke von 2021 bis 2050). Das Wert-Kosten-Verhältnis der Solar-PV liegt etwas unter 1,0, was darauf hindeutet, dass ihr Wert im Durchschnitt ihre Kosten nicht deckt, aber die Kapazität noch hinzugefügt wird. In einigen Fällen mögen diese PV-Zusätze unwirtschaftlich sein, aber sie erfüllen immer noch die Anforderungen des Renewable Portfolio Standard (RPS) in 29 Staaten und dem District of Columbia.*

[*Diesen Abschnitt habe ich sehr ausnahmsweise vom Linguee-Translator übersetzen lassen. Ich bitte um Nachsicht! Anm. d. Übers.]

Dass Solar-PV mit Erdgas gleichzieht, ist nicht vor den 2030-er Jahren projiziert.

Abbildung 4. Quelle U.S. EIA, jährliche Energie-Aussichten 2019 (hier) und niedrigste Kosten sowie nicht erreichte niedrigste Kosten neuer Erzeugungs-Prognosen in den jährlichen Energie-Aussichten (hier)

Das ist der Grund, warum die große Mehrheit von Kraftwerks-Neubauten in den USA mindestens noch bis zum Jahr 2050 mit Erdgas betrieben werden.

Abbildung 5: Zusätzliche Erzeugungs-Kapazität von 2018 bis 2050 (US EIA)

Natürlich ist der Energieverbrauch nicht auf die Stromerzeugung begrenzt.

Es wird eine fossil betriebene Welt bleiben

Abbildung 6: Energieverbrauch der Endverbraucher nach Sektoren (US EIA)

Die Internationale Energie-Prognose 2019 der EIA projiziert, dass Erneuerbare ab 2050 die primäre Energiequelle sein werden…

Abbildung 7: Erneuerbare nehmen zu … aber fossile Treibstoffe ebenfalls (US EIA)

Die Prognose weist jedoch nicht auf eine den Planeten rettende Energie-Transition hin. Sie weist darauf hin, dass die Welt immer mehr von Allem verbrauchen wird.

Es gab niemals eine Energie-Transition, und eine solche ist auch in Zukunft unwahrscheinlich. Wir verbrennen derzeit mehr Biomasse für Energie als zu der Zeit des Beginns der Verbrennung von Kohle.

Abbildung 8: Es gab niemals einer Energie-Transition (hier)

Erneuerbare werden gar nichts ersetzen. Sie kommen lediglich noch obendrauf.

Der Verbrauch aller primären Energie-Ressourcen nimmt im gesamten Referenzfall zu. Obwohl erneuerbare Energie die weltweit am schnellsten wachsende Energieform ist, werden fossile Treibstoffe weiterhin den größten Teil der Welt-Energienachfrage decken.

Getrieben von der Zunahme der Stromnachfrage sowie ökonomischen und politischen Antrieben nimmt der weltweite Verbrauch erneuerbarer Energie von 2018 bis 2050 um 3% pro Jahr zu. Der Verbrauch von Kernkraft steigt um 1% pro Jahr.

Anteilmäßig am Primär-Energieverbrauch nehmen Petroleum und andere Flüssigtreibstoffe von 32% im Jahre 2018 auf 27% im Jahre 2050 ab. Absolut gesehen steigt der Verbrauch von Flüssigtreibstoffen in den Bereichen Industrie, Kommerz und Transport, während er im privaten Bereich und im Stromsektor abnimmt.

Erdgas ist mit 1,1% pro Jahr der am schnellsten zunehmende fossile Treibstoff. Im Vergleich dazu nehmen die Zunahme von Flüssigtreibstoff um 0,6% pro Jahr und Kohle um 0,4% pro Jahr zu.

Es wird projiziert, dass der Kohleverbrauch bis 2030 abnimmt, weil regional Kohle durch Erdgas und Erneuerbare für die Stromerzeugung ersetzt wird, und zwar als Folge sowohl von Kosten als auch von der Politik getrieben. Ab den 2040er Jahren nimmt der Kohleverbrauch wieder zu als Folge zunehmender Industrialisierung und steigender Stromerzeugung in den Nicht-OECD-Ländern Asiens außer China.

US Energy Information Administration

Über jenes Paris-Luftschloss…

Abbildung 9: Wie sieht das aus?

Allerdings reduziert sich alles auf ein einfaches Prinzip:

Link: https://wattsupwiththat.com/2019/11/20/iea-forecast-solar-to-surge-past-coal-natural-gas-by-2040/

Übersetzt von Chris Frey EIKE




Eine Analyse der Thesen/Anti­thesen für einen „natür­lichen atmosphä­rischen Treibhaus­effekt“ – Teil 3: Erkenntnisse zu den Thesen/Antithesen und das Ergebnis dieser Analyse

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist die Basis aller Befürchtungen über eine menschengemachte Klimakatastrophe, weil dieser sich durch den technischen CO<sub>2</sub>-Ausstoß der Menschheit angeblich noch weiter verstärken und zu einer globalen Selbstverbrennung führen soll. Für einen solchen „natürlichen atmosphärischen Treibhauseffekt“ gibt es unterschiedliche Modelle, einen experimentellen Ansatz und zwei Widerlegungen. In Teil 1 wurden die unterschiedlichen Thesen/Antithesen vorgestellt und in Teil 2 diskutiert. Dieser Teil 3 behandelt nun die Erkenntnisse und Ergebnisse dieser Analyse.

ERKENNTNIS zu THESE (1) = Der konventionelle globale Stefan-Boltzmann-Ansatz mit einem „natürlichen atmosphärischen Treibhauseffekt“ von 33°C (Dietze, Krüger, Schnell, Heller):

Dieser Ansatz ist grundlegend falsch, weil er die Randbedingung der GLEICHZEITIGKEIT im Stefan-Boltzmann-Gesetz UND den 2. HS der Thermodynamik verletzt. Alle Klimamodelle, die auf diesem Ansatz basieren, sind folglich hoch toxisch.

Denn die fehlerhaft abgeleitete Temperaturgenese muss in diesen Modellen zwangsläufig auf andere Systemkomponenten verlagert werden, um der gemessenen Realität zu entsprechen. Dadurch wiederum ergeben sich rein rechnerische Atmosphäreneffekte (beispielsweise der äquatoriale Hotspot) und Wechselwirkungen (beispielsweise die sogenannten Kipp-Punkte) außerhalb jeder Realität.

In den Geowissenschaften ist bereits seit fast einem Jahrhundert bekannt, dass die Temperaturgenese auf unserer Erde allein von der Sonneneinstrahlung bestimmt wird. Bereits 1924 schrieben Köppen und Wegener in der Einleitung zu ihrem Buch “Die Klimate der geologischen Vorzeit” (Bornträger) auf den Seiten 3 und 4, Zitat mit Heraushebungen und Einfügungen:

„… Unter diesen Voraussetzungen gewinnt die KURVE DER SOMMERLICHEN STRAHLUNGSMENGEN [=Milankovic-Zyklen] für die letzten 6500 000 Jahre den Charakter einer ABSOLUTEN Chronologie des Eiszeitalters. Ihre Einzelheiten stimmen, wie gezeigt werden wird, in weitgehendem Maße mit den Annahmen der hervorragendsten Eiszeitforscher überein, so daß es unnötig erscheint, nach weiteren Ursachen für Klimaänderungen in dieser Zeit zu suchen.
Von den zahlreichen sonstigen Hypothesen, die zur Erklärung von Klimaänderungen aufgestellt worden sind, wird daher in diesem Buche nicht die Rede sein. Insbesondere erblicken wir in dem System der fossilen Klimazeugen KEINEN EMPIRISCHEN ANHALT für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe.
Desgleichen fehlt es an Tatsachen, welche durch Änderung der DURCHSTRAHLBARKEIT der Atmosphäre (ARRHENIUS) oder des Weltalls (Nölke) zu erklären wären; …“

Der Nachdruck dieses Buches ist bei Schweizerbart erhältlich.

ERKENNTNIS zu THESE (2) = Breitenabhängige Mittelung der solaren Einstrahlung über Tag und Nacht (Kramm et al.):
Kramm et al. können die Temperaturgenese auf unserer Erde mit ihrem Modell weder abbilden noch erklären. Sie sind vielmehr die einzigen Protagonisten, die konkrete Aussagen zur Temperaturgenese auf der Erde vermeiden und zugleich auch eine klare Positionierung zum sogenannten atmosphärischen Treibhauseffekt unterlassen. Insbesondere fehlt dort die sinnstiftende Erklärung, wo denn eigentlich die Energie zur Überwindung des Temperaturunterschieds zwischen den aus einer globalen breitenabhängigen „Faktor-4“-Mittelung der solaren Einstrahlung berechneten Modelltemperaturen und den tatsächlich gemessenen Temperaturen auf der Erde herkommen soll.
Stattdessen invertieren Kramm et al. die primäre physikalische Wirkungskette (Sonneneinstrahlung => Temperatur), um ihr Modell argumentativ zu stützen. Die modellbedingte Verlagerung der globalen „Klimaküche“ auf den geographischen Pol der Sommerhemisphäre bricht dem Modell von Kramm et al. endgültig das Genick, weil diese Verlagerung einen jahreszeitlich wechselnden Verlauf der globalen Zirkulationen vom jeweiligen Sommerpol zum Winterpol der Erde erfordern würde.

Das Modell von Kramm et al. (2017) ist nicht von dieser Welt und enthält Richtiges und Falsches; nur wurde das Richtige nicht erstmals von Kramm et al. veröffentlicht, und das Falsche wurde von Kramm et al. schließlich als deren eigenes „Faktor4“-Strahlungsmodell identifiziert, Zitat:
These values demonstrate that the power law of Stefan and Boltzmann provides inappropriate results when applied to globally averaged skin temperatures.“ (Seite 283 im unteren Drittel vom letzten Absatz)
Dazu sagt der unparteiische Google-Übersetzer: „Diese Werte zeigen dass das Potenzgesetz von Stefan und Boltzmann unangemessene Ergebnisse liefert, wenn es auf global gemittelte Hauttemperaturen angewendet wird.“

Im Klartext heißt dieses Ergebnis von Kramm et al. (2017) also:

ENTWEDER ist das S-B-Gesetzt falsch ODER die globale Mittelung.

Da aber das Stefan-Boltzmann-Gesetz ein GÜLTIGES physikalisches Gesetz ist, MUSS also die GLOBALE Mittelung FALSCH sein:

Kramm et al. erbringen mit dieser Erkenntnis den Nachweis, dass alle drei Ansätze (1), (2) und (3) falsch sind, weil dort bei (1) und (2) die tagseitige Sonneneinstrahlung (@PIR²) sowie bei (3) das tagseitige S-B-Temperaturäquivalent global über die gesamte Erdoberfläche (@4PIR²) gemittelt wird – und sie bestätigen damit implizit die Richtigkeit meines HEMISPHÄRISCHEN Stefan-Boltzmann-Ansatzes (@2PIR²).

ERKENNTNIS zu THESE (3) = Globale Stefan-Boltzmann-Integration (Gerlich&Tscheuschner):
Gerlich und Tscheuschner beginnen richtig mit einem dreidimensionalen S-B-Rechenmodell und mitteln dieses Ergebnis dann zweidimensional über die gesamte Erdoberfläche. Damit landen sie am Ende wieder bei dem globalen „Faktor4“-Ansatz über Tag- und Nachtseite der Erde aus den Thesen (1) und (2).
Der von Gerlich und Tscheuschner aufgezeigte Widerspruch (33°C # 144°C) ist also konkludent nach dem falschen „Faktor4“-Ansatz für den „natürlichen atmosphärischen Treibhauseffekt“ (Modelle 1 und 2) abgeleitet worden. Damit haben Gerlich & Tscheuschner den „natürlichen atmosphärischen Treibhauseffekt“ direkt aus diesem fehlerhaften THE-Modell heraus widerlegt, allerdings ohne eine konkrete Perspektive für die tatsächliche Temperaturgenese auf der realen Erde aufzuzeigen.

ERKENNTNIS zu THESE (4) = „Hemisphärischer“ Stefan-Boltzmann-Ansatz (Weber):
Mein hemisphärischer Stefan-Boltzmann-Ansatz beruht strenggenommen lediglich auf der unverstandenen Randbedingung einer strengen GLEICHZEITIGKEIT im Stefan-Bolzmann-Gesetz – und diese physikalische Randbedingung spielt offenbar für Laien UND Fachleute keine Rolle.
Jedenfalls unterscheidet mein hemisphärischer S-B-Ansatz dreidimensional zwischen Tag und Nacht und ist in der Lage, die Temperaturgenese auf der Tagseite unserer Erde über das Stefan-Boltzmann-Gesetz und die Abstrahlung der Erde über die S-B-Umgebungsgleichung zu erklären.

ERGEBNIS DIESER ANALYSE UND PERSPEKTIVE FÜR KÜNFTIGE KLIMAMODELLE

Die Erde erhält einen Anteil der solaren Abstrahlung auf einer Kreisfläche von (PI*R²) mit dem Erdradius R und der Solarkonstante 1.367 W/m². Der Fehler bei der konventionellen THE-Berechnung besteht nun darin, diese Solarkonstante über die Tag- und Nachtseite der Erde (@4*PI*R²) zu mitteln.

Die Thesen (1), (2) und (3) stellen also zweidimensionale Modelle der Erde dar, die durch eine realitätswidrige Tag&Nacht-Mittelung der temperaturwirksamen solaren Einstrahlung bzw. dessen S-B-Temperaturäquivalentes charakterisiert werden können. Damit fehlt in allen diesen Ansätzen ein ausreichend großes S-B-Strahlungsäquivalent, um die tatsächlich gemessenen Temperaturen auf der Erde erklären zu können.
Die nachfolgend abgebildete Mollweide Projektion in Abbildung A für eine 2D-Erde veranschaulicht diesen zweidimensionalen Ansatz. Und der vorgebliche „natürliche atmosphärische Treibhauseffekt“ ist genau dieser fehlerhaften Tag&Nacht-Mittelwertbildung geschuldet, um deren Differenz zur vorgeblich „gemessenen“ Globaltemperatur NST zu erklären. Meine hemisphärische S-B-Herleitung (4) ermöglicht als dreidimensionales Modell (Abbildung B) dagegen eine korrekte Implementierung von Tag und Nacht und kommt ohne einen solchen atmosphärischen Treibhauseffekt aus:

Diese eingeschränkte zweidimensionale Sicht auf unsere dreidimensionale Erde ist der tiefere Grund für den gegenwärtigen klimareligiösen Alarmismus. Am 26. September 2019 erschien auf ScienceFiles ein Beitrag mit dem Titel „Klimaalarmisten, das IPCC, die UN denken nachweislich, die Erde sei eine Scheibe [keine Satire]“, Zitat mit Hervorhebungen:

Dass die Erde eine Scheibe sei, ist nämlich eine Annahme, die allen Klimamodellen, die wiederum Grundlage der Behauptung, der Klimawandel sei menschengemacht sind, eigen ist.

Michael J. Prather und Juno C. Hsu haben in einem brandneuen Beitrag für die Zeitschrift „Proceedings of the National Academy of Science“ (PNAS – peer reviewed) auf diesen zwischenzeitlich vergessenen Umstand aufmerksam gemacht:

In allen Klimamodellen”, so schreiben sie, “wird angenommen, dass die Oberfläche der Erde flach 2D und nicht 3D ist“ (19330).“
Dr. Paul Berberich hatte in einer bisher leider unveröffentlicht gebliebenen Arbeit den Globus in eine hemisphärische Tag- und Nachtseite aufgeteilt. Eine Verschiebung des Zentralmeridians (nebenstehende Abbildung) führt dann zu beliebig vielen Hemisphären. Dr. Berberich verwendet in seiner Betrachtung 5°-Schritte und erhält somit über den 24-Std.-Tag 72 Hemisphären. Diese Hemisphären sind nicht unabhängig voneinander, sondern ergänzen sich paarweise zur Global-Temperatur.

In Bild 8 bis 10 werden dort die Jahres-Mittel- Temperaturen für die Jahre 2016 bis 2018 in hemisphärischer Darstellung dargestellt. Die Temperaturdifferenz zwischen den Hemisphären T60W und T120E („Hysterese“) verringert sich während dieser Jahre beträchtlich von 0,202 auf 0,001 °C:

Abbildungen Berberich: CERES Skin-Temperatur der 72 Hemisphären (°C) als Funktion des Ozean-Bedeckungsgrads (%) Bild 8: Jahres-Mittel 2016 Bild 10: Jahres-Mittel 2018

In 2015/2016 trat ein starker El Niño mit großer „Hysterese“ auf, allerdings tritt bei großer „Hysterese“ nicht immer zwingend ein El Niño-Ereignis ein. Diese hemisphärische „Hysterese“ wäre aber umgekehrt ein guter Negativindikator, denn bei geringer Temperaturdifferenz zwischen den Hemisphären T60W und T120E kann umgekehrt offenbar kein El Niño auftreten. Dr. Berberich leitet aus seiner hemisphärischen Analyse die Aussage ab, dass man die die El Niño-Vorhersage um einen (solchen?) globalen Indikator ergänzen sollte.

Die Basis von zweidimensionalen Klimamodellen hatte zwischenzeitlich auch ein Anonymus namens Aulus Agerius hinterfragt und auf Grundlage meines hemisphärischen S-B-Ansatzes ein alternatives dreidimensionales Klimamodell erstellt. In seinem Buch „Kritische Analyse zur globalen Klimatheorie: Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell“ deckt er erhebliche Widersprüche in der IPCC-Basisstudie KT97 auf. Deren Mittelbildung zwischen Tag- und Nachtseite der Erde folgen implizit ja auch die hier diskutierten Ansätze (1) bis (3). Diesem IPCC-Modell stellt er sein „Modell 5“ entgegen, das wiederum auf meinem hemisphärischen Strahlungsmodell aufbaut und ohne einen atmosphärischen Treibhauseffekt auskommt:

 

Zitate aus der Kurzzusammenfassung (mit Hervorhebungen): „Die Studien der letzten 15 Jahre, die die Existenz eines Treibhauseffektes befürworten, beziehen sich mit kleineren Modifikationen final auf eine Studie von J. H. Kiehl und Kevin E. Trenberth aus dem Jahr 1997, bezeichnet als KT971. Die Erderwärmung durch CO2, der Treibhauseffekt, wurde in dieser (Ur-) Studie aus einer Gleichgewichtsberechnung von flächenbezogenen Energieflüssen abgeleitet, die durch die Sonne verursacht werden. Hierbei wurde die Atmosphäre als Modell in einem Gleichgewichtszustand von Energieflüssen, umgangssprachlich Strahlung, betrachtet.

In Abschnitt 5 wird mit einer modifizierten Modellbildung (Strahlungsverteilung nach Modell Ulrich O. Weber2) die von der Sonne emittierte Strahlung auf die Erde verteilt und neuerlich eine Budget- bzw. Gleichgewichtsbetrachtung vorgenommen.

Mit Modell 5 wird der Treibhauseffekt mit den Messwerten der Satelliten ERBS, TERRA und AQUA widerlegt. Durch die Eigenschaften der Reflektion von Erde und Atmosphäre kann ein kühlender Effekt, sun umbrella Effekt, festgestellt werden (Abschnitt 6). In Abschnitt 7 wird aufgezeigt, wie sich Strahlungs- und Albedo-Änderungen im Modell nach Abschnitt 5 zu Änderungen der globalen Mitteltemperatur und damit zu Eiszeiten und zu Warmzeiten führen könnten – ohne CO2-Einfluss…

FAZIT: In einer dreidimensionalen Betrachtung der Temperaturgenese auf unserer Erde macht allein eine Albedosteuerung der solaren Einstrahlung als natürlicher Antrieb des Paläoklimas Sinn, und zwar ganz ohne einen „natürlichen atmosphärischen Treibhauseffekt“.

Denn die spezifische Strahlungsleistung der Solarkonstante von 1.367 W/m² stellt nach dem Stefan-Boltzmann-Gesetz mit etwa 120 Grad Celsius das maximal mögliche Temperaturäquivalent für unsere Erde aus der solaren Einstrahlung dar. Und nur die Albedo der Erde kann ausreichend große Energiemengen der einfallenden Sonneneinstrahlung steuern, um die nachgewiesenen Schwankungen des natürlichen Paläoklimas zu erklären.

Der rechnerische Nachweis für eine solche Albedosteuerung ist in meiner englischsprachigen Veröffentlichung “An Albedo Approach to Paleoclimate Cycles” (Mitteilungen der Deutschen Geophysikalischen Gesellschaft Nr. 2015/3 ab Seite 18) zu finden, die deutsche Übersetzung „Ein natürlicher Albedo-Antrieb erklärt die globale Klimagenese“ in meinem aktuellen Buch „Mehr geht nicht“ und eine deutsche Kurzfassung auf KalteSonne.

Ein grobes Reaktionsmodell für die globale Klimagenese war schließlich auf KalteSonne veröffentlicht worden:




Eine Analyse der Thesen/Anti­thesen für einen „natür­lichen atmosphä­rischen Treibhaus­effekt“ – Teil 2: Diskussion der Thesen/Antithesen

Der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist die Basis aller Befürchtungen über eine menschengemachte Klimakatastrophe, weil dieser sich durch den technischen CO<sub>2</sub>-Ausstoß der Menschheit angeblich noch weiter verstärken und zu einer globalen Selbstverbrennung führen soll. Für einen solchen „natürlichen atmosphärischen Treibhauseffekt“ gibt es unterschiedliche Modelle, einen experimentellen Ansatz und zwei Widerlegungen. In Teil 1 wurden die unterschiedlichen Thesen/Antithesen vorgestellt, die nachfolgend einzeln diskutiert werden.

MEINE ARGUMENTATION zu THESE (1):

Der Ansatz (1) ist grundlegend FALSCH, weil er über eine Gleichsetzung von Tag und Nacht die STRENGE PHYSIKALISCHE GLEICHZEITIGKEIT im Stefan-Boltzmann-Gesetz verletzt. Mit der Solarkonstanten (S0=1367 W/m²), der Erdalbedo (ALPHA=0,3) und der temperaturwirksamen Strahlungsleistung (Seff = S0*(1-ALPHA) = 940 W/m²) ergibt sich für die Netto-Strahlungsbilanz der Erde:

(IN = 940 W/m² * π R2) = (OUT = 235 W/m² * 4 π R2) @ NST (= 14,8 °C)

Das bedeutet, die Temperaturgenese der Erde erfolgt ausschließlich auf ihrer Tagseite mit (940 W/m² * cos Phi), und die Abstrahlung erfolgt mit durchschnittlich 235 W/m² über ihre gesamte Oberfläche. Und das alles geschieht im Strahlungsgleichgewicht der Klimadefinition (>30 Jahre) bei einer vorgeblich „gemessenen“ konstanten Globaltemperatur NST, in deren Berechnung bereits die tatsächlich gemessene Nachttemperatur eingegangen ist.

Ansatz (1) ignoriert den Unterschied zwischen Tag und Nacht und setzt einfach den Wert für die durchschnittliche globale Abstrahlung in das Stefan-Boltzmann-Gesetz ein. Durch diese globale Mittelung wird aber die temperaturwirksame spezifische Flächenleistung der solaren Einstrahlung verfälscht. Und die daraus abgeleitete „natürliche“ Temperatur der Erde von minus 18°C erfordert wiederum einen „natürlichen atmosphärischen Treibhauseffekt“ von 33°C, um die Differenz zur vorgeblich gemessenen Globaltemperatur NST zu erklären.

Selbst in der Ableitung einer Strahlungstransfergleichung wird unter impliziter Einbeziehung einer Nachttemperatur von minus 273°C die vorgebliche „S-B Gleichgewichtstemperatur“ (Teq = -18°C) als globale Mittelung der temperaturwirksamen solaren Einstrahlung über die gesamte Erdoberfläche benutzt. Und damit führt dieser Ansatz rekursiv auf seine eigene Randbedingung einer globalen „Faktor4-Mittelung“ zurück.

Vielmehr kann man sich physikalischen Randbedingungen des Stefan-Boltzmann-Gesetzes auch so vorstellen, dass die die Temperaturgenese auf unserer Erde ausschließlich dort erfolgt, wo Strahlung GLEICHZEITIG Temperatur erzeugen kann. Bei einer Betrachtung der Temperaturgenese muss man sich also auf die tatsächlich beleuchtete Tagseite unserer Erde beschränken.

BEWEISFÜHRUNG zu (1.1) – Die Erde wird als ein selbstleuchtender Stern betrachtet (Dietze):
Für einen selbst leuchtenden Stern kann man tatsächlich eine S-B-Inversion durchführen, beispielsweise für die Sonne, indem man die spezifische Strahlungsdichte (Solarkonstante) vom Erdbahnradius auf die Oberfläche der Sonne zurückrechnet und darauf das S-B-Gesetz anwendet; dabei bleibt die spezifische Strahlungsleistung auf den jeweils betrachteten Flächen zeitgleich konstant.

Die Erde ist aber kein selbst leuchtender Stern, bei dem man die einfallende Strahlungsleistung der Sonne über die gesamte Oberfläche mitteln könnte; dazu bräuchte es nach These (1.1) vielmehr zwei Sonnen mit halber Strahlkraft, jeweils eine auf der Tagseite und eine auf der Nachtseite der Erde. Denn die Temperaturgenese findet ausschließlich auf der solar bestrahlten Seite der Erde statt, und zwar tageszeit-, breiten- und jahreszeitabhängig. Die Einbeziehung der Nachtseite der Erde in eine Berechnung mit dem Stefan-Boltzmann-Gesetz ist damit physikalisch naiv und hat dieselbe Relevanz wie eine Einbeziehung der Fläche des Experimentiertischs in die Ergebnisrechnung des Stefan-Boltzmann-Experiments – solche unbeleuchteten Flächen haben mit dem S-B-Gesetz nämlich überhaupt nichts zu tun.

BEWEISFÜHRUNG zu (1.2.1) – Die Klimawirksamkeit von Treibhausgasen (Krüger):
TREIBHAUSGASE: Den sogenannten „Treibhausgasen“ (THG), hauptsächlich Wasserdampf, Kohlenstoffdioxid und Methan, wird vom IPCC eine aktive Temperaturwirksamkeit in [W/m²] zugemessen. Diese Zuordnung ist aber grundsätzlich falsch, weil solche Gase keine aktive Strahlungsquelle darstellen. IR-aktive Gase absorbieren zwar passiv Infrarotstrahlung, können eine solche Strahlung aber ohne externe Quelle gar nicht aus eigener Kraft erzeugen. Es handelt sich vielmehr um eine Art „energetischen Staffellauf“ – und damit entfällt auch ein zusätzlicher energetischer Beitrag dieser THG zum sogenannten Treibhauseffekt.
SATELLITENMESSUNGEN: Der Beweis eines atmosphärischen Treibhauseffektes durch Satellitendaten besteht lediglich aus einem VERGLEICH zwischen der theoretischen IR-Abstrahlung der Erde und den vorgeblich von Satelliten „gemessenen“ Spektren, denen ganz erhebliche Rechenprozesse hinterlegt zu sein scheinen: Die veröffentlichten NIMBUS-IR-Spektren überdecken einen deutlich größeren Wellenlängenbereich, als es die dort gemessenen IR-Intervalle hergeben (Fußnote *1). Und beim AERI-Spektrometer werden offenbar lediglich Interferenzsignale für konkrete IR-Intervalle gemessen und über eine Fourier-Transformation spektral analysiert. Daraus wird dann anscheinend im Abgleich mit Vergleichs-Schwarzkörpern ein IR-Gesamtspektrum berechnet (Fußnote *2).

Das abschließende KO-Kriterium für die These (1.2.1): Das vorgelegte IR- Beweisspektrum für diese These zeigt eindeutig globale rechnerische Mittelwerte aus dem konventionellen S-B-Ansatz und stellt daher keine beweiskräftigen Messerwerte dar. Vielmehr bedeutet die exakte Einhaltung der durchschnittlichen THE-Eckwerte (240+150=390) W/m² in dem vorliegenden IR-Spektrum ein eindeutiges KO-Kriterium für die These (1.2.1).
Bei dem IR-Spektrum
@70km handelt es sich nicht etwa um echte IR-Messwerte, sondern um ein wohlmeinendes handwerkliches Zirkelkonstrukt. Dieses konstruierte F-Wort-Spektrum kann keinerlei eigene Beweiskraft für einen „natürlichen atmosphärischen Treibhauseffekt“ entwickeln, weil es nämlich umgekehrt rein rechnerisch aus dieser THE-Hypothese abgeleitet worden ist.

Fußnoten zu den „gemessenen“ IR-Spektren (bei tieferem Interesse sei der Google-Übersetzer empfohlen):

*1) Das Nimbus 3 Satellite Infrared Spectrometer (SIRS) misst laut NASA 8 Intervalle, Zitat: „… in seven spectral intervals in the carbon dioxide band (11 to 15 micrometers) and one interval in the atmospheric window centered at 11.1 micrometers“.

*2) Nach dem AERI Handbook scheint es bei solchen Messungen eine Art vergleichendes Dataprocessing zu geben, Zitat mit Hervorhebungen (7.3.1 Theory): „Two blackbody sources, one at ambient temperature and the other at 330K are used to calibrate the instrument. The two sources are used to determine the slope and offset, which define the linear instrument response at each wavenumber. (see reference 1) The AERI views these two blackbodies every two minutes. Magnitude of the difference between these blackbody spectra is then formed to compute the responsivity and offset for the instrument.“

BEWEISFÜHRUNG zu (1.2.2)Experimenteller Nachweis des „natürlichen atmosphärischen Treibhauseffektes“ (Schnell):

Kernaussage (1.2.2-1): Mit Bezug auf eine abgewandelte Umgebungsgleichung des Stefan-Boltzmann-Gesetzes wird hier der Umgebungstemperatur T0 eine „Gegenstrahlung“ zugeschrieben. Aber anders als beim Stefan-Boltzmann-Gesetz, das eine Umgebung von 0 Kelvin voraussetzt, strahlt ein Schwarzer Körper (T) in einer erwärmten Umgebung (T0) lediglich mit einer verminderten Leistung nach der S-B Umgebungsgleichung DELTA S (=P/A) = SIGMA (T4 – T04). Es handelt sich hierbei physikalisch also eindeutig um eine verminderte Abstrahlung des Schwarzen Körpers und nicht um eine „Gegenstrahlung“ seiner Umgebung.

Die Verminderung der Strahlungsleistung eines Schwarzen Körpers mit (T) in einer Umgebung von (T0>0K) stellt also keinerlei physikalischen Beweis für eine „Gegenstrahlung“ dar, sondern folgt lediglich den bekannten physikalischen Gesetzen.
Kernaussage (1.2.2-2): Um welchen Effekt es sich bei der von Dr. Schnell experimentell festgestellten Temperaturwirkung von CO2 handeln könnte, vermag der Autor nicht zu beurteilen.
Nach den HS der Thermodynamik muss die erforderliche Energie jedenfalls irgendwo herkommen, denn das CO2-Molekül ist nicht in der Lage, aus sich selbst heraus Energie zu erzeugen.

BEWEISFÜHRUNG zu (1.3) – Variable Abstrahlungshöhe der Erde (Heller):

Die „atmosphärische Rückstrahlung“ soll angeblich die Erdoberfläche mit zusätzlich 150 [W/m²] erwärmen, ein kälterer Körper (240 W/m²) erwärmt also fortlaufend einen wärmeren (390 W/m²). Für These (1.3) liegen verschiedene Konformitätsbehauptungen mit den HS der Thermodynamik vor.

Diese Gegenstrahlung bedient sich exakt der konventionellen Stefan-Boltzmann Herleitung von (240 W/m² entspricht -18°C) und (390 W/m² entspricht 15°C) mit einer Temperaturdifferenz von 33 Grad. Aber die Hauptsätze der Thermodynamik schließen ein Perpetuum Mobile jeglicher Art grundsätzlich aus, da hilft auch die Hilfskonstruktion einer „variablen Emissionshöhe“ nicht weiter.
Weiterhin entkoppelt sich das Modell einer „variablen Emissionshöhe“ ausgerechnet von der globalen Durchschnittstemperatur, der es eine grundsätzliche globale Abstrahlung bei minus 18°C entgegensetzt, ohne deren zwingende Relevanz nachgewiesen zu haben. Die „variable Emissionshöhe“ bei minus 18°C stellt damit lediglich eine Rekursion auf den konventionellen S-B-Ansatz selbst dar. Und durch eine „vollautomatische“ Anpassung der Emissionshöhe „deckelt“ dieses Modell alle inneren Widersprüche des konventionellen S-B-Ansatzes (1).
Insbesondere sperrt dieses Modell die tatsächliche Temperaturgenese auf der Tagseite unserer Erde und die nachgewiesenen paläoklimatischen Temperaturschwankungen aus seiner Betrachtung aus.

Umgekehrt wird allerdings ein Schuh daraus: Wenn der gesamte „Körper ERDE“ in der hohen Atmosphäre bei minus 18°C mit 235 W/m² in den Weltraum abstrahlt, dann entspricht die vorgeblich durchschnittlich 14,8°C warme Erdoberfläche zunächst einem S-B-Strahlungsäquivalent von 390 W/m². Gegenüber der hohen Atmosphäre mit minus 18°C ergibt sich damit nach der Umgebungsgleichung des S-B-Gesetzes [Delta S = Sigma * (T4-T04)] aber ein Delta-Wärmefluss vom Wärmeren (Erdoberfläche) zum Kälteren (hohe Atmosphäre) von lediglich 155 W/m²:

(@NST = 14,8°C&390W/m²) 155 W/m² => (@T@70 = -18°C&235W/m²) 235 W/m² => Weltraum

Damit folgt die bekannte Differenz von [Delta S = 155 W/m²] exakt den HS der Thermodynamik und hat gar nichts mit einem „Treibhauseffekt“ oder einer „Gegenstrahlung“ zu tun, sondern ist allein den jeweils behaupteten Ortstemperaturen (T=14,8 °C) und (T0 = -18°C) geschuldet.

MEINE ARGUMENTATION zu THESE (2) – Breitenabhängige Mittelung der solaren Einstrahlung über Tag und Nacht (Kramm et al.):

Dieser Ansatz ist zwar „etwas anders“ als (1), aber auch NICHT richtig. Denn er verletzt durch eine breitenabhängige globale Mittelung ebenfalls die die STRENGE PHYSIKALISCHE GLEICHZEITIGKEIT im Stefan-Boltzmann-Gesetz.

BEWEISFÜHRUNG (2.1): Eigenartig ist, dass Kramm et al (2017) hier mit einem dünnen „Multilayer“ als Modell für unseren „Wasserplaneten“ Erde arbeiten. Diese (begrenzte) Slab-Speicherung bewirkt nämlich lediglich eine leicht verzögerte Abstrahlung, die sich vordergründig allerdings erheblich auf die Ortstemperatur auswirkt, weil die ersten 2 W/m² im S-B-Gesetz bereits ein Temperaturäquivalent von ca. 70 Kelvin liefern.
Aber allein die in den OZEANEN gespeicherte Energie (=Arbeit=Leistung*Zeit) entspricht einer Abstrahlungsleistung unserer Erde von etwa 120 JAHREN bei (IN=OUT@NST). Ein konservativer Vergleich des Wärmeinhalts der Ozeane mit der täglichen und jährlich global eingestrahlten Sonnenenergie zeigt, dass deren Einfluss auf die globale Temperaturgenese nicht vernachlässigt werden darf:

(Tag = 1,05*10^22 Joule) << (Jahr = 3,85*10^24 Joule) << (Ozeane > 4,59*10^26 Joule)

Die Ozeane enthalten also ein Energieäquivalent von etwa 50.000 Tagen Sonneneinstrahlung oder 100.000-mal die notwendige Energie, um auf der Erde eine vergleichbare Nachtabkühlung wie auf dem Mond zu verhindern. Die Interaktion der Ortstemperatur mit den globalen Wärmespeichern Atmosphäre und Ozeanen ist ein wesentlicher Mechanismus in der Temperaturgenese auf unserer Erde, der bei Kramm et al. (2017) lediglich durch eine (begrenzte) Slab-Speicherung in Analogie zum Mond berücksichtigt wird.

Zur Darstellung des Jahresverlaufs eines breitenabhängigen S-B-Temperaturäquivalentes: Kramm et al. (2017) stellen in Abbildung 22 den breitenabhängigen 24-Stunden-Durchschnitt der solaren Einstrahlung und dessen S-B-Temperaturäquivalent dar. Die Problematik einer solchen 24-stundendurchschnittlichen solaren Strahlungsleistung hatte ich in meinem EIKE-Artikel „Noch ein paar Fragen zum ‚natürlichen‘ atmosphärischen Treibhauseffekt“ vom 23. Juni 2017 anhand einer vergleichbaren Abbildung von Dennis L. Hartmann ausführlich erläutert; insbesondere lässt ein solcher Strahlungsdurchschnitt keinesfalls die Berechnung eines S-B-Temperaturäquivalentes zu. Der korrekte breitenabhängige Jahresverlauf des maximalen S-B-Temperaturäquivalentes ist weiter oben unter THESE (4) abgebildet und bestätigt die globale Klimaküche zwischen den Wendekreisen.
Es ist daher äußerst befremdlich, wenn Kramm et al. (2017) in Abbildung 22a aus einem solchen rechnerischen 24-Stunden-Strahlungsdurchschnitt ein S-B-Temperaturäquivalent ableiten, bei dem sich die globalen Temperatur- und Strahlungsmaxima wegen der Tageslängen im Polarsommer zwangsläufig auf der Polkalotte der jeweiligen Sommerhemisphäre konzentrieren. Die dermaßen fehlerhaft ermittelten Temperaturen liegen folglich im Jahresverlauf um den Äquator zwischen 220K und 240 K und steigen zum jeweiligen Pol der Sommerhemisphäre stark an. Grund dafür ist, dass die temperaturwirksame solare Einstrahlung zwischen den Wendekreisen im 24-Stunden-Durchschnitt praktisch halbiert wird, und sich in diesem Modell von Kramm et al. (2017) die globale „Klimaküche“ dadurch fälschlicherweise von der Äquatorzone zwischen den Wendekreisen auf den geographischen Pol der Sommerhemisphäre verschiebt.
BEWEISFÜHRUNG (2.2): Kramm et al. (2017) umschiffen die Problematik der terrestrischen Temperaturgenese, indem sie in ihrer Kernaussage (2.2) einfach die primäre Wirkungskette (Strahlungsflüsse = Ursache) und (lokale Temperaturen = Wirkung) umkehren. So kommen Kramm et al. (2017) schließlich zu dem Ergebnis, Zitat: „Based on our findings, we may conclude that the effective radiation temperature yields flawed results when used for quantifying the so-called atmospheric greenhouse effect.“ (S. 283 Ende vorletzter Absatz)

Der unparteiische Google-Übersetzer sagt: „Aufgrund unserer Ergebnisse können wir den Schluss ziehen, dass die effektive Strahlungstemperatur bei der Quantifizierung des sogenannten atmosphärischen Treibhauseffekts zu fehlerhaften Ergebnissen führt.“
Das Problem dieser Aussage ist wiederum, dass Kramm et al. gar nicht versucht hatten, den atmosphärischen Treibhauseffekt an einem realistischen Modell der Erde zu quantifizieren, sondern an ihrem nachweislich der BEWEISFÜHRUNG zu (2.1) unzureichenden „Multilayer“-Mond-Modell.

MEINE ARGUMENTATION zu THESE (3) – Globale Stefan-Boltzmann-Integration (Gerlich&Tscheuschner):
Der von Gerlich und Tscheuschner aufgezeigte Widerspruch (33°C # 144°C) ist analog zu dem gängigen „Faktor4“-Ansatz für einen „natürlichen atmosphärischen Treibhauseffekt“ innerhalb dieses Modells (1) korrekt abgeleitet worden.

Damit haben Gerlich&Tscheuschner den „natürlichen atmosphärischen Treibhauseffekt“ widerlegt.

Allerdings ist diese Widerlegung aus dem global gemittelten Modell (1) heraus erfolgt und daher kann dieses Ergebnis nicht auf die reale Erde angewendet werden. Denn lediglich die Tagseite der Erde (2PIR2) darf im Strahlungsgleichgewicht zwischen Sonne und Erde mit dem Stefan-Boltzmann-Gesetz betrachtet werden. Von daher hätte diese Lösung von Gerlich and Tscheuschner (2009) auf die Tagseite der Erde (2PIR2) beschränkt bleiben müssen.

BEWEISFÜHRUNG (3): Die physikalische Globaltemperatur Tphys von Gerlich and Tscheuschner (2009) beträgt -129 °C, respektive 144,15 K für die gesamte Erdoberfläche (4PIR2). Mit dem Stefan-Boltzmann-Gesetz darf aber lediglich die Tagseite der Erde (2PIR2) im Strahlungsgleichgewicht zwischen Sonne und Erde betrachtet werden. Von daher muss diese Lösung von Gerlich and Tscheuschner (2009) auf die Tagseite der Erde (2PIR2) reduziert werden.

Korrektur Weber für die Integrallösung von G&T: Lösung G&T * 4πR2 / 2πR2 = 2 * Lösung G&T

Folglich verdoppelt sich die Lösung von Gerlich and Tscheuschner für die physikalische Temperatur auf Tagseite der Erde zu

Tphys-korr = 288,3 °K oder 15,15 °C (Korrektur Weber für Lösung G&T)

und bestätigt damit wiederum meinen hemisphärischen Stefan-Boltzmann-Ansatz.

MEINE ARGUMENTATION zu THESE (4) – Hemisphärischer Stefan-Boltzmann-Ansatz (Weber):
Hier muss sich der interessierte Leser ein eigenes Urteil bilden, weil es sich um meinen eigenen hemisphärischen Stefan-Boltzmann-Ansatz handelt. Zwecks Arbeitsentlastung der EIKE-Redaktion finden Sie nachfolgend einige Kommentarvorschläge zum Ankreuzen:

O U. Weber, Fachrichtung Science Fictíon – unklar bleibt, warum EIKE einen derartigen Quark veröffentlicht!

O Alles was Sie hier schreiben ist völlig falsch, das hatte ich Ihnen schon vor 2 Jahren in meiner E-Mail nachgewiesen.

O Der „Geophysiker“ Weber verbreitet nun schon zum 14. Mal seinen Quatsch hier auf EIKE und hat den Faktor 4 immer noch nicht verstanden.

O Sie vergessen völlig, dass sich die Erde dreht. Und das so schnell, dass sich der größte Anteil der Erdoberfläche mit Überschallgeschwindigkeit nach Osten bewegt.

O Sie haben da einen Rechtschreibfehler in Ihrem Text. Wenn Sie einen so simplen Fehler machen, muss alles andere auch falsch sein.

O Zum fremdschämen, Herr Weber ist einfach nur peinlich.

O Die Anwendung des Stefan-Boltzmann-Gesetzes auf die Erde ist absurd.

O Was der Autor schreibt ist völliger Unsinn, ich habe das deshalb HIER mal einfach verständlich erklärt…

O Man kann doch nicht eine spezielle Situation der Anwendung des Stefan-Boltzmann Gesetzes herzuziehen, um die Physik der Erde umzukrempeln.

O Sie behaupten also, die Erde sei eine Scheibe und die Sonne scheint auch nachts.

Diese Liste bitte ausdrucken, einen passenden Kommentar ankreuzen, den Zettel zusammenknüllen und dann wegwerfen – Sie werden Sich danach sofort erleichtert fühlen. Die in diesem Beitrag zitierten Protagonisten dürfen selbstverständlich gleich mehrere Kommentare ankreuzen…

BEWEISFÜHRUNG (4): Ich darf an dieser Stelle zunächst nochmals darauf hinweisen, dass das mathematische Gleichheitszeichen im Stefan-Boltzmann-Gesetz die physikalische Randbedingung der GLEICHZEITIGKEIT impliziert.

Ein weiteres Argument für meinen hemisphärischen S-B-Ansastz ist die nachfolgende Abbildung „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite“ nach Häckel, die das Jahresmittel der advektiven Energieströme auf unserer Erde zeigt:

Abbildung: „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite“ nach HÄCKEL, H. (1990): Meteorologie. – 8. Aufl. 2016; Stuttgart (Verlag Eugen Ulmer), ISBN 978-3-8252-4603-7)

Diese Abbildung zeigt auf Basis einer globalen Energieabstrahlung von 235 W/m² den im Jahresdurchschnitt von den globalen Zirkulationen aus den äquatorialen Regionen in mittlere und höhere geographische Breiten hinein verfrachteten Wärmestrom. Tatsächlich dürften diese Beträge im jeweiligen Winterhalbjahr der mittleren und höheren Breiten noch deutlich höher ausfallen als der Jahresdurchschnitt selbst. Da die Betrachtung der globalen Abstrahlung über die Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in meinem hemisphärischen S-B-Ansatz ebenfalls auf einer durchschnittlichen globalen Abstrahlung von 235 W/m² beruht, reiht sich diese Abbildung von Häckel widerspruchslos in diese Argumentation ein.

Denn damit ist der Nachweis erbracht, dass die hemisphärisch ermittelten Einstrahlungsdefizite im jeweiligen Winterhalbjahr der mittleren und höheren Breiten aus dem horizontalen Wärmetransport der globalen Zirkulationen abgemildert werden.

In Teil 3 werden die Erkenntnisse zu den einzelnen Thesen/Antithesen und das Ergebnis dieser Analyse vorgestellt.




Hurrikane: Weder immer größer noch immer stärker noch immer gefährlicher

In der die Studie begleitenden Presseerklärung heißt es: „Hurrikane auf dem US-Festland werden größer, stärker und gefährlicher“ und dass die neue Studie „jedweder Zweifel beseitigt“.

Falls das stimmen sollte, würde die Studie (die ich hier mal nur als G19 bezeichnen möchte) Jahrzehnte lange Forschungen und Beobachtungen über den Haufen werfen, welche gezeigt haben, dass es keinen Aufwärtstrend im vorigen Jahrhundert gibt bzgl. der stärksten Stürme, die auf das Festland übertreten. Diese Schlussfolgerungen sind bestätigt worden durch die Zustandsberichte des IPCC, des U.S. National Climate Assessment und jüngst von der World Meteorological Organization.

Tatsächlich jedoch weist die PNAS-Studie massenhaft grobe Fehler auf. Die Schlussfolgerungen der grundlegenden wissenschaftlichen Forschungen bleiben gültig. Wie ich gleich zeigen werde, enthält G19 viele grundlegende Fehler und sollte infolgedessen zurückgezogen werden.

Das erste große Problem bei G19 ist, dass sich die Studie angeblich über so etwas wie klimatologische Trends bzgl. Hurrikane auslässt, aber tatsächlich werden keinerlei aktuelle Klimadaten dazu genannt. Das stimmt, stattdessen werden Daten bzgl. ökonomischer Verluste durch Hurrikane bemüht, um Schlussfolgerungen bzgl. Klimatrends zu ziehen. Die bemühten ökonomischen Daten in der Studie basieren auf Forschungen, welche ich selbst mit Kollegen seit über zwei Jahrzehnten durchgeführt habe. Daher bin ich befugt, die Fehler in G19 genau hervorzuheben. Man vergleiche die Anzahl von Hurrikanen in G19 mit der Anzahl von Hurrikanen in den Klimadaten der NOAA.

Von 1900 bis 1958, der ersten Hälfte des untersuchten Zeitraumes, listet die NOAA insgesamt 117 Hurrikane, welche auf das US-Festland übergetreten waren. Im Gegensatz dazu nennt G19 nur 92. Es sind also 25 davon einfach weggelassen worden. In der zweiten Hälfte des Datensatzes, also von 1959 bis 2017 zählte die NOAA 91 Hurrikane, G19 dagegen 155. Es wurden also einfach 64 Hurrikane dazu erfunden.

AP gab die falschen Informationen einfach weiter, hatte die Agentur doch berichtet, dass die neue Studie „247 Hurrikane untersucht, welche die USA seit dem Jahr 1900 betroffen haben“ (hier). Der NOAA zufolge wurden in Wirklichkeit jedoch nur 197 Hurrikane gezählt.

Zum Teil kann diese Differenz erklärt werden durch die Tatsache, dass sich G19 auf ökonomische Daten konzentriert und nicht auf Hurrikane. Falls nach einem Hurrikan zu Beginn des 20. Jahrhunderts keine Schäden bekannt geworden waren, dann hat ein solcher Hurrikan laut G29 gar nicht existiert. Das ist einer der Gründe, warum wir gerade nicht ökonomische Daten herangezogen hatten, um Schlussfolgerungen bzgl. Klima zu ziehen. Ein zweiter Grund für die Unstimmigkeiten ist, dass in G19 viele Hurrikane gezählt werden, die gar keine Hurrikane waren, und das unverhältnismäßig in der zweiten Hälfte des Datensatzes.

Das Missverhältnis der Zählung von Hurrikanen in G19 im Vergleich zur NOAA stellt bereits die ganze Studie in Frage. Aber es wird noch viel schlimmer.

Der von G19 benutzte Datensatz ökonomischer Verluste, aus welchem die Autoren ihre führenden Schlussfolgerungen ziehen, basiert auf meinen Forschungen. Jener Datensatz ist zusammen gestellt worden von einem Unternehmen namens ICAT mit Sitz in Colorado. Der ICAT-Datensatz wurde ursprünglich vor etwa einem Jahrzehnt von einem ehemalige Studenten und Mitarbeiter von mir Joel Gratz erstellt, welcher vollständig unseren Datensatz bzgl. Hurrikan-Verlusten aus dem Jahr 2008 zur Grundlage hat (den ich hier P08 nennen möchte).

Während der folgenden Jahre hat ICAT einige signifikante Änderungen am Datensatz vorgenommen. An erster Stelle ist dabei der Ersatz von Verlust-Schätzungen in P08 durch Verlust-Schätzungen aus der „Milliarden-Dollar-Katastrophen“-Tabelle des NOAA National Centers for Environmental Information (NCEI). Die Ersatzdaten beginnen im Jahre 1980 zu Beginn des NCEI-Datensatzes.

Dieses Verfahren erzeugte einen neuen Hybrid-Datensatz, wobei der ICAT-Datensatz von 1900 bis 1980 auf P08 basiert und von 1980 bis 2018 auf NCEI. Dies ist extrem problematisch für G19, weil man sich offensichtlich dieser Details des online gefundenen Datensatzes nicht bewusst war.

In unserer im vorigen Jahr veröffentlichten umfassenden Aktualisierung von P08 (Weinkle et al. 2018, oder W18) erklärten wir, dass in das NCEI-Verfahren zur Berechnung von Verlusten viele Faktoren eingegangen waren, die historisch gar nicht in den Auflistungen des U.S. National Hurricane Center enthalten waren, Z. B. „Katastrophenhilfen der öffentlichen Hand, Versicherungs-Auszahlungen, nationale und internationale landwirtschaftliche Beeinträchtigungen sowie andere makro-ökonomische Auswirkungen“.

Das bedeutete, dass man nicht, wie ICAT es getan hat, einfach den NCEI-Datensatz ab 1980 an den P08-Datensatz mit Beginn im Jahre 1900 anhängen kann. Man vergleicht nicht Äpfel mit Äpfeln. Tatsächlich machte ein Großteil unserer Arbeit bei der W18-Aktualsierung von P08 aus sicherzustellen, dass die Daten wirklich Äpfel mit Äpfeln über den gesamten Datensatz waren. Dazu haben wir viele statistische Konsistenz-Checks durchgeführt, um ganz sicher zu sein.

Die neue PNAS-Studie G19 benutzt unwissentlich den ICAT-Datensatz, welcher P08 und NCEI zusammen schustert. Auf Twitter habe ich mit vielen Graphiken belegt, warum das wichtig ist: Vor 1940 sind die Verlust-Schätzungen von G19 und W18 für individuelle Stürme in etwa identisch (hier). Nach dem Jahr 1980 jedoch sind die G19-Verlust-Schätzungen für individuelle Stürme um etwa 33% höher als die von W18. Das Ergebnis ist eine Daten-Inkonsistenz, welche falsche Trends in den Datensatz einbringt.

Der gesamte Artikel steht hier.

Link: https://wattsupwiththat.com/2019/11/16/no-hurricanes-are-not-bigger-stronger-and-more-dangerous/

Übersetzt von Chris Frey EIKE