KLIMANOT­STAND? NEIN DANKE!

Einleitung und Problemstellung

Der Begriff „Klimanotstand“ wird einerseits als Zustandsbeschreibung verwendet: Der anthropogene Klimawandel wäre mittlerweile so weit fortgeschritten und so bedrohlich, dass dadurch auch einschneidende Gegenmaßnahmen mit höchster Priorität gerechtfertigt wären. Es gäbe eben einen Notstand. Andererseits wird unter der „Erklärung des Klimanotstandes“ (oder „Ausrufung des Klimanotstandes“) ein offizieller Beschluss einer Verwaltung (Exekutive) oder eines Parlamentes (Legislative) verstanden, der a) diesen Zustand als gegeben feststellt und b) Regierungen und Verwaltungen beauftragt, Maßnahmen zur Reduzierung der anthropogenen CO2-Freisetzungen auszuarbeiten, die wesentlich über die bisher beschlossenen Maßnahmen hinausgehen.

Die erste deutsche Kommune, die offiziell den „Klimanotstand“ erklärt hat, war Konstanz im Mai 2019. Seither sind viele andere Städte und Gemeinden und auch einige Bundesländer diesem Beispiel gefolgt. Auf europäischer Ebene haben mehrere Staaten und auch das EU-Parlament den Klimanotstand ausgerufen. Die Bewegung „Fridays for Future“ fordert, den „Klimanotstand“ überall auszurufen.

Im Buch „Probleme beim Klimaproblem – Ein Mythos zerbricht“, /1/, hat der Autor dieses Beitrages gezeigt, dass es dafür keine wissenschaftlich gesicherte Basis gibt. Entgegen der weit verbreiteten Meinung gibt es beim „Klimaproblem“ gerade keinen wissenschaftlichen Konsens. Von der Zielsetzung, welches Klima wir überhaupt anstreben sollen, über das Ausmaß und die Geschwindigkeit der anthropogenen Klimaänderungen, über den Einfluss anderer Verursacher, bis hin zu den Erfolgsaussichten der vorgeschlagenen Abhilfemaßnahmen, überall gibt es noch viele und wichtige offene Fragen. Solange die nicht geklärt sind, ist ein „Klimanotstand“ prinzipiell nicht gerechtfertigt. Abklären, welcher Weg der richtige ist, sollte wichtiger sein, als mit Scheuklappen unbeirrt auf einem möglicherweise falschen Weg voranzuschreiten.

Vielleicht noch wichtiger ist die Basis-Frage: Woher kommt denn überhaupt das viele CO2 in der Atmosphäre? Hat das tatsächlich der Mensch verursacht? Dieser Problembereich ist die eigentliche Grundlage aller Klimadiskussionen. Nur wenn die Einschätzung „menschengemacht“ stimmt, nur dann kann die anthropogene CO2-Freisetzung das Klima verändern, vielleicht sogar katastrophal verändern, was allerdings umstritten ist, siehe gerade. Wenn die Einschätzung „menschengemacht“ aber nicht stimmt, dann gibt es nur noch zwei Möglichkeiten:

  1. Entweder ist CO2 tatsächlich klimabestimmend. Dann bestimmt überwiegend nicht anthropogen freigesetztes CO2 unser Klima! Eine Reduktion der anthropogenen Freisetzungen hat dann keinen nennenswerten Einfluss.
  2. Oder irgendetwas Anderes und nicht das CO2 bestimmt das Klima. Dann sind die anthropogenen CO2-Freisetzungen erst recht nicht schuld am Klimawandel!

Welche der beiden Möglichkeiten auch immer zutrifft, wenn der Mensch nicht schuld an der CO2-Zunahme ist, dann ist er auch nicht schuld an der Erwärmung und dann entfällt auch jede Berechtigung für den Klimanotstand. Also sollte eine Klärung der Herkunft des vielen CO2 in der Atmosphäre höchste Priorität haben.

In der Wissenschaft wird diese Frage allerdings nur selten thematisiert. Zu klar scheint die Antwort zu sein: Wenn wir Menschen sogar doppelt so viel CO2 freisetzen, als sich in der Atmosphäre ansammelt, dann ist dieser Anstieg „selbstverständlich“ menschengemacht. Aber so einfach ist das nicht. Im Buch „Abgesagt! Dem Klimanotstand bricht die Basis weg“, /2/, untersucht der Autor dieses Beitrages genau diese Frage sorgfältig, mit einem klaren Ergebnis: Es ist nicht der Mensch! Die Untersuchungen und Ergebnisse werden hier in verkürzter Form zusammengefasst und zur Diskussion gestellt. Für nähere Details sie auf /2/ verwiesen.

Zusammenfassung

Weitgehend unbestritten ist, dass vor dem Eingriff durch den Menschen etwa 280 ppm CO2 in der Atmosphäre vorhanden waren und jährlich etwa ein Viertel davon umgewälzt wurde, was eine mittlere Verweilzeit der CO2-Moleküle von etwa 4 Jahren ergibt. Unbestritten ist auch, dass die Konzentration heute etwa 410 ppm beträgt und jährlich um ca. 2 ppm weiterwächst, während gleichzeitig ca. 4 ppm/a anthropogen freigesetzt werden.

Umstritten ist dagegen die zusätzliche Annahme von IPCC, dass das vorindustrielle Gleichgewicht prinzipiell unverändert weiterbesteht und nur durch die hinzugekommenen anthropogenen Freisetzungen als einzige Änderung überlagert wird, wobei etwa die Hälfte dieser Freisetzungen langfristig in der Atmosphäre verbleibt, im Gegensatz zum natürlich freigesetzten CO2, das komplett sehr schnell wieder ausgeschieden wird. Auf Basis dieser Annahme aber schließt IPCC, dass die Störungszeit, die den Abbau von zu vielem CO2 in der Atmosphäre beschreibt, mehrere Jahrhunderte lang ist und der gesamte Anstieg der CO2-Konzentration in der Atmosphäre seit 1750 anthropogen ist. Daraus wiederum leitet IPCC die Forderung ab, die anthropogenen Freisetzungen schnellstmöglich vollständig einzustellen. Anderenfalls wären schwerwiegende Klimakatastrophen unvermeidbar. Die Ausrufung des Klimanotstandes soll dieser Forderung Nachdruck verleihen.

In dieser Arbeit hier wird gezeigt, dass dieser grundsätzliche Ansatz von IPCC mit der Physik nur schwer zu vereinbaren ist und zu falschen Schlüssen führt. Die wichtigsten Argumente sind:

  • Weil alle CO2-Moleküle gleich sind und weil die Atmosphäre gut durchmischt ist, müssen alle Moleküle sich auch gleich verhalten. Insbesondere auch zeitlich: Es kann nicht eine Gruppe länger in der Atmosphäre verbleiben als eine andere Gruppe!
  • Die Entnahme von CO2 aus der Atmosphäre (die Entnahme insgesamt, nicht die Netto-Entnahme unter Gegenrechnung der Freisetzungen, die ist im Gleichgewicht definitionsgemäß null) richtet sich immer nach der Konzentration in der Atmosphäre. Sie muss heute also um rund 50 % höher sein als vor Beginn der industriellen Revolution. Sie muss daher insgesamt um ungefähr 40 ppm/a gewachsen sein. Woher die erhöhte Konzentration kommt, ist dafür belanglos.
  • Wenn die Konzentration heute um 2 ppm/a zunimmt, dann muss die Freisetzung sogar um 2 ppm/a stärker gewachsen sein als die Entnahme (jeweils Summe aller Beiträge). Die 4 ppm/a der anthropogenen Freisetzungen langen bei weitem nicht, es muss eine (erhebliche!) weitere Quelle geben! Welche das ist, kann so nicht ausgesagt werden. Aber die allgemeine Erwärmung war auf jeden Fall daran beteiligt, was auch immer sie ausgelöst hat.
  • Weil die Entnahme von CO2 aus der Atmosphäre von der Konzentration in dieser und nicht von der Freisetzung abhängt, gibt es kein festes CO2-Budget, das nicht überschritten werden darf, wenn eine bestimmte Erwärmungsgrenze eingehalten werden soll.
  • Weil die Atmosphäre gut durchmischt ist, muss die CO2-Zusammensetzung in ihr immer der relativen Stärke der Quellen entsprechen. Da die anthropogenen Freisetzungen nur ca. 5 % der natürlichen Freisetzungen betragen, können auch nur ca. 5 % der CO2-Moleküle in der Atmosphäre anthropogen freigesetzte Moleküle sein. Was darüber hinaus geht, muss natürlichen Ursprungs sein.
  • Derselbe Effekt, der die Umwälzung zwischen Atmosphäre und Ozean+ Biomasse bewirkt, führt unvermeidbar auch dazu, dass die Umwälzung bei einer Erhöhung der CO2-Konzentration in der Atmosphäre unausgeglichen wird. Und zwar umso stärker unausgeglichen, je höher die Umwälzung im Gleichgewicht ist. Es ist diese Unausgeglichenheit der Umwälzung, die netto CO2 der Atmosphäre entnimmt. Sie führt zwangsweise auch dazu, dass die Störungszeit für den Abbau von CO2 nur kurz ist.
  • Bei seiner verfeinerten Modellversion, dem Bern Carbon Cycle Model, verwendet IPCC eine Formel, die den radioaktiven Zerfall eines Gemisches instabiler Atome richtig beschreibt, bei der Entnahme von CO2 aus der Atmosphäre aber zu grob falschen Ergebnissen führt.

Es gibt noch mehr Argumente mit gleichem Ergebnis. Die Konsequenzen sind gravierend: Wenn der Mensch die CO2-Konzentration nicht (wesentlich) erhöht hat, dann hat er auch nicht (wesentlich) zur Klimaerwärmung beigetragen! Eine Einstellung der anthropogenen Freisetzungen ist daher nicht erforderlich. Dem Klimanotstand bricht die Basis weg!

Literaturverzeichnis

/1/ Eike Roth: „Probleme beim Klimaproblem – Ein Mythos zerbricht“, BoD-Verlag Norderstedt 2019, ISBN 978-3-7481-8275-7.

/2/ Eike Roth: „Abgesagt! Dem Klimanotstand bricht die Basis weg“, BoD-Verlag Norderstedt 2020, ISBN 978-3-7526-4764-8.

/3/ IPCC AR 5: “Climate Change 2013: The Physical Science Basis”. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA, 1535 pp.

Hinweis: Dies sind Ausschnitte aus einem längeren Beitrag, der hier als PDF beigefügt ist:

KLIMANOTSTAND NEIN DANKE




Speisen natürliche Quellen den CO2-Anstieg in der Atmosphäre?

Im November 2020 fand man im Fachjournal “nature communications“ (1) eine Arbeit, die sich mit den CO2-Emissionan aus den Böden befasste. Die Forscher der Universität im britischen Exter wollen herausgefunden haben, dass bei einer Temperaturerhöhung von 2°C im Vergleich zum vorindustriellen Zeitalter, etwa 230 Milliarden Tonnen Kohlenstoff aus den Böden in die Atmosphäre freigesetzt werden. Umgerechnet sind das 843 Milliarden Tonnen Kohlendioxid.

Nun bewegt sich die Erde nachweislich aus einer kalten Phase, der kleinen Zwischeneiszeit, die um das Jahr 1850 endete, heraus. Diese Erwärmung ist also durchaus eine ganz natürliche Erscheinung und hat mit Kohlendioxid nichts zu tun. Aber durch diese natürliche Erwärmung wird natürlich, so wie die britischen Forscher festgestellt haben, Kohlendioxid aus den sich erwärmenden Böden freigesetzt.

Lauf IPCC erwärmten sich die globalen Landflächen seit der industriellen Revolution um ca. 1,53 °C (2).

Wenn nun eine Temperaturerhöhung um 2°C 843 Milliarden Tonnen Kohlendioxid freisetzen, dann bewirkt die bisherige Temperaturerhöhung von 1,53 °C eine Freisetzung von 645 Milliarden Tonnen Kohlendioxid.

Der vorindustrielle Gehalt an Kohlendioxid in der Atmosphäre soll um die 270 ppm betragen haben. Das sind 2100 Milliarden Tonnen Kohlendioxid in der Atmosphäre.

Nun ist der Gehalt des Kohlendioxids in der Atmosphäre auf 410 ppm angestiegen; es sind nun also 3190 Milliarden Tonnen, also 1090 Milliarden Tonnen mehr.

Wir haben aber gerade gesehen, dass allein durch die Ausgasung der Böden 645 Milliarden Tonnen Kohlendioxid in die Atmosphäre gelangten. Das bedeutet, dass 59% der Konzentrationssteigerung des Kohlendioxids in der Atmosphäre aus den Böden stammt und nicht aus den Auspuffen und Kaminen!

Derselbe Effekt tritt natürlich auch in den Meeren auf. Diese haben sich seit Beginn der industriellen Revolution um 0,87°C erwärmt (2).

Pro Kelvin gasen rund 0,06 g CO2 aus einem Kilogramm Wasser aus.

Eine Temperaturerhöhung von 0,87 Kelvin setzt also rechnerisch 10815 Milliarden Tonnen CO2 frei (vorausgesetzt man setzt eine homogene Durchmischung der Meere in allen Tiefen voraus, was sicher nicht der Fall ist).

Das ist dreimal mehr, als sich derzeit überhaupt in der Atmosphäre befinden!

D.h. die Ausgasung von CO2 aus Böden und den Meeren durch die natürliche Temperaturerholung seit Ende der kleinen Zwischeneiszeit ist der treibende Faktor bei der Erhöhung der CO2– Konzentration in der Atmosphäre.

Es gibt einen weiteren Indikator, der dies stützt.

Durch die Corona-Krise sank die Industrieproduktion in Deutschland um 9,2% (3). Ähnlich dürfte es in anderen Ländern sein. Das Handelsblatt meldete, dass Russlands Industrieproduktion um 9,6% gesunken ist (4). BNEF, das Analyse- und Beratungsunternehmen der Nachrichtenagentur Bloomberg schreibt in seinem neuesten * New Energy Outlook 2020‘: „Infolge der Covid-19-Pandemie gingen die Energieemissionen im Jahr 2020 um etwa 8% zurück“ (5). Hinzu kommen die deutlich reduzierten Fahrten mit dem Auto, der völlig weggebrochene Flugverkehr usw.

Wenn nun die jährlich steigende Konzentration des CO2 in der Atmosphäre auf die menschlichen Aktivitäten zurückzuführen ist, wie ja behauptet wird, dann müsste sich der massive weltweite Rückgang der CO2-Emissionen auf die Konzentration des CO2 in der Atmosphäre auswirken. Mann müsste eine Abschwächung, eine Delle in der Steigungskurve erkennen können.

Diese ist aber nicht zu erkennen (6)! Der drastische Einbruch der Produktion, der nahezu weltweite Lockdown, der Zusammenbruch der Flugindustrie und des Tourismus hinterlässt keinerlei Spuren in der Atmosphäre.

Folglich wird der Anstieg des CO2 nahezu ausschließlich aus natürlichen Quellen gespeist.

Und deswegen werden auch die zahllosen, rein ideologisch begründeten und billiardenschweren CO2-Einsparmaßnahmen nicht annähernd den Effekt haben, den man behauptet.

Allgemein ist man der Meinung dass der Gehalt des Kohlendioxid in den letzten tausenden von Jahren relativ konstant war und um die 280 ppm betrug.

Wie kommt man zu diesem Wert?

Nun, man untersucht beispielsweise Bohrkerne von Gletschereis, das man verschiedenen Epochen zuordnet. Die im Eis eingeschlossenen Luftbläschen, so glaubt man, zeigen die Kohlendioxid- Konzentration der damaligen Atmosphäre an. Danach soll vor Beginn der Industrialisierung eine CO2-Konzentration von nur 260 ppm geherrscht haben. 

Das ist höchst verwunderlich wenn man die Ergebnisse verschiedener Forschungsgruppen sieht. Messungen in Gletschereis ergaben im norwegischen Strobreen eine Konzentration zwischen 200 und 2900 ppm Coachman, L.K., E. Hemmingsen and P.F. Scholander, 1956. Gas enclosures in a temperate glacier. Tellus, 8: 415-423. und Coachman, L.K., T. Ennis and P.F. Scholander, 1958 a. Gas loss from a temperate glacier. Tellus, 10: 493-495.] und in der Antarktis von 280 bis 2900 ppm [Matsuo, S. and Y. Miyake, 1966. Gas composition in ice samples from Antarctica. J. Geophys. Res., 71 (22): 5235-5241. Messungen, die auf verschiedenen Gebieten Grönlands durchgeführt wurden, fanden folgende Konzentrationen: 100-800 ppm Scholander, P.F., E.A. Hemmingsen, L.K. Coachman and D.C. Nutt, 1961. Composition of gas bubbles in Greenland icebergs. J. Glaciol., 3: 813-822., 1700 bis 7400 ppm Raynaud D., and R. Delmas, 1977. Composition des gaz contenus dans la glace polaire. In: Isotopes and Impurities in Snow and Ice. International Association of Hydrological Sciences (Washington, D.C.) Publ., 118: 371-381, 400 bis 1200 ppm [Berner, W., B. Stauffer and H. Oeschger, 1978. Past atmospheric composition and climate, gas parameters measured on ice cores. Nature, 276: 53-55 und 250 -1000 ppm Stauffer, B., W. Berner, H. Oeschger, J. Schwander, 1981. Atmospheric CO2 history from ice core studies. Zeitschr. für Gletcherkunde und Glaziol., 17: 1-15.

Und dennoch behauptet man, die vorindustrielle Konzentration lag dauerhaft und unverändert bei 260 -280 ppm.

  1. https://www.nature.com/articles/s41467-020-19208-8, A spatial emergent constraint on the sensitivity of soil carbon turnover to global warming
  2. https://www.ipcc.ch/site/assets/uploads/2019/08/4.-SPM_Approved_Microsite_FINAL.pdf
  3. https://www.tagesschau.de/wirtschaft/boerse/industrie-produktion-103.html
  4. https://www.handelsblatt.com/politik/international/industrie-corona-trifft-russlands-wirtschaft-hart-industrieproduktion-bricht-um-9-6-prozent-ein/25924010.html
  5. https://about.bnef.com/blog/emissions-and-coal-have-peaked-as-covid-19-saves-2-5-years-of-emissions-accelerates-energy-transition/

  6. https://www.esrl.noaa.gov/gmd/ccgg/trends//graph.html

Über den Autor: Günter Vogl ist Chemietechniker, mit fundierter naturwissenschaflicher Ausbildung. Er befasst mich seit über 30 Jahren mit diesem Thema, was inzwischen zu drei Büchern geführt hat (Die erfundene Katastrophe (2016) und Klimadiktatur (2020) sind die aktuellen.




KLIMA DES IRRTUMS: Die schweren physikalischen Fehler, welche einen Klima-‚Notstand‘ erschufen

Alles war ein ungeheurer Fehler. Die Befürchtungen über eine gefährliche globale Erwärmung ergaben sich aus einem schwerwiegenden Fehler der Physik aus dem Jahr 1984. Niemand hatte es bisher bemerkt, weil die Klimawissenschaftler die Rückkopplungsmathematik aus der Kontrolltheorie, einem anderen Zweig der Physik, übernommen hatten, ohne sie zu verstehen. Die Kontrolltheoretiker, deren Wissenschaft die Klimatologen ausgeliehen hatten, hatten nicht erkannt, wie sie missbraucht worden war.

Ein internationales Team hervorragender Klimatologen und Kontrolltheoretiker, das von Christopher Monckton aus Brenchley zusammengestellt wurde, verbrachte Jahre mit der Jagd nach dem Fehler. Ihre 70-seitige wissenschaftliche Arbeit errechnet, dass die vom Menschen verursachte globale Erwärmung nach Korrektur des Fehlers nur ein Drittel dessen betragen wird, was die Klimawissenschaftler vorhergesagt hatten.

Es wird zu wenig globale Erwärmung geben, um uns zu schaden. Eine kleine, langsame Erwärmung wird insgesamt eine gute Sache sein. Es gibt keinen Klima-Notstand. Den hat es nie gegeben. Die Billionen, die für die Vernichtung von Arbeitsplätzen und Industrien verschwendet wurden, können jetzt für die vielen echten Umweltprobleme der Welt ausgegeben werden. Die globale Erwärmung gehört nicht dazu.

EINIGE DEFIITIONEN: Emissions-Temperatur angetrieben durch die Wärme der Sonne, an der Oberfläche ohne Treibhausgase in der Luft erhalten würde. Die Rückkopplungsreaktion ist eine zusätzliche Erwärmung, vor allem durch mehr Wasserdampf in der wärmeren Luft, ausgelöst durch direkte Erwärmung (z.B. durch CO2). Die solare Rückkopplungsreaktion wird durch die Emissionstemperatur ausgelöst. Zu den nicht kondensierenden Treibhausgasen gehören CO2, Methan, Ozon, Distickstoffoxid und FCKW, nicht aber Wasserdampf. Der natürliche Treibhauseffekt ist die Differenz zwischen der Emissionstemperatur und der Temperatur im Jahre 1850, als das Industriezeitalter begann. Die Gleichgewichts-Klimasensitivität (ECS) ist letztlich die endgültige Erwärmung durch verdoppeltes CO2.

Infolge des Fehlers waren die Klimawissenschaftler davon ausgegangen, dass, obwohl nur etwa 1 °C – also ein Viertel der globalen Erwärmung, die sie durch die Verdoppelung des CO2 in der Luft vorhersagten – direkt von dem hinzugefügten CO2 herrührte, zu dieser direkten Erwärmung weitere 3 °C zusätzliche Erwärmung kommen würden, die als Rückkopplungsreaktion bezeichnet wird, hauptsächlich durch mehr Wasserdampf – ein Treibhausgas – der in die durch CO2 erwärmte Luft verdunstete.

Sie hatten angenommen, dass der natürliche Treibhauseffekt – die Differenz zwischen der Emissionstemperatur an der Oberfläche ohne Treibhausgase und der Oberflächentemperatur im Jahr 1850, zu Beginn des Industriezeitalters – 32 °C betrug. Davon hatten sie 8 °C für eine direkte Erwärmung durch die vorindustriellen Treibhausgase gehalten mit den verbleibenden 24 °C als Rückkopplung (Abb. 1a).

Abbildung 1: (a) irrige und (b) korrigierte Darstellung des natürlichen Treibhauseffektes

Die direkte Erwärmung durch verdoppeltes CO2 beträgt nur etwa 1°C, was nach irrtümlicher Vorstellung der Klimawissenschaftler eine Rückkopplung von 3°C auslösen wird, so dass 1°C direkte Erwärmung zu einer Enderwärmung von 4°C wird.

Sie hatten zwei Fehler gemacht, einen kleinen und einen sehr großen. Ihr kleiner Fehler: Sie hatten vergessen, dass es ohne Treibhausgase in der Luft keine Wolken gäbe, welche die Sonnenstrahlung wie ein Spiegel harmlos in den Weltraum reflektieren würden. Die wahre Emissionstemperatur – die Temperatur, die an der Oberfläche herrschen würde, wenn sich anfangs keine Treibhausgase in der Luft befänden – wäre etwa 12 °C größer als von ihnen berechnet. Der wahre natürliche Treibhauseffekt war also nicht 32 °C, sondern 12 °C kleiner, bei nur 20 °C.

Ihr sehr großer Fehler: Sie haben vergessen, dass die Sonne scheint. Denn fast die gesamte vorindustrielle Rückkopplung bis 1850 – die zusätzliche Erwärmung, von der sie alle dachten, sie sei durch nicht kondensierende Treibhausgase (andere Gase als Wasserdampf) ausgelöst worden – wurde in Wirklichkeit nicht durch diese Gase, sondern durch die Wärme der Sonne ausgelöst. Tatsächlich fügten sie hinzu, dass die solare Rückkopplung als Teil der vorindustriellen Treibhausgas-Rückkopplung, die sie um 3200% überbewertet hatten, falsch berechnet wurde.

Die Argonauten berechnen, dass von den echten 19,9 °C des natürlichen Treibhauseffekts (Abb. 1b) 13,1 °C eine Rückkopplung auf die durch die Sonnenwärme getriebene Emissionstemperatur waren (solare Rückkopplung). Nur 0,7 °C war eine vorindustrielle Rückkopplung auf die 6,1 °C direkte Erwärmung durch Treibhausgase.

Die 24 °C Rückkopplung der Klimawissenschaftler war um das 33-fache zu groß. Deshalb haben sie die Rückkopplung nicht nur der direkten vorindustriellen Erwärmung der Treibhausgase überbewertet, sondern auch die direkte Erwärmung im industriellen Zeitalter, die weitgehend durch unsere eigenen Treibhausgasemissionen von 1850-2020 verursacht wurde.

Die Auswirkungen der Überbewertung durch die Klimawissenschaftler waren gravierend. Die Argonauten sind der Ansicht, dass aufgrund des Irrtums die gegenwärtig vorhergesagte vom Menschen verursachte globale Erwärmung etwa dreimal zu groß ist. Eine Korrektur beendet die Krise.

Klimawissenschaftler hatten weit mehr globale Erwärmung prophezeit als tatsächlich eingetreten ist

In der Wissenschaft ist jede Theorie – wie schön oder gewinnbringend sie auch sein mag – falsch und muss geändert oder sogar ersetzt werden, wenn Daten aus der realen Welt ihr widersprechen. Die große Diskrepanz zwischen vorhergesagter und realer Erwärmung in den letzten Jahrzehnten hat in der Tat gezeigt, dass mit der offiziellen Theorie etwas sehr falsch sein muss.

IPCC (1990, S. xxiv) hatte zuversichtlich eine mittelfristige, vom Menschen verursachte Erwärmung von 3,4 °C pro Jahrhundert vorhergesagt. Die gemessene vom Menschen verursachte globale Erwärmung von 1990-2020 entsprach jedoch nur 1,15 °C pro Jahrhundert (Abb. 2).

Abbildung 2: Mittelfristige projizierte im Vergleich zu vom Menschen verursachten Erwärmungsraten, 1990 bis 2020

Die vom IPCC vorhergesagte mittelfristige vom Menschen verursachte Erwärmung hat sich als um das Dreifache zu groß erwiesen. Diese enorme Glaubwürdigkeitslücke zwischen Vorhersage und realem Wandel stimmt mit den Berechnungen der Argonauten überein.

Die Klimamodelle hatten auch die fast 19-jährige Pause der Erwärmung von 1997-2015 nicht vorhergesagt (Abb. 3). Gegen Ende dieses Zeitraums, als ein Drittel unseres Klimaeinflusses eingetreten war, aber keine Erwärmung eingetreten war, ersetzte das IPCC die Modellprojektionen durch sein „Expertenurteil“ und kürzte seine mittelfristigen Vorhersagen stark ab.

Abbildung 3: Keine Erwärmung während der 18 Jahre von Juli 1997 bis Januar 2016 (UAH)

Widersprüchlicherweise hat der IPCC nicht auch seine langfristige globale Erwärmungsvorhersage reduziert, die trotz Milliardenausgaben für die Klimaforschung bei 1,5-4,5 °C pro CO2-Verdoppelung bleibt. Diese Vorhersage ist seit dem Charney-Bericht (1979) vor mehr als 40 Jahren unverändert geblieben. Sie war und ist übertrieben.

Wie der Nobelpreisträger und Physiker Richard Feynman zu sagen pflegte: „Wenn Experimente mit der Theorie nicht übereinstimmen, ist die Theorie falsch. In dieser einfachen Aussage liegt der Schlüssel zur Wissenschaft.“ Vorhersagen über die globale Erwärmung stimmen nicht mit beobachteten und gemessenen Temperaturänderungen in der realen Welt überein. Die Korrektur des Fehlers löst diese Diskrepanz auf.

Wie der Fehler zustande kam: Klimawissenschaftler hatten übersehen, dass die Sonne scheint

Die Entstehungsgeschichte des Fehlers ist interessant. Zu Beginn des 20. Jahrhunderts hatten Arrhenius (1906) und Callendar (1938) vorausgesagt, dass die endgültige Erwärmung durch verdoppeltes CO2 in der Luft etwa 1,5 °C betragen würde. Obwohl die Rückkopplungstheorie damals noch in den Kinderschuhen steckte, waren ihre Schätzungen mehr oder weniger korrekt.

Eine der frühesten Arbeiten, die die mathematischen Grundlagen der Rückkopplungstheorie legten, war Black (1934). Eines Morgens im Jahr 1927 befand sich Harold S. Black auf dem Weg zur Arbeit in den Bell Labs in Manhattan, wo er Verfahren zur Reduzierung des Lärms auf Ferngesprächsleitungen entwickelte. Die Gleichungen für Rückkopplungen in dynamischen Systemen kamen ihm in den Sinn, und er notierte sie in der Zeitung jenes Tages, die bis heute im Bell Labs Museum ausgestellt ist.

Die rückgekoppelte Verstärkerschaltung von Black (Abb. 4) zeigt nicht nur den μ Verstärker (im Klima, direkte Erwärmung durch Treibhausgase) und den β Rückkopplungsblock, sondern auch das Eingangssignal e (die durch die Sonnenwärme getriebene Emissionstemperatur bei Abwesenheit von Treibhausgasen). Das Papier von Black nennt e die „Signaleingangsspannung“.

Die Klimawissenschaftler hatten nicht erkannt, dass man keinen Verstärker ohne ein zu verstärkendes Eingangssignal haben kann.

Der Verstärkungsblock μ im Blockdiagramm von Black (Abb. 4) verstärkt das Eingangssignal e, so wie die direkte Treibhausgas-Erwärmung die Emissionstemperatur verstärkt. Der β-Rückkopplungsblock erzeugt eine Rückkopplung nicht nur auf den μ-Verstärkungsblock (direkte Treibhausgas-Erwärmung), sondern auch auf das Eingangssignal e.

Abbildung 4: R+ckkopplungs-Verstärkungs-Blockdiagramm, welches das Eingangssignal e zeigt, also die Nicht-Treibhausgas-Emissionstemperatur, welche die Klimawissenschaftler übersehen hatten.

Wenn man die große solare Rückkopplung übersieht, addiert man sie effektiv zu der eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch nicht kondensierende Treibhausgase (wie CO2, Methan, Distickstoffoxid und Ozon, denn Änderungen in der Konzentration des wichtigsten kondensierenden Treibhausgases, Wasserdampf, werden als Rückkopplung behandelt) und zählt sie falsch. Diese falsche Zuordnung bläht die Rückkopplung auf die Treibhauserwärmung auf und führt dazu, dass Klimawissenschaftler die globale Erwärmung überbewerten. Die Klimawissenschaftler hatten vergessen, dass die Sonne scheint und ihre eigene substanzielle Rückkopplung antreibt.

1945 schrieb Harold Blacks Kollege bei Bell Labs, Hendrik Wade Bode, das Standard-Lehrbuch über das Design von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Bild 5) ist praktisch identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addieren hatten.

Abbildung 5: Blockdiagramm des Rückkopplungsverstärkers (Bode, 1945), welches das Eingangssignal E0 (in Klima, Emissionstemperatur) zeigt, das die Klimawissenschaftler übersehen hatten, wodurch versehentlich die solare Rückkopplung zur Rückkopplung der direkten Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase addiert wurde.

1945 schrieb Harold Blacks Kollege bei Bell Labs Hendrik Wade Bode das Standardlehrbuch über die Konstruktion von Rückkopplungsverstärkern. Es erwies sich als so populär, dass es 30 Jahre lang jährlich veröffentlicht wurde.

Das Blockschaltbild des Rückkopplungs-Verstärkers (Abb. 5) ist funktionell identisch mit dem von Black. Hier ist E0 das Eingangssignal, dessen große Rückkopplung Klimawissenschaftler irrtümlicherweise zur Rückkopplung der direkten Erwärmung durch Treibhausgase addiert hatten.

Leider zitierten die Klimaforscher Bodes Buch, ohne es jedoch zu verstehen, gerade in dem Moment, als die Digitalisierung die Bedeutung der Rückkopplungstheorie geschmälert hatte. So schrieb zum Beispiel Hansen (1984):

Wir verwenden Verfahren und Terminologie von Rückkopplungsstudien in der Elektronik (Bode, 1945), um die Beiträge verschiedener Rückkopplungsprozesse analysieren zu können. Wir definieren die Systemverstärkung als das Verhältnis des Netto-Rückkopplungsanteils der Temperaturänderung zur gesamten Temperaturänderung“.

Hier beschreibt Hansen fälschlicherweise den Rückkopplungsanteil (den Anteil der End- oder Gleichgewichtstemperatur oder Erwärmung, der durch die Rückkopplung dargestellt wird) als „Systemverstärkung“. Der Systemverstärkungsfaktor ist eigentlich die Größe, mit der die direkte Temperatur oder Erwärmung vor der Rückkopplung multipliziert wird, um die End- oder Gleichgewichtstemperatur oder -erwärmung zu erhalten, nachdem die Rückkopplung gewirkt und das Klima wieder ins Gleichgewicht gebracht hat.

Hansens schwerwiegenderer Fehler ist jedoch nicht der einer bloßen Nomenklatur. Er versäumt es, die solare Rückkopplung zu erwähnen, geschweige denn sie zu erklären. Deshalb stellt er sich vor, dass die direkte Erwärmung von wenig mehr als 1 °C durch das verdoppelte CO2 in der Luft zu einer schlussendlichen oder Gleichgewichtserwärmung von etwa 4 °C wird, so wie es Lacis et al., Hansens Kollegen am NASA Goddard Institute for Space Studies, in den Jahren 2010 und 2013 getan haben und so wie es heutige Modelle tun (z.B. Zelinka et al., 2020, Sherwood et al., 2020).

Schlesinger (1988) verschlimmerte Hansens Fehler und zementierte ihn. Sein Rückkopplungs-Blockdiagramm (Abb. 6) zeigt Verstärkungs- und Rückkopplungsblöcke, aber wie Hansen berücksichtigte er weder die Emissionstemperatur noch ihre große Rückkopplung, die er effektiv als Teil der Rückkopplung auf die direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase falsch berechnet hat.

Abbildung 6: Fehlerhaftes Rückkopplungs-Blockdiagramm (Schlesinger 1988). Das Eingangssignal, die Emissionstemperatur, ist nicht vorhanden. Schlesinger impliziert somit, dass die große solare Rückkopplung darauf Teil der eigentlich winzigen Rückkopplung auf die vorindustrielle direkte Erwärmung durch nicht kondensierende Treibhausgase ist.

So stellte sich Schlesinger vor, dass der Rückkopplungsanteil – der Anteil der End- oder Gleichgewichtserwärmung, der durch die Rückkopplung repräsentiert wird – bis zu 71% betragen würde, ähnlich wie die 75% in Lacis et al.

1988 sagte Hansen vor dem US-Senat aus und prophezeite eine sehr schnelle globale Erwärmung. Seine Vorhersagen waren jedoch in seinem Irrtum verwurzelt. In jenem Jahr wurde das IPCC ins Leben gerufen. Sein Erster Sachstandsbericht sagte 1990, ebenfalls aufgrund des Irrtums, mittelfristig dreimal so viel globale Erwärmung voraus als während der folgenden 30 Jahre bis heute eingetreten ist (Abb. 2). Sein fünfter und jüngster Sachstandsbericht (IPCC 2013, S. 1450) definierte die Klima-Rückkopplung so:

Klima-Rückkopplung: Eine Wechselwirkung, bei der eine Störung in einer Klimagröße eine Änderung in einer zweiten bewirkt und die Änderung der zweiten Größe letztlich zu einer zusätzlichen Änderung der ersten führt. Eine negative Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung durch die von ihr verursachten Änderungen abgeschwächt wird; eine positive Rückkopplung ist eine Rückkopplung, bei der die anfängliche Störung verstärkt wird … die Klimagröße, die gestört wird, ist die globale mittlere Oberflächentemperatur, die wiederum Änderungen des globalen Strahlungshaushalts verursacht. … Die anfängliche Störung … kann von außen erzwungen werden oder als Teil der internen Variabilität auftreten“.

Die IPCC-Definition spiegelt nicht die in der Kontrolltheorie inzwischen fundierte Tatsache wider, dass das Eingangssignal – in Klima, Emissionstemperatur – selbst eine große solare Rückkopplung erzeugt.

Das IPCC verfügt über ein Fehlerbericht-Erstattungsprotokoll, zu dessen Annahme er von seinen Mitgliedsstaaten verpflichtet worden war, nachdem es eine Reihe von peinlichen Fehlern veröffentlicht hatte. Nach diesem Protokoll wurde der vorliegende Fehler dem IPCC gemeldet. Das IPCC weigerte sich jedoch sogar, den Erhalt des Fehlerberichts zu bestätigen, obwohl er zweimal an mehrere IPCC-Beamte und an das Sekretariat geschickt wurde. Nun, da der Fehler ans Licht gekommen ist, wird das IPCC nicht mehr benötigt.

Konsequenzen des Fehlers

Die direkteste Folge des Fehlers ist, dass, wenn die Emissionstemperatur weggelassen wird (Abb. 6-7), die große solare Rückkopplung fälschlicherweise zur eigentlich winzigen vorindustriellen Rückkopplung auf die direkte Erwärmung durch Treibhausgase addiert und entsprechend falsch gezählt wird.

Abbildung 7: Klimawissenschaftler stellen sich vor, dass 8°C direkte Erwärmung durch vorindustrielle, nicht kondensierende Treibhausgase eine Rückkopplung von 24°C bewirkten. Ihr Systemverstärkungsfaktor beträgt also 32 / 8 oder 4: Mit anderen Worten, sie multiplizieren jede direkte vom Menschen verursachte Erwärmung mit etwa 4, um die endgültige Erwärmung zu erhalten. Da die direkte Erwärmung als Reaktion auf das verdoppelte CO2 in der Luft etwa 1°C beträgt, sagen heutige Modelle nach Berücksichtigung der Rückkopplung eine mögliche Erwärmung von etwa 4°C voraus.

Das Team korrigierte diesen Fehler und berechnete, dass man die 6,1 °C direkte Erwärmung durch die vorindustriellen, nicht kondensierenden Treibhausgase nicht mit einem Systemgewinnfaktor von 32 / 8 oder 4 multiplizieren sollte, wie es Klimawissenschaftler tun. Stattdessen sollte man sie mit einem Systemverstärkungsfaktor von 6,8 / 6,1 oder nur mit 1,11 multiplizieren. Da sich die Erwärmung mit zunehmender Oberflächentemperatur ein wenig beschleunigt, wird aus dem Faktor 1,11 heute etwa 1,19.

Daher wird die direkte globale Erwärmung von 1,06 °C als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft zu einer Enderwärmung von nur 1,19 x 1,06, also nur 1,25 °C.
Die globale Erwärmung wird also weniger als ein Drittel der 4 °C betragen, die sich die Klimaforscher vorgestellt hatten.

Abb. 8 vergleicht die korrigierte Erwärmung mit aktuellen Vorhersagen.

Abbildung 8: Korrigierte Enderwärmung im Vergleich zu den Vorhersagen der Klimatologen.

Abb. 1 und 8 können kombiniert werden, um Abb. 9 zu erhalten, die die signifikante Kohärenz zwischen (a) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die mittelfristige, vom Menschen verursachte globale Erwärmung bis 2020 im Vergleich zur realen Erwärmung und (b) der dreifach überhöhten Vorhersage der Klimawissenschaftler von 1990 über die langfristige, endgültige Erwärmung durch verdoppeltes CO2 im Vergleich zu den korrigierten 1,25 °C zeigt.

Später wird sich auch zeigen, dass diese dreifach überhöhten Vorhersagen der mittel- und langfristigen globalen Erwärmung mit der dreifach überhöhten Vorhersage der mittelfristigen Erwärmung der tropischen Mitteltroposphäre über die letzten Jahrzehnte zusammenhängen (Abb. 19). 

Die von den Argonauten nach Korrektur des physikalischen Fehlers der Klimaforscher abgeleitete Enderwärmung von 1,25°C stimmt mit der Rate der beobachteten Erwärmung von 1850-2020 überein, aber die gesamte Bandbreite der Vorhersagen der Klimaforscher über die Enderwärmung stimmt nicht mit der Rate der beobachteten Erwärmung überein.

Abbildung 9: Klimatologen haben (a) die mittelfristige globale Erwärmung seit 1990 und (b) die langfristige, endgültige globale Erwärmung (d.h. die gleichgewichtige Klimasensitivität oder ECS) im Vergleich zu den auf Beobachtungen basierenden Werten überprognostiziert. Mittel- und langfristige Erwärmungsvorhersagen sind kohärent, wenn die Erwärmung um das Dreifache überbewertet wird.

Die Seiten 8-9, die ein wenig technisch sind, zeigen, wie die Argonauten fünf Tests zur Bewertung von Vorhersagen der globalen Erwärmung entwickelt haben. Zunächst nutzten sie die Tests, um ihre eigene Berechnung zu überprüfen, dass es nach Korrektur des Fehlers der Klimawissenschaftler zu einer Enderwärmung von 1,25°C durch verdoppeltes CO2 kommen würde (bekannt als Gleichgewichtsklimaempfindlichkeit oder ECS), mit einem Bereich von 1,05 bis 1,50°C. Als nächstes überprüften sie den gesamten Bereich der von den Klimawissenschaftlern vorhergesagten ECS von 2,0 bis 5,7°C, wobei sie Werte in diesem vorhergesagten Bereich als Input für einen Algorithmus verwendeten, um herauszufinden, ob und in welchem Ausmaß jede Vorhersage zu einem Widerspruch führte.

Die fünf Tests zum Nachweis, dass die Prophezeiungen der Klimawissenschaftler exzessiv sind

Lewis & Curry (2015) zeigten, dass man ohne ein gigantisches Klimamodell die endgültige Erwärmung durch verdoppeltes CO2 aus der beobachteten globalen Erwärmung des Industriezeitalters, den offiziell geschätzten Veränderungen, die durch unsere Treibhausgasemissionen verursacht werden, und dem gemessenen Strahlungsungleichgewicht der Erde berechnen kann. Sie kamen zu dem Schluss, dass die endgültige Erwärmung etwa 1,5°C betragen würde, so wie es Arrhenius und Callendar vor einem Jahrhundert getan hatten.

Ungeachtet einer ähnlich geringen Erwärmung, die in Lewis & Curry und vielen anderen Arbeiten (z.B, Lindzen & Choi 2011; Aldrin et al. 2012; Otto et al. 2013; Akasofu 2013; Spencer & Braswell 2014; Skeie et al. 2014; Soon et al. 2015; Bates 2016), haben die Klimaforscher ihre Vorhersagen von etwa 4 °C Enderwärmung als Reaktion auf die Verdoppelung des CO2-Gehalts in der Luft nicht reduziert, um die Reduktion zu erreichen, zu der sie die langsame Erwärmung der realen Welt in ihren mittelfristigen Vorhersagen der vom Menschen verursachten globalen Erwärmung gezwungen hatte.

Deshalb entwickelten die Argonauten fünf mathematische Tests, um festzustellen, ob ein Wert der Enderwärmung durch verdoppeltes CO2 aus dem Vorhersagebereich der Klimawissenschaftler von 2 °C bis 5,7 °C möglich war.

Test 1 basierte auf den Berechnungen des Teams, die zeigten, dass nach Korrektur des Fehlers der Klimawissenschaftler der wahre Bereich der Enderwärmung durch verdoppeltes CO2 1,05 bis 1,5 °C beträgt, mit einer mittleren Schätzung von 1,25 °C.

Selbst die geringste Vorhersage der Klimaforscher, 2 °C, scheitert bei diesem Test (Abb. 10).

Abbildung 10: Die neuesten offiziellen Vorhersagen der endgültigen Erwärmung oder ECS (Sherwood et al. 2020), verglichen mit der von Monckton of Brenchley et al. korrigierten ECS.

Die Tests 2-5 basieren auf Unit-Feedback-Reaktionen (UFR), d.h. Rückmeldungen pro 1 °C direkter Erwärmung.

Test 2 geht davon aus, dass die UFRs als Reaktion auf die direkte Treibhausgas-Erwärmung mit der Erwärmung der Oberfläche wachsen.

Die UFR ab 2020 sollte die UFR von 1850-2020 übertreffen, die wiederum die vorindustrielle UFR übertreffen sollte.

Doch selbst UFRs auf der Grundlage der geringsten Vorhersage der Klimatologen (ECS) von 2°C durch verdoppeltes CO2 basieren, scheitern bei diesem Test (siehe Einbruch der orangefarbenen Linie in Abb. 11).

Alle Vorhersagen über 2 °C fallen in Test 2 noch stärker durch.

Abbildung 11: Rückkopplungs-Reaktionen der Einheit U0 ≤ U1 ≤ U2 (solche pro 1 °C direkter Treibhauserwärmung) sollten mit der Erwärmung zunehmen. Sie tun genau das unter der Annahme einer Enderwärmung von 1,25°C durch verdoppeltes CO2 (equilibrium climate sensitivity, oder ECS: die grüne Linie). Basierend auf der vorhergesagten ECS ≥ 2°C in aktuellen Klimamodellen geht die Reihe jedoch unweigerlich nach unten statt nach oben.

Test 3 ermittelt, wie stark sich die Erderwärmung zwischen 1850 und 2020 hätte sein sollen, wenn eine gegebene Vorhersage der endgültigen Erwärmung durch verdoppeltes CO2 (ECS) zutreffen würde. Von 1850-2020 gab es eine gemessene globale Erwärmung von 0,9 °C. Allerdings impliziert selbst die vorhergesagte abschließende Erwärmung um 2 °C durch verdoppeltes CO2 (ECS) eine Erwärmung um 1,4 °C von 1850-2020, was wiederum das Eineinhalbfache der Erwärmung um 0,9 °C in diesem Zeitraum darstellt.

Test 3: Bei der mittleren ECS von 1850-2020 von 3,7 °C hätte es nicht 0,9 °C, sondern 2,5 °C Erwärmung geben müssen.

Die Obergrenze der Enderwärmung von 5,7°C würde eine Erwärmung um 3,6 °C von 1850-2020 bedeuten: das Vierfache der realen 0,9 °C (Abb. 12).

Somit fallen alle Vorhersagen der Klimawissenschaftler in Test 3 durch.

Abbildung 12: Alle derzeitigen Prognosen der Enderwärmung (ECS) von 2°C oder mehr aufgrund einer CO2-Verdoppelung im Zeitraum 1850 bis 2020 liegen weit über den gemessenen 0,9°C.

Test 4 leitet den vorindustriellen UFR und den durch die Emissionstemperatur ausgelösten UFR aus einer ECS-Vorhersage ab und nimmt deren Verhältnis X.
Selbst die von Klimawissenschaftlern prophezeite untere Grenze der Bandbreite von
2 °C impliziert einen vorindustriellen UFR, der zehnmal so hoch ist wie der UFR bei der Emissionstemperatur. Bei 1,25 °C ECS ist sie nur 2,4-mal so hoch.
Bei größeren Vorhersagen wächst der Überschuss rasch an (Abb. 13).

Abbildung 13: Der Anstieg des Basis-UFR-Verhältnisses X (das vorindustrielle UFR geteilt durch die Emissions-Temperatur UFR), der durch die vorhergesagte Enderwärmung ΔE2 impliziert wird, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt.

Test 5 leitet die verdoppelten CO2– und 1850-2020 UFR-Werte aus einer gegebenen ECS-Vorhersage ab und nimmt deren Verhältnis X2.

Auch hier ist selbst bei 2 °C vorhergesagter ECS die Verdoppelung von CO2UFR das 5-fache von 1850-2020 UFR.

Bei 3,7 °C vorhergesagter ECS im mittleren Bereich ist der verdoppelte CO2UFR 14-mal so hoch wie der 1850-2020 UFR.

Bei 5,7 °C vorhergesagter ECS des oberen Bereichs ist der verdoppelte CO2UFR-Wert 24-mal so hoch wie der von 1850-2020 UFR.

Werte von X2 weit über 1 sind unmöglich.

Der gesamte Bereich der ECS-Vorhersagen der Klimaforscher fällt in Test 5 durch.

Abbildung 14: Der Anstieg des zeitweiligen UFR-Verhältnisses X2 (das von den UFR-Klimawissenschaftlern verdoppelte CO2-Verhältnis geteilt durch das UFR-Verhältnis 1850-2020), das sich aus der vorhergesagten Enderwärmung ΔE2 durch den gesamten Bereich der ECS ergibt, verdoppelte das CO2, wobei die Emissionstemperatur (a) 267,6 K und (b) 255,3 K beträgt, fallen die Vorhersagen fallen in Test 5 durch.

Dementsprechend versagt das gesamte Spektrum der aktuellen Vorhersagen zur globalen Erwärmung in allen fünf Tests; und wie die Abbildungen 10 bis 14 zeigen, ist das Versagen umso größer, je höher die Vorhersage ist. Im Gegensatz dazu entspricht die vom Team berechnete Enderwärmung von 1,25 °C durch verdoppeltes CO2, die als Grundlage für Test 1 dient, den Tests 2-5.

Wie die Klimamodelle die Zunahme des Wasserdampfes in der oberen Atmosphäre überbewerteten

Nachdem die Argonauten den physikalischen Fehler der Klimawissenschaftler korrigiert und mit Hilfe der fünf Tests theoretisch festgestellt hatten, dass die Klimamodelle eine um das Dreifache zu hohe globale Erwärmung vorhersagen, suchten sie nach einer physikalischen Diskrepanz zwischen der Art und Weise, wie die Modelle das Verhalten eines relevanten Aspektes des Klimas simulieren, und dessen gemessenem, realen Verhalten.

Da Klimamodelle die vorindustrielle Rückkopplungsreaktion um 3200% überbewerten, begannen die Argonauten zu untersuchen, wie die Modelle die Wasserdampfrückkopplung darstellen, die von den Klimawissenschaftlern als der mit Abstand wichtigste Rückkopplungsprozess im Klima angesehen wird, löst dieser doch alle oder fast alle Netto-Rückkopplungsreaktionen aus.

Tatsächlich wurde eine bemerkenswerte Diskrepanz zwischen den Vorhersagen der Modelle und der beobachteten Realität festgestellt. Klimamodelle sagen voraus, dass sich die tropische Mitteltroposphäre in 10.000 m Höhe mehr als doppelt so schnell erwärmen dürfte wie die Oberfläche. In Wirklichkeit gibt es jedoch keinen solchen Hotspot. Die tropische obere Atmosphäre erwärmt sich nur ein wenig schneller als die Oberfläche. Alle Modelle waren falsch. Wo immer die Daten aus der realen Welt zeigen, dass die Modelle falsch sind, sind die Daten zu bevorzugen. Irgendwo lauert ein großer Fehler.

Abb. 15a (IPCC (2007, Abb. 9.1c) sagt diesen tropischen Hotspot in der Mitte der Troposphäre voraus, aber es gibt keinen Hotspot im realen vertikalen Temperaturprofil von bis zu 26.000 Metern Höhe, gemessen von Millionen von Ballonsensoren (Abb. 15b: Lanzante et al. 2006)

Abbildung 15: (a) prophezeites und (b) gemessenes vertikales Temperaturprofil der Atmosphäre

Der Hotspot wird von vielen einschlägigen Klimamodellen simuliert (Abbildung 16). Fehlt dieser, kann die Wasserdampf-Rückkopplung nicht so substantiell sein wie von den Modellen simuliert. Warum aber fehlt dieser prophezeite Hotspot?

Abbildung 16 Der Hotspot in vier Modellen (Lee at al. 2007: jedes Farbband repräsentiert 1°C)

IPCC 2007 (Abb. 9.1: hier Abb. 17) nahm an, dass der Hotspot der Fingerabdruck der vom Menschen verursachten Erwärmung sei.

Natürliche Einflüsse durch die Sonne, Vulkane, künstliches Ozon (O3) und Aerosole schienen den Hotspot nicht zu verursachen, wohl aber die vom Menschen verursachte Treibhausgas-Erwärmung.

Doch das IPCC hatte sich geirrt. Klimawissenschaftler sagen nun, dass der Hotspot ein Zeichen der globalen Erwärmung wäre, wie auch immer verursacht.

Abbildung 17: Der imaginäre Hotspot als Fingerabdruck der vom Menschen verursachten globalen Erwärmung.

Aber der Hotspot ist und bleibt abwesend. IPCC 2007 (Abbildung 10.7, hier Abbildung 18) prophezeite, dass sich der Hotspot mit der Zeit und der globalen Erwärmung ausbilden werde. Aber das IPCC hatte sich erneut geirrt.

Abbildung 18: Der Hotspotsoll sich angeblich im Zuge der Erwärmung bilden.

Obwohl das IPCC eine rasche Erwärmung der tropischen Oberluft vorhersagte, wurde sie in den Modellen von 1981-2016 im Vergleich zu den Daten aus der realen Welt um das Dreifache überbewertet (Christy 2019: hier Abb. 19).

Die Modelle wurden so programmiert, dass sie davon ausgehen, dass Wasserdampf, wie CO2, Methan, Distickstoffoxid und Ozon, in der gesamten Atmosphäre gut vermischt wäre. Das ist natürlich Unsinn.

Abbildung 19: Die Modelle überbewerten die Erwärmung der tropischen mittleren Troposphäre um das Dreifache zu hoch.

Die Modelle sagen voraus, dass der Wasserdampf in allen Höhenlagen zunehmen wird. Das ist falsch. In der mittleren Troposphäre sinkt die spezifische Feuchtigkeit seit 70 Jahren (NASA ESRL 1948-2020: hier Abb. 20).

Kein Hot Spot bedeutet eine geringe Wasserdampfrückkopplung und sehr geringe Erwärmung, was die Analyse des Teams bestätigt und belegt, dass sie mit den Beobachtungen in der realen Welt übereinstimmt.

Abbildung 20: In der mittleren Troposphäre nimmt die spezifische Feuchtigkeit ab (Kalnay et al. 1996).

Schlussfolgerung: Der moralische Imperativ lautet: Zugang zu bezahlbarem Strom für alle!

Nachdem der schwerwiegende physikalische Fehler der Klimaforscher korrigiert worden war, beträgt die globale Erwärmung ein Drittel dessen, was prophezeit worden ist, kohärent mit der realen Erwärmung, die ein Drittel der von ihnen vorhergesagten beträgt, und kohärent mit dem Rückgang des Wasserdampfes in der mittleren tropischen Troposphäre und mit dem Fehlen des vorhergesagten Hot Spots.

Aufgrund des Fehlers vergeben viele Banken keine Kredite mehr an Entwicklungsländer für Kohlekraftwerke: ab 2010 die Weltbank; ab 2015 Credit Agricole, Citibank, ANZ und Goldman Sachs; ab 2016 JP Morgan, Deutsche Bank, PNC, Credit Suisse, ABN Amro, Standard Chartered, US Bancorp, Commerzbank und Barclays; ab 2017 DZ Bank und NAB; ab 2018 DBS; ab 2019 sogar die Afrikanische Entwicklungsbank.

Doch laut Weltgesundheitsorganisation sterben 4 Millionen Menschen pro Jahr in Haushalten ohne Strom durch das Einatmen von Kochfeuerrauch und 500.000 Frauen pro Jahr bei der Geburt – nur zwei der zahlreichen Ursachen für vorzeitigen Tod durch fehlenden Zugang zu Elektrizität. Die Internationale Energieagentur definiert „Zugang“ als nicht mehr als die Kapazität, eine 60-Watt-Glühbirne vier Stunden täglich zu benutzen. Eine Milliarde Menschen haben keinen Zugang zu elektrischer Energie – eine Entwicklungspriorität, die heutzutage sicher und erschwinglich durch Kohleverstromung erfüllt werden kann.

Die ungerechtfertigte Furcht vor einer großen, raschen und gefährlichen globalen Erwärmung hat Mittel für Umweltverbesserungen verschlungen, die für erschwingliche und praktikable Lösungen für die vielen realen Umweltprobleme hätten ausgegeben werden müssen, die sich aus Armut und Elend in den Entwicklungsländern ergeben – Lösungen wie die universelle, erschwingliche, kontinuierliche, zuverlässige, kohle- und gasbefeuerte Elektrifizierung, die jetzt wieder möglich ist.

Nach der Korrektur des Fehlers wird die Indoktrination von Kindern über die globale Erwärmung von Cannow eingestellt. Viele haben ihre Kindheit durch grundlose Angst ruiniert, manche haben sich sogar aus Verzweiflung umgebracht.

Es gibt viele wirkliche Umweltprobleme, aber die langsame, leichte und insgesamt vorteilhafte Erwärmung, die nach der Korrektur des langjährigen und kostspieligen Fehlers der Klimawissenschaftler zu erwarten ist, gehört nicht dazu.Die Palette von Klimaregeln, Beschränkungen, Steuern, Auflagen, Konferenzen, Reden und Verträgen ist unnötig. Die vom Menschen verursachte globale Erwärmung verursachte, verursacht keinen „Klima-Notstand und wird dies auch niemals verursachen“. Es ist alles vorbei.

References

Akasofu S-I (2013) On the present halting of global warming. Climate 1(1):4–11.

Aldrin M, Horden M, Guttorp P, Skeie RB, Myhre G, Berntsen TK (2012) Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics 23:253–271. https://doi.org/10.1002/env.2140

Andrews T, Gregory JM, Webb MJ, Taylor KE (2012) Forcing, feedbacks and climate sensitivity in CMIP5 coupled atmosphere– ocean climate models. Geophys Res Lett 39:L09712. https://doi.org/10.1029/2012GL051607

Arrhenius S (1906) Die vermutliche Ursache der Klimaschwankungen (“The possible cause for climate variability”) Meddelanden från K Vetenskapsakademiens Nobelinstitut 1(2):1ff

Bates JR (2016) Estimating climate sensitivity using two-zone energy–balance models. Earth Space Sci 3(5):207–225. https://doi.org/10.1002/2015EA000154

Black HS (1934) Stabilized feedback amplifiers. Bell System Tech J 1–18

Bode HW (1945) Network analysis and feedback amplifier design. Van Nostrand Reinhold, New York, 31–43

Callendar GS (1938) The artificial production of carbon dioxide and its influence on temperature. Q.J.R. Met. Soc. 64(275), 223– 240. https://doi.org/10.1002/qj.49706427503

Charney JG, Arakawa A, Baker DJ, Bolin B, Dickinson RE, Goody RM, Leith CE, Stommel HM, Wunsch CI, (1979) Carbon

Dioxide and Climate: A Scientific Assessment Report of an Ad-Hoc Study Group on Carbon Dioxide and Climate. Climate Research Board, Assembly of Mathematical and Physical Sciences, National Research Council, Woods Hole, Massachusetts Christy J (2019) The tropical skies: falsifying climate alarm. Global Warming Policy Foundation, London.

Hansen J, Lacis A, Rind T, Russel G, Stone P, Fung I, Ruedy R, Lerner J (1984) Climate sensitivity 1984: Analysis of feedback mechanisms. In: Climate Processes and Climate Sensitivity (AGU Geophysical Monograph 29). Hansen J Takahashi T (eds).

American Geophysical Union 130-163

IPCC (1990) Climate change – The IPCC Assessment: Report prepared for the Intergovernmental Panel on Climate change by Working Group 1. Houghton JT, Jenkins GJ, Ephraums JJ (eds). Cambridge University Press

IPCC (2001) Climate Change 2001: The scientific basis Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Houghton JT et al (eds). Cambridge University Press

IPCC (2007) Climate Change 2007: The physical science basi.s Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon S et al (eds). Cambridge University Press

IPCC (2013) Climate change 2013: The physical science basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Stocker TF et al (eds). Cambridge University Press

Kalnay E, Kanamitsu M, Kistler R, Collins W, Deaven D, Gandin L, Iredell M, Saha S, White G, Woollen J, Zhu Y, Chelliah M,

Ebisuzaki W, Higgins W, Janowiak J, Mo KC, Ropelewski C, Wang J, Leetmaa A, Reynolds R, Jenne R, Joseph D (1996) The NCEP/NCAR Reanalysis 40–year Project. Bull Amer Meteor Soc 77:437–471

Lacis AA, Schmidt GA, Rind D, Ruedy RA (2010) Atmospheric CO2: principal control knob governing Earth’s temperature. Science

330: 356–359

Lacis AA, Hansen JE, Russel GL, Oinas V, Jonas J (2013) The role of long-lived greenhouse gases as principal LW control knob that governs the global surface temperature for past and future climate change. Tellus B 65:19734: https://doi.org/10.3402/tellusb.v65i0.19734

Lanzante JR, Peterson TC, Wentz FJ, Vinnikov KY (2006) CCSP synthesis and assessment report 11. In: Temperature Trends in the lower atmosphere: steps for understanding and reconciling differences. US Climate Change Science Program and Subcommittee on

Global Change Research (Karl TR, Hassol SJ, Miller CD, Murray WL, eds.). National Oceanographic & Atmospheric Administration, National Climatic Data Center, Asheville North Carolina

Lee MI, Suarez MJ, Kang IS, Held IM, Kim D (2007) A moist benchmark calculation for the atmospheric general-circulation models. J Clim 21:4934–4954

Lewis N, Curry JA (2015) The implications for climate sensitivity of AR5 forcing and heat uptake estimates. Clim Dyn 45:1009–

1023. https://doi.org/10.1007/s003820142342y

Lindzen RS, Choi Y-S (2011) On the observational determination of climate sensitivity and its implications. Asia-Pacific J Atmos Sci 47(4):337–290. https://doi.org/10.1007/s131430110023x

Meehl GA, Senior CA, Eyring V, Flato G (2020) Context for interpreting equilibrium climate sensitivity and transient climate response from the CMIP6 Earth system models. Sci Adv 6(26). https://doi.org/10.1126/sciadv.aba1981

HadCRUT4 dataset: metoffice.gov.uk/hadobs/hadcrut4/data/current/time_series/HadCRUT.4.6.0.0.monthly_ns_avg.txt (accessed

November 2020)

Otto A, Otto F, Boucher O et al (2013) Energy budget constraints on climate response. Nat Geosci 6:415–416. https://doi.org/10.1038/ngeo1836

Schlesinger ME (1988) Feedback analysis of results from energy balance and radiative–convective models In: MacCracken MC, Luther FM (eds). The potential climatic effects of increasing carbon dioxide. US Dept of Energy, Washington DC, pp 280–319

Sherwood SC, Webb MJ, Annan JD, Armour KC, Forster PM, Hargreaves JC, Hegerl G, Klein SA, Marvel KD, Rohling EJ, Watanabe M, Andrews T, Braconnot P, Bretherton CS, Foster GL, Hausfather Z, von der Heydt AS, Knutti R, Mauritsen T, Norris JR, Proistosescu C, Rugenstein M, Schmidt GA, Tokarska KB, Zelinka MD (2020) An assessment of Earth’s climate sensitivity using multiple lines of evidence. Rev Geophys. https://doi.org/10.1029/2019RG000678

Skeie RB, Berntsen T, Aldrin M, Holden M, Myhre G (2014) A lower and more constrained estimate of climate sensitivity using updated observations and detailed radiative forcing time series. Earth Syst Dyn 5:139–175

Soon WW-H, Connolly R, Connolly M (2015) Re-evaluating the role of solar variability on Northern Hemisphere temperature trends since the 19 century. Earth-Sci Rev 150:409–452. https://doi.org/10.1016/j.earscirev.2015.08.010

Spencer RW, Braswell WD (2014) The role of ENSO in global ocean temperature changes during 1955–2011 simulated with a 1D climate model. Asia–Pacific J Atmos Sci 50(2):229–237

UAH dataset: monthly global mean land and sea lower-troposphere temperature anomalies (accessed November 2020). http://www.nsstc.uah.edu/data/msu/v6.0/tlt/uahncdc_lt_6.0.txt

Wu T, Hu A, Gao F, Zhang J, Meehl GA (2019) New insights into natural variability and anthropogenic forcing of global/regional climate evolution. Clim Atmos Sci 2(18). https://doi.org/10.1038/s4161201900757

Zelinka MD, Myers TA, McCoy DT, Po-Chedley S, Caldwell PM, Ceppi P, Klein SA, Taylor KE (2020) Causes of higher climate sensitivity in CMIP6 models. Geophys Res Lett. https://doi.org/10.1029/2019GL085782

Autoren (die Argonauten):

Christopher Monckton of Brenchley (monckton@mail.com) is a former adviser to Margaret Thatcher on science and policy at 10 Downing Street. He discovered climate scientists’ error and gathered the Argonauts to investigate it.

Dr Dietrich Jeschke is Professor of Control Theory at the Flensburg University of Applied Sciences.

Dr Willie Soon is an award-winning astrophysicist at the Harvard-Smithsonian Center for Astrophysics.

Dr David Legates is Professor of Climatology at the University of Delaware and a former State Climatologist. He is currently Executive Director of the U.S. Global Change Research Program.

Dipl.-Ing. Michael Limburg is a control engineer and climate specialist at the Europäisches Institut für Klima und Energie.

Alex Henney (alexhenney@aol.com) advises governments worldwide on the global electricity market and grid development.

He conceived the idea for this plain man’s guide and wrote the first draft.

John Whitfield is a control engineer. He designed and built the test apparatus on which this research was verified. His work was later confirmed by a similar test apparatus at a government physical laboratory.

James Morrison is an environmental consultant who once sold wind turbines to Napa Valley wineries.

Dr Tom Sheahen is a physicist and alumnus of the Massachusetts Institute of Technology.

William Rostron is an award-winning control engineer who designed and programmed the world-leading integrated control system at the Oconee Nuclear Facility, Seneca, South Carolina.

Acknowledgements

The Argonauts thank Mr William Bailey, Professor Matt Briggs, Mr Edward Bullerdieck, the late Professor Freeman Dyson,

Professor Chris Essex, Professor Pat Frank, Professor Dr Hermann Harde, Mr Michael Haseler, President Václav Klaus,

Professor Dr Mojib Latif, Mr Nic Lewis, Professor Adrian Mathias, The Viscountess Monckton of Brenchley, Dr Benoît Rittaud, Academician Dr Vladimir Semenov, Professor Nir Shaviv, Dr Roger Taguchi, Mr George White and Academician Dr

Nina Zaytseva for discussions, Professor Ray Bates, The Baron Clanmorris of Newbrook, Dr Michael Connolly, Dr Ronan

Connolly, Professor Will Happer, Dr David Heald, Professor Murry Salby and the

Global Warming Policy Foundation for pre-submission reviews; Professor Maria da Assunção Ferreira Pedrosa de Araújo, The Rev. David Foster, Mr G. Edward Griffin, Ms Pamela Matlack-Klein, the late Professor Nils-Axel Mörner, Mr Hal Shurtleff, the Cambridge Union Society, the Charles University at Prague, the Government of Colombia, the Committee for a Constructive Tomorrow, the Government of the Czech Republic, the Deutscher Bundestag, the Europäisches Institut für Klima und Energie, the European Parliament, Hancock Prospecting, the Heartland Institute, the Hong Kong and Shanghai Banking Corporation, the International Committee on Geoethics, the Moscow City Government, the Oxford Union Society, the St Andrews University Union, the Conference of the Parties to the United Nations Framework Convention on Climate Chance and the U.S. House of Representatives for facilitating discussion of these and related ideas at international conferences; and Professor Antonino Zichichi for having provided, at the Centre for Scientific Culture in Erice, Sicily, the high-level scientific forum from which these ideas sprang. Those acknowledged may or may not endorse the Argonauts’ conclusions.

Übersetzt von Chris Frey EIKE

Bemerkung: Wer die Übersetzung überprüfen will, der klicke auf das beigefügte PDF im Original. Die über die Formatierungen in dieser Übersetzung hinaus gehenden Formatierungen konnten nicht mit übernommen werden.

climate-error-guide




Die Klima-Inquisition von Senator Sheldon Whitehouse geht weiter

Amerika und die Welt brauchen nicht noch mehr Zensur. Sie brauchen eine offene, robuste Debatte: über die Stichhaltigkeit der Behauptungen zur Klimakrise, über die Auswirkungen, die buchstäblich Millionen von Windturbinen und Milliarden von Sonnenkollektoren und Batteriemodulen auf unsere Umwelt und die Tierwelt haben, über die Auswirkungen, die ein teures, nur vom Wetter abhängiges Energiesystem auf Arbeitsplätze, Lebensstandard und Arbeiterfamilien haben. In meinem Artikel geht es um diese Fragen.

Vor fünf Jahren sagte ich, dass Senator Sheldon Whitehouse (D-RI) sich wie Torquemada verhält, indem er inquisitionsähnliche Taktiken anwendet, um Skeptiker der „menschengemachten Klimakrise“ zu schikanieren, und damit droht, sie wegen Erpressung zu verfolgen. Tomas de Torquemada war der Großinquisitor der spanischen Inquisition, die Tausende wegen religiöser Ketzerei verhörte, folterte, einsperrte und hingerichtet hat.

Der Senator nahm großen Anstoß daran und prangerte mich in den Kammern des Senats an, in denen ich einst arbeitete. Aber er änderte sein Verhalten nicht. Wenn überhaupt, dann ist er intoleranter und rachsüchtiger geworden.

Kürzlich sagte er, dass die Kontrolle des Senats durch die Demokraten es ihm und seinen Kollegen ermöglichen würde, Ermittlungen einzuleiten, Klima-Realisten vor Komitees zu bringen (für Schauprozesse prominenter Natur) und sogar große Geschworenenjurys und Strafverfolgungen einzusetzen – um Nichtgläubige bzgl. Klimakrise einzuschüchtern, zum Schweigen zu bringen und zu bestrafen.

Sicher würde sich der dünnhäutige Senator in der Inquisition Spaniens, im stalinistischen Russland, bei der Roten Garde und im Xi Jinping China oder im buchverbrennenden vor-holocaust-faschistischen Europa zu Hause fühlen. Ihre Geschichte, Dissidenten zum Schweigen zu bringen, sie aus der Geschichte auszulöschen und sie in Gulags und Salzminen (oder noch schlimmer) zu schicken, ist legendär. Ihre Wirtschafts- und Regierungsideologie ist der klassische Faschismus:

… ein extremes, intolerantes System, in dem eine autoritäre Regierung Unternehmen und Industrien nicht direkt besitzt, sondern ihnen diktiert, was sie herstellen, tun, verkaufen und sagen dürfen – während sie die Gedanken, die Rede und die Entscheidungen der Bürger kontrolliert – und zwar durch Einschüchterung, zum Schweigen bringen, Verhaftung, Strafverfolgung und aus Angst davor, mit einer Geldstrafe belegt, eingesperrt, entlassen, in Strafkolonien oder Umerziehungskolonien geschickt und geschlagen oder hingerichtet zu werden.

Diese Taktiken sind verwerflich und diktatorisch. Sie sind unamerikanisch und wissenschaftsfeindlich. Tatsächlich erzielt die Wissenschaft ohne Dissens, Diskussion und Debatte keinen Fortschritt. Sie benötigt nicht nur Hypothesen, Theorien und Computermodelle, sondern solide, empirische Beweise, um Hypothesen, Modelle und Vorhersagen zu bestätigen oder zu widerlegen.

Diskussion, Auseinandersetzung, Dissens und Beweise sind besonders wichtig, um der Behauptung zu begegnen, dass die Menschheit vor einer beispiellosen, von Menschen verursachten Klimakrise steht. Diese Behauptung wird benutzt, um Forderungen an die Vereinigten Staaten, Europa und die Industrieländer zu rechtfertigen, die fossilen Brennstoffe, die über 80% unserer Energie liefern, sowie petrochemische und pharmazeutische Rohstoffe, Düngemittel und zahllose andere Vorteile zu eliminieren.

Sie wird benutzt, um Forderungen zu rechtfertigen, dass wir diese zuverlässige, erschwingliche Energie- und Rohstoffbasis durch Wind-, Sonnen-, Batterie- und Biokraftstoffenergie ersetzen. Diese Alternativen sind nicht nur intermittent, wetterabhängig und weitaus teurer. Sie sind mit umfangreichem Bergbau, Landnutzung, Vernichtung von Wildnis, Umweltverschmutzung und anderen Umweltauswirkungen verbunden. Sie sind nicht erneuerbar, nachhaltig, umweltfreundlich oder klimasicher.

Allein in den Vereinigten Staaten müssten wir jährlich etwa 7,5 Milliarden Megawattstunden Strom und das Strom-Äquivalent fossiler Brennstoffe ersetzen, enorme Mengen an Erdöl- und Erdgasrohstoffen ersetzen und unsere Verkehrs-, Hausheizungs- und sonstigen Systeme überholen. Dazu wären Millionen von Windturbinen, Milliarden von Sonnenkollektoren, Milliarden von 1000-Pfund-Batteriemodulen, zig Millionen Hektar Mais, Raps, Soja und andere Biokraftstoffpflanzen erforderlich – und zig Billionen von Dollar.

Die demokratische Stadtbevölkerung und die Wählerzentren werden sich wahrscheinlich gegen diese Anlagen im industriellen Maßstab in ihren Hinterhöfen stellen. Sie hätten wenig dagegen, sie in einem Land anzusiedeln, das von vielen Herrschafts-, Medien- und Hollywood-Eliten herrisch und spöttisch als „Überflugsland“* bezeichnet wird – in den westlichen, mittelwestlichen und südlichen US-Staaten.

[*Gemeint sind die dünn besiedelten US-Staaten, in denen man „nicht wohnt“. Anm. d. Übers.]

Diese „Umgestaltung“ – im Rahmen des Pariser Klimaabkommens, eines Green New Deal oder eines Biden-Harris-Regulierungsprogramms – würde die Wirtschaft, die Arbeitsplätze, den Lebensstandard, die Gesundheit und das Wohlergehen der Amerikaner massiv beeinträchtigen, was insbesondere für arme Familien und Gemeinschaften, die einer Minderheit angehören, für Arbeiter, Festverdiener und für Familien und Gemeinschaften in den dünn besiedelten US-Staaten gilt.

Klima-Alarmisten bestehen darauf, dass alle verlorenen Arbeitsplätze durch „grüne“ Arbeitsplätze ersetzt würden. Aber das wären zumeist Mindestlohnpositionen: Ziehen, Installieren, Warten, Demontieren, Entfernen und Deponieren von Turbinen, Paneelen und Batterien. Darüber hinaus würden die meisten dieser grünen Technologien in Übersee hergestellt werden, insbesondere in China, da Umweltschützer gegen jeden Bergbau in den USA kämpfen und ein klimaorientiertes Energiesystem den Fabriken nicht genügend zuverlässigen und erschwinglichen Strom liefern würde.
Diese riesigen und beispiellosen Mengen an Bergbau und Produktion würden fossile Brennstoffe erfordern. Das Einzige, was sich also ändern würde, sind die Örtlichkeiten des Verbrauchs und der Emissionen fossiler Brennstoffe stattfinden.

Es wären vor allem Länder in Asien und Afrika, Länder also, die nach dem Pariser Klimaabkommen nicht verpflichtet sind, ihren Verbrauch an fossilen Brennstoffen oder Treibhausgasemissionen (THG) zu reduzieren; Länder, die so viele Hunderte oder Tausende von Kohle- und Gaskraftwerken bauen werden, wie nötig sind, um ihre Bevölkerung aus der Armut zu befreien … und welche „grüne Energie“-Technologien herstellen, die sie gerne nach Amerika, Australien, Kanada und Europa verkaufen werden.

Das heißt, selbst wenn die USA fossilen Brennstoffen entsagen würden, würde dies keinen Unterschied bei den globalen Treibhausgasemissionen oder der globalen atmosphärischen Konzentration machen. Und das bedeutet, selbst wenn Kohlendioxid der Hauptfaktor des Klimawandels wäre, würde die Zerstörung der USA und anderer moderner Volkswirtschaften keinen Nutzen für das Klima bringen.

Der unerschütterliche Glaube der EU und Großbritanniens an die vom Menschen verursachten Klimakatastrophen erschüttert bereits jetzt ihre Industrien, Arbeiter und Familien, wie zahlreiche Artikel belegen: hier, hier, hier und hier zum Beispiel.

Glücklicherweise wird jedoch immer deutlicher, dass die Behauptungen zum Klimaarmageddon falsch berechnet, übertrieben oder erfunden wurden. Die globalen Durchschnittstemperaturen steigen weit langsamer als von den Klimamodellen vorhergesagt.

Starke (F4-F5) Tornados in den USA haben in den letzten 35 Jahren (1985-2020) gegenüber den 35 Jahren davor (1950-1984) sogar abgenommen; und 2018 ist nicht ein einziger F5-Tornado in den Vereinigten Staaten registriert worden. Zwölf Jahre lang, von Wilma im Jahr 2005 bis Harvey und Irma im Jahre 2017, traf kein Hurrikan der Kategorie 3 bis 5 auf das Festland der Vereinigten Staaten. Insgesamt gibt es kaum einen Trend bei der Aktivität oder Intensität tropischer Wirbelstürme.

All dies ist nicht überraschend angesichts neuer Forschungsergebnisse von Dr. William Happer und Dr. Willem van Wijngaarden, die stark darauf hinweisen, dass selbst eine Verdoppelung von Kohlendioxid (und anderen Treibhausgasen) in der Erdatmosphäre nur minimale Auswirkungen auf die globalen Temperaturen und das Klima hätte (aber dem Pflanzenwachstum zugute käme).

In der Tat ist es unmöglich, menschliche Einflüsse von natürlichen Faktoren, Schwankungen und Zyklen in Bezug auf Temperaturen, Polareis, Stürme und Dürren zu unterscheiden. Einige Wissenschaftler behaupten sicherlich etwas anderes – und geben im Allgemeinen einfach dem Menschen die Schuld. Aber sie haben wenig oder gar keine tatsächlichen, empirischen Beweise, um ihre Behauptungen, Vorhersagen und Modelle zu untermauern. Sie sagen einfach, die Wissenschaft sei settled, und wir müssten fossile Brennstoffe verbieten, also seien Sie still.

Bei so viel, was für Amerika und die Welt auf dem Spiel steht, ist dies völlig untragbar. Zumindest von denjenigen, die behaupten, wir stünden vor einer Klimakatastrophe, muss von ihnen verlangt werden, dass sie solide empirische Beweise vorlegen, um ihre Behauptungen zu untermauern – und dass sie sich auf robuste, transparente Debatten mit den vom Menschen verursachten Klimaskeptikern einlassen.

Genau das scheint Senator Torquemada verhindern und bestrafen zu wollen, während er „das größte beratende Gremium der Welt“ in ein russisches Politbüro oder einen Chinesischen Nationalen Volkskongress verwandelt – und in einen integralen Bestandteil des Klima-industriellen Komplexes mit einem Volumen von mehreren Billionen Dollar pro Jahr.

Bei diesem Unterfangen würden ihm sicherlich die Mogule von Big Media und Big Tech helfen, die seine Ansichten zum Klimawandel teilen, und Wissenschaftler und Beweise, die dem Katechismus der Klimakatastrophe widersprechen, zum Schweigen bringen sowie „Klimaketzer“ in Regierungs-, Wissenschafts- und Unternehmenskreisen auf die schwarze Liste setzen.

Die Menschen sind darauf konditioniert worden, vor den Lockdown-Verfügungen der Regierung Kotau zu machen, um die Menschheit vor Covid zu retten. Klima-Alarmisten gehen davon aus, dass wir jetzt ausreichend gefügig sein werden, fossile Brennstoffe zu verbieten, um „den Planeten zu retten“, wenn wir versuchen, uns von Covid zu erholen. Oder ihre Torquemadas werden uns gefügig machen.

Es ist an der Zeit, politisierte Schrottwissenschaft zurückzuweisen, eine Debatte zu fordern und uns gegen grüne Klima- und Energieerlasse zu wehren. Vielleicht muss der US-Senat vor allem seine Verantwortung für Beratung und Zustimmung zum Pariser Klimaabkommen geltend machen, dem weitreichendsten internationalen Abkommen denn je, das zu ratifizieren den Amerikanern geboten wurde.

Paul Driessen is senior policy analyst for the Committee For A Constructive Tomorrow (www.CFACT.org) and author of books and articles on energy, environment, climate and human rights issues.

Link: https://www.iceagenow.info/sheldon-whitehouses-climate-inquisition-continues/

Übersetzt von Chris Frey EIKE




Das Kernkraft­werk Fukushima hat den härtesten Sicherheits­test der Natur bestanden

Wie viele Menschen in diesem Land sind sich dieses Ergebnisses bewusst? Die Antwort ist sehr wenige, weil sich die hysterischen Warnungen in den Medien vor radioaktiven Abfällen, die unsere Küsten erreichten, nicht materialisiert hatten, nicht einmal ansatzweise. Eine weitere Feier wäre angebracht.

Doch ohne wissenschaftlichen Grund schalteten Japan und Deutschland die meisten ihrer Kernreaktoren ab. Der Bau weiterer Kernkraftwerke auf der ganzen Welt wurde fast das ganze Jahrzehnt lang verlangsamt. Jetzt sind sie weitgehend wieder auf dem richtigen Weg, aber nicht in den Vereinigten Staaten – und Deutschland.

VORSORGLICH HERBEIGEFÜHRTE TODESFÄLLE

Ungefähr 160.000 Menschen wurden aus dem Gebiet um das Kernkraftwerk Fukushima evakuiert, kurz nachdem es durch das Erdbeben und den Tsunami vom 11. März 2011 beschädigt worden war. Ein Evakuierungsbefehl zwang 70.000 Menschen, das Gebiet zu verlassen, und weitere 90.000 verließen es freiwillig. Sie kehrten bald darauf zurück. Auch die 70.000 Zwangsevakuierten kehrten schließlich in ihre Häuser zurück.

Traurigerweise wird geschätzt, dass 1.600 Menschen während des Evakuierungsprozesses vorzeitig an stressbedingten Krankheiten starben. Die „vorsorglichen“ Maßnahmen, die als Reaktion auf hypothetische Gesundheitsrisiken ergriffen wurden, waren schädlicher als die Risiken selbst. Dieses tragische Ereignis verdeutlicht die Notwendigkeit, dass politische Entscheidungen auf der Grundlage solider wissenschaftlicher Erkenntnisse getroffen werden müssen und nicht auf der Grundlage von unbestätigten Umweltängsten. Die Wissenschaft war sich vor dem Ereignis darüber im Klaren, dass die Befürchtungen im Zusammenhang mit dem beschädigten Kernkraftwerk bei weitem übertrieben waren.

SCHLIESSEN DES BUCHES ÜBER FUKUSHIMA

Trotz der hysterischen Medienberichte über Strahlenbedrohungen, die unmittelbar nach dem Erdbeben und dem Tsunami herausgegeben und bis heute wiederholt wurden und werden, haben Gesundheitsexperten der Vereinten Nationen die Bücher über die behaupteten Risiken durch die Schäden an den Kernkraftwerken geschlossen. Der Wissenschaftliche Ausschuss der Vereinten Nationen über die Auswirkungen der Atomstrahlung (UNSCEAR) gab zwei Jahre später eine Pressemitteilung heraus, in der es hieß: „Die Strahlenbelastung nach dem Reaktorunfall von Fukushima-Daiichi hat keine unmittelbaren gesundheitlichen Auswirkungen verursacht. Acht Jahre später sind immer noch keine aufgetreten. Es ist unwahrscheinlich, dass in der Zukunft irgendwelche gesundheitlichen Auswirkungen auf die allgemeine Öffentlichkeit und die große Mehrheit der Beschäftigten zurückgeführt werden können“.

UNSCEAR erklärte: „Bis heute wurden keine gesundheitlichen Auswirkungen der Strahlenbelastung zugeschrieben, die bei den Arbeitern, den Menschen mit den höchsten Strahlenexpositionen, beobachtet wurden“.

Warum bleibt die Unsicherheit über die Auswirkungen schwach radioaktiver Strahlung angesichts etwaiger langfristiger negativer Auswirkungen bestehen? Alle lebenden Organismen befinden sich seit ihrem ersten Auftreten in einem Meer von Strahlung, und die Strahlung hat die ganze Zeit über ihre Gene beeinflusst. Ungefähr 15.000 Gammastrahlen oder Partikel treffen den Durchschnittsmenschen jede Sekunde. Und nach mehr als 120 Jahren umfangreicher Studien über die Auswirkungen auf die Gesundheit wissen wir mehr über ionisierende Strahlung als über jeden anderen Stressfaktor auf die menschliche Gesundheit.

Lauriston Taylor, einer der Gründer der Internationalen Strahlenschutzkommission (International Commission on Radiological Protection – ICRP), bemerkte bereits 1934: „Niemand wurde bei der Arbeit innerhalb der ersten Norm, die von der US National Commission on Radiological Protection (NCRP) auf 0,2 Röntgen/Tag festgelegt wurde, durch Strahlung identifizierbar verletzt“. Jetzt wiederholt die ICRP genau dies.

Bedeutung der Dosis

Nach der Entdeckung der Röntgenstrahlen und der Radioaktivität vor mehr als 120 Jahren begannen Hunderte von Medizinern damit, die eindringende Strahlung zu testen und zu nutzen, um innere Verletzungen und Krankheiten zu untersuchen und so das Rätselraten bei der Diagnose von Krankheiten zu verringern. Sie entdeckten, dass schwach radioaktive Strahlung bemerkenswerte positive Wirkungen hervorruft, während sie auch wussten, dass hohe Kurzzeitbelastungen erhebliche Schäden verursachen.

Gibt es ein sicheres Strahlungs-Niveau? Ja sicher … aber!

Warum gibt es also ein wahrgenommenes Strahlungsproblem? Was ist der Grund für die Angst, Unsicherheit und Zweifel bezüglich der Auswirkungen von Strahlung? Um dies zu verstehen, müssen wir den Ursprung des linearen Dosis-Wirkungs-Konzepts ohne Schwellenwert (LNT) betrachten, das die Grundlage für Strahlenschutzaktivitäten und Krebsrisikokalkulationen bildet, welche jahrzehntelang kostspielige Fehler waren.

Die Erfindung und der Einsatz von Atombomben 1945, das nukleare Wettrüsten und der Aufstieg der Anti-Atom-Bewegung dürften viele besorgte Wissenschaftler dazu veranlasst haben, 70 Jahre Forschung und Erfahrung auf dem Gebiet der Nutzung von Strahlung zur Stimulierung der Schutzsysteme lebender Organismen außer Acht zu lassen. Viele Wissenschaftler akzeptierten stattdessen das neue Angst erzeugende LNT-Konzept, das besagt, dass das Risiko für Krebs und genetische Krankheiten linear mit der Strahlendosis eines einzelnen Strahlungsatoms zunimmt.

Die Internationale Strahlenschutzkommission (ICRP) machte eine 180-Grad-Drehung, indem sie ihre Norm von 1934 ablehnte, die auf der Toleranzdosis basierte, die viele Jahre lang ohne Probleme anerkannt worden war. Sie gab neue Empfehlungen heraus, die auf der Verwendung des linearen LNT-Modells (Linear No Threshold) basierten, um das statistische Krebsrisiko durch jegliche Strahlenbelastung zu bewerten. Dies ist die Grundlage für unsere unbegründete Strahlungsangst.

Dr. Edward Calabrese, ein weltbekannter Strahlentoxikologe an der Universität von Massachusetts, sagte in den Archives of Toxicology 2013: „1956 gab das US National Academy of Sciences Committee on Biological Effects of Atomic Radiation Genetics Panel die weitreichendste Empfehlung in der Geschichte der Risikobewertung heraus, dass genomische Risiken, die mit der Exposition gegenüber ionisierender Strahlung verbunden sind, mit einem linearen Dosis-Wirkungs-Modell bewertet werden sollten, und nicht mehr über das Schwellenwert-Dosis-Wirkungs-Modell, das lange Zeit der ‚Goldstandard‘ für Medizin und Physiologie war. Die Mitglieder des Genetik-Gremiums waren der Ansicht, dass es keine sichere Exposition von Fortpflanzungszellen gegenüber ionisierender Strahlung gebe, wobei das Mutationsrisiko selbst bei einer einzigen Ionisierung erhöht sei. 1958 wurde das LNT-Konzept vom Nationalen Komitee für Strahlenschutz und -messung auf somatische Zellen und die Bewertung des Krebsrisikos verallgemeinert“.

[Absatz übersetzt mit LINGUEE]

Dr. Calabrese entdeckte, dass viele Podiumsmitglieder bei der Festlegung dieser fehlerhaften Regel in einen Interessenkonflikt gerieten. So wie sie von der modernen Strahlenschutzgemeinschaft praktiziert wird, ist die LNT-Hypothese einer der größten wissenschaftlichen Skandale unserer Zeit.

Ich habe diesen Betrug aus Calabreses Forschung über die Lügen und Voreingenommenheiten in der Arbeit der frühen Forscher in einem Aufsatz bei CFACT.org am 18. August 2020 dokumentiert.

Es ist höchste Zeit diese furchtbare LNT-Politik zu korrigieren

Wir müssen unbedingt auf den ICRP-Standard von 1934 und das Konzept der Toleranzdosis für den Strahlenschutz zurückkehren. Diese Änderung würde viele Einschränkungen für den Einsatz von Röntgenstrahlen, CT-Scans und nuklearmedizinischen Techniken für die Diagnose vieler Krankheiten beseitigen. Sie würde auch den Weg für klinische Studien über viele potenzielle Anwendungen niedriger Strahlung zur Behandlung sehr bedeutsamer Krankheiten wie Alzheimer und Parkinson ebnen, indem die Einschränkungen reduziert werden, welche adaptive Schutzsysteme regulieren.

Die dringende Rechtfertigung für diesen Konzeptwechsel ist die Divergenz zwischen Angst und Fakten bezüglich Fukushima. Die Radiophobie brach trotz des wissenschaftlich erwarteten Fehlens ernsthafter Strahlenschäden weltweit aus. Deutschland und Japan beschlossen den Ausstieg aus der Kernenergie, und lebensrettende medizinische Anwendungen von Strahlung werden weiterhin behindert. Lasst uns die Verfügbarkeit dieser lebensrettenden Technologie feiern, anstatt sie zu stoppen, um Eigeninteressen zu beschwichtigen, was heute definitiv der Fall ist.

Autor: CFACT Senior Science Analyst Dr. Jay Lehr has authored more than 1,000 magazine and journal articles and 36 books. Jay’s new book A Hitchhikers Journey Through Climate Change written with Teri Ciccone is now available on Kindle and Amazon

Link: https://www.cfact.org/2020/12/01/the-fukushima-nuclear-plant-passed-natures-hardest-safety-test/

Übersetzt von Chris Frey EIKE