Die Entwicklung der mittleren Minimum-Temperaturen in Deutschland seit 1988 – kaum Erwärmung? Teil 1 – die schwierige Suche nach Daten

Stefan Kämpfe

Für den Frühling deuten sich sogar fallende Minimum-Temperaturen an

Die Erwärmung der letzten Jahrzehnte ist unstrittig, solange man nur die Tages-, Monats- und Jahresmitteltemperaturen betrachtet. Seit 1988 zeigt sich da im Jahresmittel für Deutschland eine merkliche Erwärmung von reichlich einem Kelvin (Grad). Doch die mittleren Minima scheinen sich – zumindest gebietsweise, weit weniger zu erwärmen. Im Folgenden soll dieser spannenden Frage nachgegangen werden.

Untersuchungszeitraum seit 1988 – warum?

Weil sich seit diesem Jahr ein großer Teil der langfristigen Erwärmung in Deutschland vollzog.

Abbildung 1: Entwicklung der Jahresmitteltemperaturen in Deutschland für den Zeitraum 1881 bis 2020. Einer mäßigen, über mehr als 6 Jahrzehnte anhaltenden Erwärmung folgte ab der Mitte des 20. Jahrhunderts eine geringfügige Abkühlung, ehe, beginnend mit dem Jahr 1988, eine kräftige Erwärmung einsetzte, welche im Jahre 2018 ihren bisherigen Gipfelpunkt erreichte. Die gesamte Erwärmung seit 1881 betrug reichlich 2 Kelvin – aber gut die Hälfte davon fand in dem relativ kurzen Zeitraum seit 1988 statt (1,03 K). Die meisten Monate und die Jahreszeiten verhalten sich grob ähnlich.

Nun lag es nahe, einmal zu prüfen, ob auch die mittleren Minima diesem Verhalten folgen.

Das DWD-Stationsnetz – viel Masse, wenig Klasse

Anders, als für die Temperaturmittelwerte, bietet der Deutsche Wetterdienst (DWD) keine Gebietsmittel für die mittleren Minima an. Man muss also die Einzelwerte, monatsweise für die Stationen vorliegend, mühevoll auswerten (das mittlere Monatsminimum ist nichts anderes als der arithmetische Mittelwert der täglichen Minima). Der DWD betreibt mit etwa 1.900 Stationen eines der dichtesten Messnetze der Welt, da sollte sich reichlich Datenmaterial finden lassen. Doch wer sich an die Datenprüfung seit 1988 wagt, erlebt eine Ernüchterung. Denn erstens wurden die meisten Stationen vor 1988 geschlossen, oder sie eröffneten/schlossen während des Untersuchungszeitraumes zeitlich so ungünstig, dass keine seriöse Auswertung möglich war. Zweitens wurden viele der dann noch übrigen Stationen im Untersuchungszeitraum örtlich verlagert, was oft einen wesentlichen Einfluss auf das Temperaturverhalten hat, nämlich dann, wenn sich Stationshöhe und die Koordinaten wesentlich ändern (mit zunehmender Höhe und bei Verlagerung aus bebauten Gebieten sinken die Temperaturen, umgekehrt steigen sie). Solche Stationen kamen also nur dann in Betracht, wenn sich entweder Höhenlage und Örtlichkeit nur geringfügig änderten, oder die Verlagerung erfolgte möglichst früh oder erst ganz am Ende des Untersuchungszeitraumes. Ein durchaus typisches Beispiel ist die Station Zeitz, deren Daten wegen häufiger Verlagerungen unbrauchbar sind; hier die Original-Metadaten des DWD:

5750; 202.00; 51.0461; 12.1349;19520901;19990418;Zeitz

5750; 170.00; 51.0676; 12.1390;19990419;20031231;Zeitz

5750; 170.00; 51.0676; 12.1390;20040101;20060228;Zeitz

5750; 264.00; 51.0314; 12.1495;20060301; ;Zeitz

Die erste Ziffer ist die DWD-Stations-ID, die zweite die Stationshöhe, es folgen die Koordinaten (Hoch- und Rechtswerte), dann der Betriebszeitraum und der Stationsname. Zeitz wurde also am 19. April 1999 an einen deutlich tieferen, etwas nördlicher und östlicher gelegenen Ort verlegt; es folgte eine unwesentliche Änderung mit Jahresbeginn 2004, dann aber am 1. März 2006 eine deutliche Höherlegung um 94 Meter nach Süden und Osten. Und drittens weisen die ganz wenigen, noch verbleibenden Stationen nicht selten mehr oder weniger große Datenlücken auf. Maximal 2 bis 3 Jahre ohne Daten sind gerade noch vertretbar und mitunter durch höhenangepasste Schätzung mit Daten benachbarter Stationen zu überbrücken; so etwa bei Tann/Rhön oder Bad Lobenstein in Thüringen; doch bei größeren Lücken, so etwa bei Quickborn, mussten die Daten ebenfalls verworfen werden. Zur Ehrenrettung des DWD sei aber gesagt, dass diese Probleme auch im Nachbarland Österreich auftreten; allerdings ist dort die Stationssuche und die Datenbereitstellung im Excel-Format deutlich benutzerfreundlicher.

Die bisherigen Ergebnisse

Bislang fanden sich 25 Stationen, welche die genannten Kriterien ganz oder mit vertretbaren Abstrichen erfüllten (folgende Tabelle). Neben 23 DWD-Stationen wurden eine Privatstation und eine Station aus Österreich, grenznah zu Deutschland, in die Untersuchung einbezogen.

Fett markiert sind negative Lineartrends (sich abkühlende mittlere Minima). Diese „Auswahl“ ist natürlich nicht repräsentativ für die Minima-Entwicklung Deutschlands; trotzdem gibt sie grobe Hinweise, wie sich diese entwickelt haben könnten. Überrepräsentiert sind mit Brocken, Kleinem Inselsberg und Zugspitze die sich stark erwärmenden Berggipfel, welche nur einen sehr kleinen Flächenanteil im Deutschland-Mittel einnehmen. Neben stark UHI-belasteten Stationen wie Berlin-Tempelhof, Erfurt/Weimar oder Jena-Sternwarte sind auch viele mehr oder weniger ländliche Stationen enthalten. Außer der starken Jahres-Erwärmung auf den Bergen fallen auch die hohen Erwärmungsraten in Potsdam und Lindenberg ins Auge; andererseits gibt es mit Amtsberg, Bad Lobenstein und Dachwig sogar drei Stationen mit einer geringen Jahresabkühlung. Durchweg wärmer wurden die mittl. Minima im Herbst, größtenteils auch im Sommer, während sich der Winter unterschiedlich verhielt und sich der Frühling größtenteils abkühlte. Bei monatsweiser Betrachtung kühlten sich Januar, Februar, März und Mai ab; am stärksten der März mit minus 1,13 K. Der September blieb fast ohne Trend; aller übrigen Monate erwärmten sich; am stärksten der November mit 2,05 K und der Juni mit 1,28 K. Im Jahresmittel zeigt sich mit nur 0,37 K nur ein gutes Drittel der Deutschland-Erwärmung von 1,03 K im Flächenmittel bei den normalen Temperaturmittelwerten. Über diese Besonderheiten und deren mögliche Ursachen wird im zweiten Teil ausführlicher berichtet.

Stefan Kämpfe, Diplomagraringenieur, unabhängiger Natur- und Klimaforscher

 




Bürgerkrieg unter den Klimamodellen

David Wojick

Es sieht so aus, als ob die Klimamodellierer einen Bürgerkrieg anzetteln könnten. Einige ernsthafte Akteure lehnen die neuen, heiß laufenden Modelle ab, ihre Urheber aber wahrscheinlich nicht. Wenn das so ist, werden wir Modellierer gegen Modellierer sehen. Sei still, mein Herz.

Der erste laute öffentliche Schuss wurde von der angesehenen Zeitschrift Science (eigentlich ist es eher ein Magazin, aber egal) abgegeben. Science ist ein überzeugter Alarmist, aber sie lehnen die heiß laufenden Modelle auf das Schärfste ab (in einem ausführlichen, nicht kostenpflichtigen Artikel).

Der unverblümte Titel des Artikels lautet: „U.N. climate panel confronts implausibly hot forecasts of future warming“ [etwa: Klimagremium konfrontiert mit unplausiblen Prognosen über die künftige Erwärmung]. Wenn es um Wissenschaft geht, ist „unwahrscheinlich heiß“ eine sehr starke Formulierung. Die wissenschaftliche Sprache ist normalerweise äußerst höflich. (Das Klimagremium ist natürlich das IPCC.)

Aber im Text wird es noch deutlicher. Gavin Schmidt von der NASA, Amerikas wohl bekanntester Wissenschaftler und einer der wichtigsten Modellierer, sagt, dass die Verwendung dieser Modelle „selbst für die nahe Zukunft zu Zahlen führt, die wahnsinnig beängstigend – und falsch – sind“.

Der vollständige Science-Artikel ist sehr lesenswert.

Es ist unglaublich, dass ein führender Modellierer viele der neuesten Klimamodelle als WAHNSINNIG BEÄNGSTIGEND bezeichnet. Ich vermute, dass es sich um einen kriegerischen Akt handelt, denn ich kann mir nicht vorstellen, dass die Urheber dieser neuen Modelle damit einverstanden sind.

Wie ich bereits vor zwei Jahren dargelegt habe, findet ein ähnlicher Bürgerkrieg in der Gemeinschaft der politischen Alarmisten statt. Siehe meinen Beitrag hier. Wir haben das, was ich die Moderaten gegen die Radikalen nenne.

Als Greta Thunberg zum Beispiel ihre berühmte „How Dare you“-Anprangerung ausrief, richtete sie sich an die Unterhändler des Pariser Abkommens, die sicherlich zu den Mainstream-Alarmisten gehören. Aber diese sind jetzt die Gemäßigten im Bürgerkrieg der Klimabewegung. Greta ist eine geistige Führerin der Radikalen.

Um auf den Krieg der Modelle untereinander zurückzukommen, hilft ein wenig Geschichte, um das Ausmaß dieses faszinierenden Fiaskos zu verstehen. Das IPCC selbst führt keine Klimamodellierung durch. Stattdessen tun dies große Modellierungszentren auf der ganzen Welt, und zwar auf sehr koordinierte Weise. Etwa 100 verschiedene Modelle aus der ganzen Welt nehmen an dieser massiven, mehrjährigen Übung teil.

Die Koordination wird von einer anderen UN-Agentur, dem World Climate Research Program, übernommen. Der Vorgang selbst wird CMIP genannt, was für Coupled Model Intercomparison Project steht. Die CMIPs werden so terminiert, dass sie in die großen IPCC-Berichte einfließen, der letzte ist also CMIP6. Der IPCC ist gerade dabei, seine AR6-Berichte fertig zu stellen.

Der Grund für die große Aufregung ist, dass etwa die Hälfte der CMIP6-Modelle dieses Mal viel heißer liefen als die CMIP5-Modelle. Damit steht die Modellierungsgemeinschaft vor einem großen Dilemma. Wenn die neuen heißen Modelle richtig sind, dann sind alle Modelle in CMIP 1 bis 5 geirrt, und die Hälfte davon immer noch. Entweder das oder die neuen Modelle sind alle falsch. (Natürlich sind sie wahrscheinlich allesamt falsch, sowohl in der Vergangenheit als auch in der Gegenwart, aber das ist ein anderes Thema).

Im Grunde haben wir also jetzt gemäßigte Modelle und radikale, heiße Modelle. Im Science-Artikel sagen die Moderaten, dass die Radikalen falsch liegen. Ich sehe aber keine Anzeichen dafür, dass die Radikalen zustimmen. Es gab keinen Rückruf, der die Forscher aufforderte, die heißen Ergebnisse nicht zu verwenden. Schmidt beschwert sich sogar, dass die heißen Ergebnisse verwendet werden. Daher kommen die, wie er es nennt, wahnsinnig beängstigenden und falschen, kurzfristigen Ergebnisse. Auf der CMIP6-Website finde ich nichts, was dieses äußerst störende Problem auch nur anspricht. Siehe hier.

Meine Vermutung ist daher, dass die Radikalen der heißen Modelle ihren Standpunkt behaupten. Angesichts der deutlichen Sprache des Science-Artikels bedeutet dies einen Bürgerkrieg in der Modellierungsgemeinschaft.

Ich bin mir sogar ziemlich sicher, dass die Radikalen ihre Modelle absichtlich aufgebläht haben. Es scheint, dass all diese verschiedenen Modellierungszentren dieselbe Änderung vorgenommen haben, was kein Zufall sein kann. Und die Änderung ist so, dass sie von vornherein wussten, dass sie die Dinge viel heißer machen würden.

Ich sehe also nicht, dass diese üppig finanzierten Modellierungszentren ihren Geldgebern sagen, dass sie Mist gebaut haben und die Arbeit der letzten fünf Jahre einfach nicht funktioniert hat, was ihnen sehr leid tut. Die meisten dieser Geldgeber sind nationale Regierungen, die auf ein solches Eingeständnis negativ reagieren könnten.

Interessanterweise heißt es in dem Science-Artikel, dass die wahnsinnig beängstigende und falsche kurzfristige Erwärmung auf einen tiefgreifenden Fehler zurückzuführen ist, der in den Modellen während der vorherigen CMIPs enthalten war. Die CMIP6-Änderungen brachten ihn sozusagen nur an die Oberfläche. Dies lässt auch an den früheren CMIP-Ergebnissen tiefe Zweifel aufkommen.

Wie das IPCC mit diesem Modellchaos umgeht, bleibt abzuwarten. Die größere Frage ist, wie die Modellierungsgemeinschaft mit dem, was wie ein Bürgerkrieg aussieht, umgehen wird. Diese Gemeinschaft war immer eine solide Mauer der (falschen) Gewissheit, eine Position, die sie nicht länger aufrechterhalten kann.

Der Klimaalarmismus hat sich immer auf Modelle gestützt. Jetzt ist die Modellierung im Eimer. Kann der Alarmismus den Verlust der Modellierung überleben? Bleiben Sie dran.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2021/08/15/climate-modeling-civil-war/

Übersetzt von Christian Freuer für das EIKE




Die idiotische Antwort auf die globale Erwärmung: Wasserstoff

Francis Menton

Wasserstoff! Er ist die offensichtliche und perfekte Antwort auf die durch menschliche CO2-Emissionen verursachte globale Erwärmung. Anstatt Kohlenwasserstoffe (fossile Brennstoffe) zu verbrennen, können wir den Kohlenstoffanteil weglassen, nur den Wasserstoff verbrennen und nichts als reinen Wasserdampf freisetzen. H2 + O = H2O! Also keine CO2-Emissionen mehr. Warum ist eigentlich niemand früher auf diese Idee gekommen?

Eigentlich sind Ihnen die Genies in diesem Punkt weit voraus. Präsident George W. Bush warb bereits 2003 für die kommende „Wasserstoffwirtschaft. („In seiner Rede zur Lage der Nation 2003 rief Präsident Bush seine Wasserstoff-Kraftstoff-Initiative ins Leben. Ziel dieser Initiative ist es, in Partnerschaft mit dem Privatsektor die für eine Wasserstoffwirtschaft erforderliche Forschung und Entwicklung zu beschleunigen.“).

Barack Obama wollte dabei natürlich nicht ins Hintertreffen geraten. Im Vorfeld der Pariser Klimakonferenz 2015 verkündete Obamas Energieminister Ernest Moniz: „Wasserstoff-betriebene Motoren ebnen den Weg zur Wettbewerbsfähigkeit auf dem globalen Markt für saubere Energie und zur Schaffung neuer Arbeitsplätze und Unternehmen im ganzen Land.“

Und dann ist da noch der größte Wasserstoff-Enthusiast von allen, der britische Premierminister Boris Johnson, der verspricht, dass sein Land an der Schwelle zur „Wasserstoff-Wirtschaft“ steht. („Gegen Ende 2020 veröffentlichte Premierminister Boris Johnson Einzelheiten eines 10-Punkte-Plans für eine so genannte ‚grüne industrielle Revolution‘. . . In diesem Jahr wird die Regierung auch eine Wasserstoffstrategie veröffentlichen, die ‚Pläne‘ zur Entwicklung einer Wasserstoffwirtschaft in Großbritannien skizzieren wird.“)

Und nicht zu vergessen: Kalifornien. In meinem Beitrag von vor zwei Tagen über die kalifornischen Pläne für kohlenstofffreie Elektrizität findet sich ein Diagramm, aus dem hervorgeht, dass bis 2045 etwa 40 GW an so genannten „Zero Carbon Firm“-Ressourcen zur Verfügung stehen sollen. Was ist damit gemeint? Im Druck unter dem Diagramm wird es verraten: „Wasserstoff-Brennstoffzellen“. (Die derzeitige Menge an Wasserstoff-Brennstoffzellen, die Strom ins Netz einspeist, beträgt 0.)

Im Grunde ist Wasserstoff also die perfekte Antwort auf unsere Probleme, oder? Falsch. Nur ein Idiot könnte glauben, dass Wasserstoff irgendeinen materiell nützlichen Beitrag zur Energieversorgung der Welt leistet.

Für viele der folgenden Informationen werde ich mich auf einen Bericht vom 6. Juni 2020 stützen, den John Constable für die Global Warming Policy Foundation verfasst hat. Ohne den ausgezeichneten Bericht von Mr. Constable in irgendeiner Weise herunterspielen zu wollen, habe ich viele der gleichen Punkte in einem der allerersten Beiträge auf diesem Blog im November 2012 mit dem Titel „The Hydrogen Economy“ dargelegt. Dieser Beitrag basierte hauptsächlich auf meinem laienhaften Verständnis des Zweiten Hauptsatzes der Thermodynamik. Das ist wirklich alles, was man wissen muss, um zu erkennen, dass Wasserstoff als Hauptenergiequelle für die Wirtschaft überhaupt keinen Sinn macht.

Worin besteht also der grundlegende Fehler in der Idee einer wasserstoffbasierten Energiewirtschaft? Constable formuliert es folgendermaßen: „Da elementarer Wasserstoff, H2, hochreaktiv ist, kommt er in der Natur nur in geringen Mengen auf der Erdoberfläche vor, ist aber in einer Vielzahl von Verbindungen vorhanden.“ Mit anderen Worten: Der Wasserstoff steht nicht zur freien Verfügung, sondern ist bereits mit etwas anderem verbunden; und um den Wasserstoff zu trennen, damit man freien Wasserstoff zur Verfügung hat, muss man Energie zuführen. Sobald man die Energie hinzugefügt hat und den freien Wasserstoff hat, kann man ihn verbrennen. Aber hier kommt der zweite Hauptsatz der Thermodynamik ins Spiel. Aufgrund unvermeidlicher Ineffizienzen in den Prozessen erhält man bei der Verbrennung des Wasserstoffs weniger Energie zurück, als man zur Freisetzung des Wasserstoffs aufgewendet hat. Egal, wie man das Problem angeht, der Prozess der Freisetzung von Wasserstoff und seiner anschließenden Verbrennung kostet mehr Energie als er erzeugt.

[Hervorhebung vom Übersetzer]

Glauben Sie, dass jemand in unserer politischen Führung oder in der Bürokratie dies verstehen könnte? Verlassen Sie sich nicht darauf.

Constable geht dann noch viel weiter ins Detail, und je tiefer er einsteigt, desto lächerlicher erscheint das Wasserstoffprojekt. Da sich der gesamte Wasserstoff zunächst mit irgendetwas verbindet, wo könnte man dann eine Quelle für große Mengen Wasserstoff finden? Constable: „Es gibt nur wenige Quellen, die sich entweder auf Wasser, fossile Kohlenwasserstoffe oder Biomasse beschränken.“

Die Bindung von Wasserstoff und Sauerstoff in Wasser ist eine hochenergetische Angelegenheit, die daher viel Energie erfordert, um sie zu lösen. Nehmen wir also an, der Wasserstoff wird aus Erdgas gewonnen. Das ist in der Tat die Hauptquelle für große Mengen reinen Wasserstoffs für industrielle Zwecke. Constable beschreibt einen gut etablierten Prozess namens „Dampf-Methan-Reformation“ (SMR), bei dem Dampf durch Erdgas (Methan oder CH4) geleitet wird. Die Bindung wird gebrochen und der Wasserstoff wird freigesetzt. Voilà! Aber was passiert mit dem Kohlenstoff? Er wird natürlich auch freigesetzt und verbindet sich mit dem Sauerstoff aus der Luft zu CO2.

Moment! Die ganze Intention hinter diesem teuren Prozess war, die Freisetzung von CO2 zu vermeiden. Wir brauchen also eindeutig einen weiteren Schritt. Im britischen Vorschlag zur Schaffung der „Wasserstoffwirtschaft“ mussten sie Verfahren zur „Kohlenstoffabscheidung und -speicherung“ einbeziehen, um das CO2 abzuscheiden, bevor es in die Atmosphäre gelangt, eben um genau das zu verhindern. Allerdings haben sie noch nicht herausgefunden, wie sie alles abscheiden können. Man hofft auf eine Abscheidungsrate von vielleicht 85-90 %. Es stellt sich also heraus, dass dieses Verfahren trotz seiner zusätzlichen Kosten keineswegs emissionsfrei ist.

Und dann ist da noch die nächste offensichtliche Frage: Warum wird das Erdgas nicht einfach verbrannt? Anstatt Energie in den Prozess der „Dampf-Rreform“ zu stecken, wird bei der Verbrennung des Kohlenstoffs eine große Menge an nutzbarer und nützlicher Energie frei. Und was das CO2 angeht, so erhalten Sie genau die gleiche Menge. Wenn Sie darauf bestehen, dass das CO2 abgetrennt werden muss, können Sie versuchen, es bei diesem Prozess abzutrennen, anstatt bei der Dampf-Rreform. Auch hier werden Sie nicht 100 % erhalten, aber es ist wirklich kein Unterschied.

Abgesehen von der Optik. Im ersten Szenario behaupten Sie, Sie würden „sauberen, reinen Wasserstoff“ verbrennen. Im zweiten Szenario verbrennen Sie Erdgas, so wie wir es seit Jahrzehnten tun. Können die Menschen wirklich darauf hereinfallen?

Der ganze Beitrag steht hier.

Link: https://wattsupwiththat.com/2021/08/13/the-idiots-answer-to-global-warming-hydrogen/

Übersetzt von Christian Freuer für das EIKE

 




Heißester Monat? Von wegen!

Paul Homewood, NOT A LOT OF PEOPLE KNOW THAT

Noch mehr skandalöse Berichterstattung durch die BBC (einschließlich der verabscheuungswürdigen Verwendung eines Fotos von den türkischen Waldbränden):

Der Juli war weltweit der heißeste jemals aufgezeichnete Monat, wie eine US-amerikanische Bundesbehörde für Wissenschaft und Regulierung mitteilte. Die Daten zeigen, dass die kombinierte Land- und Meeresoberflächentemperatur 0,93 °C über dem Durchschnitt des 20 Jahrhunderts von 15,8°C. Dies ist die höchste Temperatur seit Beginn der Aufzeichnungen vor 142 Jahren. Der bisherige Rekord vom Juli 2016 wurde 2019 und 2020 erreicht.

Experten glauben, dass dies auf die langfristigen Auswirkungen des Klimawandels zurückzuführen ist. In einer Erklärung erklärte die National Oceanic and Atmospheric Administration (NOAA), dass die „wenig beneidenswerte Auszeichnung“ des Juli Anlass zur Sorge gebe.

„In diesem Fall ist der erste Platz der schlechteste Platz“, sagte der NOAA-Administrator Rick Spinrad in einer Erklärung: „Dieser neue Rekord unterstreicht den beunruhigenden und zerstörerischen Weg, den der Klimawandel für den Globus eingeschlagen hat“.

Die kombinierte Land- und Meerestemperatur lag um 0,01 °C über dem Rekord von 2016. In der nördlichen Hemisphäre lag die Temperatur an der Landoberfläche um „beispiellose“ 1,54 °C über dem Durchschnitt und übertraf damit den bisherigen Rekord aus dem Jahr 2012.

In der Zwischenzeit, zurück in der realen Welt, liegen die Temperaturanomalien im Juli selbst nach Angaben der NOAA weit unter den Spitzenwerten von 2015 und 2016 und kaum höher als vor zwei Jahrzehnten:

Und die Behauptung, dass sie die Temperatur der Welt auf ein Hundertstel Grad genau kennen, ist lächerlich. Die obige Karte der BBC suggeriert bei weitem nicht die vollständige globale Abdeckung, sondern die tatsächliche Abdeckung:

Große Teile der Welt werden überhaupt nicht erfasst, und ein großer Teil des Rests ist durch UHI beeinträchtigt. Im Gegensatz dazu bieten Satelliten eine nahezu 100 %ige Abdeckung, außer um die Pole herum, und werden nicht durch UHI beeinträchtigt. Die Daten dieser Satelliten zeigen, dass die Temperaturen in der Atmosphäre heute nicht höher sind als im Jahr 2002:

Link: https://wattsupwiththat.com/2021/08/15/hottest-month-poppycock/

Übersetzt von Christian Freuer für das EIKE

 




Bemerkungen zur wissenschaftlichen Integrität nach Art der [US-]Bundesregierung

Kenneth Haapala, President, The Science and Environmental Policy Project (SEPP)

„Es ist eine Sache, drastische Maßnahmen und harte wirtschaftliche Sanktionen zu verhängen, wenn ein Umweltproblem eindeutig und schwerwiegend ist. Eine ganz andere Sache ist es, dies zu tun, wenn das Umweltproblem weitgehend hypothetisch ist und nicht durch sorgfältige Beobachtungen belegt werden kann. Dies ist bei der globalen Erwärmung definitiv der Fall“.Frederick Seitz, 17. Präsident der Nationalen Akademie der Wissenschaften der Vereinigten Staaten

Diese Abhandlung befasst sich mit der wissenschaftlichen Integrität, die mit der Befürchtung verbunden ist, dass die durch den Menschen verursachte Erhöhung des Kohlendioxidgehalts in der Atmosphäre zu einer erheblichen globalen Erwärmung führen wird. Um zu verstehen, wie Kohlendioxid die Temperaturen auf der Erde beeinflusst, muss man den Treibhauseffekt verstehen, wie verschiedene Treibhausgase den Wärmeverlust an den Weltraum beeinflussen, wie verschiedene Treibhausgase die Wirksamkeit anderer Treibhausgase in der Atmosphäre beeinflussen und wie die Zunahme des Treibhauseffekts das Klima beeinflusst. Um zu verstehen, wie sich die menschlichen Emissionen von Treibhausgasen auf das Klima auswirken, muss der Treibhauseffekt von anderen menschlichen Einflüssen auf das Klima, wie der Verstädterung, getrennt werden. Außerdem müssen die menschlichen Einflüsse von den natürlichen Klimaveränderungen getrennt werden, zu denen auch die veränderte Ozeanzirkulation und die veränderten Sonneneinflüsse gehören, die wir noch nicht vollständig verstehen.

Dieses kurze Papier ist in sechs grundlegende Abschnitte unterteilt: Erstens, die Bedeutung der wissenschaftlichen Methode für das Verständnis der physikalischen Welt; Zweitens, das sich verändernde Klima; Drittens, die Bedeutung des Treibhauseffekts, einschließlich Kohlendioxid, für das Leben auf diesem Planeten; Viertens, Probleme mit globalen Klimamodellen, die verwendet werden, um die katastrophalen Folgen zunehmender Treibhausgase, insbesondere Kohlendioxid, vorherzusagen; Fünftens, moderne physikalische Beweise, die eine alternative Analyse des Treibhauseffekts stützen; und Sechstens, ein Vorschlag für politische Maßnahmen, die die Nation ergreifen muss.

Abschnitt 1: Die wissenschaftliche Methode

Die wissenschaftliche Methode ist ein Prozess, bei dem Fehler im Denken und in den Konzepten beseitigt werden, indem die Konzepte ständig strengen Tests unterzogen werden, wobei alle verfügbaren und dafür geeigneten physikalischen Beweise verwendet werden. Wenn sich die physikalischen Beweise ändern, müssen auch die Konzepte entsprechend angepasst werden. Das 20. Jahrhundert begann ohne Relativitätstheorien oder Quantenmechanik, die die klassische Physik auf den Kopf stellten, und ohne den Glauben, dass sich Kontinente nicht bewegen. Heute nutzen wir diese Konzepte und erleben einen ständigen Wandel in der Kommunikation, Elektronik und ähnlichen Technologien. Wer weiß, was neue Entwicklungen bringen werden?

Mit dem dramatischen Wandel unseres Wissens über die physikalische Welt, einschließlich der Wissenschaft und der Wissenschafts-basierten Technologie, wie z. B. Atomwaffen, erlangten die Wissenschaftler politischen Einfluss und Verantwortung. Die strikte Anwendung der wissenschaftlichen Methode, insbesondere durch Wissenschaftler, die bei der US-Regierung angestellt sind oder von ihr gefördert werden und die der amerikanischen Öffentlichkeit gegenüber verantwortlich sind, sollte kein Thema sein. Politische Überzeugungen müssen beiseite gelassen werden. Steven Koonin (der leitende Wissenschaftler des Energieministeriums unter der Obama-Regierung), der mit komplexer mathematischer Physik, mathematischer Modellierung und dem IPCC-Prozess vertraut ist, schrieb:

„Philip Handler, ein ehemaliger Präsident der Nationalen Akademie der Wissenschaften, wies 1980 in einem Leitartikel auf das Problem hin, das auch vier Jahrzehnte später noch unheimlich nachhallt:

Die einzigartige Rolle der Wissenschaftler bringt eine besondere Verantwortung mit sich. Wir sind die Einzigen, die objektive Wissenschaft in die Diskussion einbringen können, und das ist unsere vorrangige ethische Verpflichtung. Wie Richter sind wir verpflichtet, persönliche Gefühle beiseite zu lassen, wenn wir unsere Arbeit tun. Wenn wir das nicht tun, nehmen wir der Öffentlichkeit das Recht, fundierte Entscheidungen zu treffen, und untergraben ihr Vertrauen in das gesamte wissenschaftliche Unternehmen. Gegen Wissenschaftler als Aktivisten ist überhaupt nichts einzuwenden, aber Aktivismus, der sich als Wissenschaft ausgibt, ist schädlich.“[1]

Seit den 1970er Jahren hat sich die Zahl der Beweise (Daten) für den Treibhauseffekt und den Einfluss zunehmender Treibhausgase auf die Erdatmosphäre und damit auf das Klima dramatisch erhöht. Es obliegt den Wissenschaftlern der Regierung und den von der Regierung geförderten Wissenschaftlern, die wissenschaftliche Methode anzuwenden und diese neuen Daten (Beweise) in ihre Berichte einzubeziehen, damit sie die amerikanische Öffentlichkeit nicht in die Irre führen.

Abschnitt 2: Das sich ändernde Klima

Der Atmosphärenphysiker Richard Lindzen ist bekannt für seine Arbeiten im Bereich der dynamischen Meteorologie, der atmosphärischen Gezeiten, der Ozonphotochemie, der quasi-biennialen Oszillation und der Iris-Hypothese. Lindzen beschrieb die allgemein akzeptierte Sichtweise des Klimasystems der Erde als Zirkulation zweier Flüssigkeiten (Atmosphäre und Ozeane), die miteinander und mit dem unebenen Land in Wechselwirkung stehen und durch die Rotation der Erdkugel in Turbulenzen versetzt werden, wodurch die Flüssigkeiten und das Land einer ungleichmäßigen Erwärmung durch die Sonne ausgesetzt werden. (Auch der Energiefluss von der Sonne zur Erde variiert.) Das gesamte System beinhaltet eine Flüssigkeitsdynamik, die nicht vollständig verstanden wird. Daher:

Die Tatsache, dass diese Zirkulationen Wärme zur und von der Oberfläche transportieren, bedeutet, dass die Oberfläche selbst nie im Gleichgewicht mit dem Weltraum ist. Es gibt nie ein genaues Gleichgewicht zwischen der von der Sonne einfallenden Wärme und der von der Erde erzeugten Abstrahlung. Das liegt daran, dass in den Ozeanen immer Wärme gespeichert (und wieder abgegeben) wird. Daher schwankt die Oberflächentemperatur immer etwas.“ [Interpunktion leicht verändert][2]

Nach der Erörterung der beträchtlichen Energieübertragungen durch die Phasenwechsel des Wassers bringt Lindzen den Treibhauseffekt zur Sprache und stellt fest:

„… dass die beiden bei weitem wichtigsten Treibhaussubstanzen Wasserdampf und Wolken sind. Wolken sind auch wichtige Reflektoren für das Sonnenlicht.

Die Einheit zur Beschreibung der Energieflüsse ist Watt pro Quadratmeter. Der Energiehaushalt dieses Systems umfasst die Absorption und die Wiederabgabe von etwa 200 Watt pro Quadratmeter. Eine Verdoppelung des CO2 führt zu einer Störung dieses Budgets um 2 %. Das gilt auch für geringfügige Veränderungen der Wolken und anderer Merkmale, und solche Veränderungen sind üblich …“

Lindzen schließt den Abschnitt ab, indem er über „unerzwungene“ natürliche Schwankungen spricht, die erst nach 1.000 Jahren auftreten können. Der Klimawandel umfasst also zwei Bereiche der Physik, für die wir keine umfassenden, durch physikalische Beweise belegten Theorien haben: 1) die Strömungsdynamik und 2) der Treibhauseffekt.

Abschnitt 3: Der Treibhauseffekt

Der Treibhauseffekt macht die Erde bewohnbar. John Tyndall, der ab 1859 Laborexperimente entwickelte, erkannte, dass Treibhausgase die Atmosphäre erwärmen, indem sie den Wärmeverlust von der Oberfläche in den Weltraum verlangsamen. Diese Verlangsamung der Abstrahlung von Infrarotenergie in den Weltraum macht die Erde bewohnbar, wobei das wichtigste Treibhausgas der Wasserdampf ist. Tyndall stellte fest, dass der Einfluss einiger Treibhausgase nicht proportional zu ihren Konzentrationen ist.[3]

Jahrzehntelange Laborexperimente zeigen, dass Kohlendioxid nur bei extrem niedrigen Konzentrationen ein wirksames Treibhausgas ist. Seine Wirksamkeit ist bei weniger als der Hälfte der Konzentration erschöpft, die es hatte, als der Mensch begann, fossile Brennstoffe zu nutzen. Die Erhöhung der Kohlendioxidkonzentration durch den Menschen ist so, als würde man ein dünnes Laken auf eine dicke Bettdecke legen – es bewirkt wenig oder gar nichts.

In den 1970er Jahren, als Teile der Welt eine wirtschaftliche Entwicklung durchliefen und die Kohlendioxidkonzentration anstieg, zeigten die Oberflächentemperaturen der Erde eine Abkühlung statt einer Erwärmung. Der Nationale Forschungsrat bildete ein einflussreiches Gremium, das behauptete, dass, obwohl Laborexperimente zeigen, dass Kohlendioxid eine bescheidene Auswirkung auf die Temperatur hat, die leichte Erwärmung durch Kohlendioxid – weniger als 3 Prozent der gesamten atmosphärischen Erwärmung – durch den Anstieg des Wasserdampfs stark verstärkt würde. Dies war eine Vermutung, ohne physikalische Beweise. Die Vermutung führte dazu, dass aus einem bescheidenen maximalen Anstieg von 1 Grad Celsius (°C) aufgrund einer Verdoppelung des Kohlendioxids allein ein spekulativer Gesamtanstieg von 3°C wurde.[4]

Das IPCC und viele wissenschaftliche Gremien in den USA haben diese Vermutung in ihre unbestätigten Annahmen aufgenommen. Seit 1979 haben die USA jedoch eine umfangreiche Sammlung von Beobachtungen der Atmosphäre mit Hilfe von Satelliten entwickelt. Vierzig Jahre gemessener atmosphärischer Temperaturtrends, der einzige umfassende globale Temperaturdatensatz, der existiert, bestätigen ein Jahrhundert von Laborexperimenten. Die Auswirkungen des zunehmenden Kohlendioxids sind gering, viel geringer als die natürlichen Schwankungen. An der Oberfläche ist es schwierig, die Zunahme des Treibhauseffekts von den natürlichen Schwankungen zu trennen.

[Hervorhebung vom Übersetzer]

Auch die spekulierte Verstärkung durch erhöhten Wasserdampf ist nicht zu finden. Seit über 40 Jahren stellen die USA Daten über den Treibhauseffekt selbst zusammen, die die Temperaturtrends in der Atmosphäre bestätigen – eine Zunahme des Kohlendioxids führt zu einer mäßigen Erwärmung. Die derzeitige Erwärmung der Atmosphäre beträgt 0,1°C pro Jahrzehnt seit Januar 1979, oder etwa 0,6°C seit Januar 1979, oder etwa 1,4°C pro Jahrhundert. Dies liegt in der Mitte der niedrigsten Schätzungen der Erwärmung, die derzeit vom IPCC entwickelt werden, der von einem geringen Anstieg des Kohlendioxids ausgeht. Darin sind alle Treibhausgase und natürliche Schwankungen enthalten. Er liegt innerhalb der Bandbreite der natürlichen historischen Erwärmung[5].

Auf der Grundlage von NOAA-Beobachtungen auf dem Mauna Loa, Hawaii, tritt die maximale atmosphärische Kohlendioxidkonzentration jedes Jahr im Mai auf. Die Messungen im Mai stiegen von 339 ppm im Jahr 1979 auf 419 ppm im Jahr 2021. Dies ist ein Anstieg von 80 ppm oder 24%. Der Anstieg der atmosphärischen Temperaturen aus allen Quellen betrug jedoch nur 0,5°C. Die am besten geeigneten physikalischen Beweise stützen nicht die Befürchtung, dass die Zunahme des Kohlendioxids eine gefährliche Erwärmung verursacht[6].

Damit eine Zunahme des Kohlendioxids zu einer Erwärmung der Erdoberfläche führen kann, muss sich die Atmosphäre schneller erwärmen als die Erdoberfläche, aber das Gegenteil ist der Fall. Die wahrscheinlichen Ursachen für die Oberflächenerwärmung sind die Verstädterung, Veränderungen der Ozeanzirkulationen und Sonnenschwankungen, die wir noch nicht vollständig verstehen, und nicht die Treibhausgase. Im Allgemeinen ignorieren diejenigen, die Oberflächendaten verwenden, um eine gefährliche Erwärmung zu behaupten, solche Veränderungen. Sie verwenden Modelle, die nie validiert wurden (anhand physikalischer Beweise aus der Atmosphäre), um 30 bis 80 Jahre in die Zukunft zu spekulieren.

Abschnitt 4: Probleme mit den globalen Klimamodellen

In seinem Buch „Unsettled“ zeigt Steven Koonin zahlreiche Mängel im IPCC-Prozess auf, die behoben werden müssen, wenn die Ergebnisse für die öffentliche Politik genutzt werden sollen. Zu den schwerwiegenderen Mängeln, die Koonin diskutiert, gehören:

A) eine Verwechslung der Skala zwischen Celsius und Kelvin bei der Schätzung des Einflusses einer Verdoppelung des Kohlendioxids, was zu erheblichen Fehlern führt, und

B) die IPCC-Modelle folgen nicht dem Erwärmungstrend in den Aufzeichnungen der Oberflächentemperatur zwischen 1910 und 1940.

Koonin weist auch auf die Komplexität der Klimamodelle hin, welche die Oberfläche und die Atmosphäre in verschiedene hypothetische Boxen, so genannte Zellen, unterteilen. Für alle Zellen werden genaue Messungen benötigt, die es aber nicht gibt. Außerdem sind die Zellen so groß, dass wichtige Wetterereignisse übersehen werden können. Am wichtigsten ist, dass die IPCC-Schlussfolgerungen politisch und nicht wissenschaftlich sind:

„Und – ein sehr wichtiger Punkt – dieSummaries for Policymakersdes IPCC werden stark von Regierungen beeinflusst, wenn nicht sogar geschrieben, die ein Interesse an der Förderung bestimmter politischer Maßnahmen haben. Kurz gesagt, es gibt viele Möglichkeiten, die Objektivität des Prozesses und des Produkts zu korrumpieren.“

Ein Buch des japanischen Klimatologen und ehemaligen NASA-Forschers Mototaka Nakamura zeigt die Unzulänglichkeiten der Erdoberflächentemperaturen auf und hält sie für unzuverlässig vor 1980.

Ein quasi-globales Beobachtungssystem gibt es erst seit etwa 40 Jahren, seit der Einführung der künstlichen Satellitenbeobachtung. Vor dieser Zeit wurden die Temperaturdaten über extrem kleine Gebiete (bezogen auf die gesamte Erdoberfläche) gesammelt und weisen daher eine starke räumliche Verzerrung auf. Wir verfügen über eine unzureichende Menge an Daten, um den Trend der globalen mittleren Oberflächentemperatur für die Zeit vor der Satellitenbeobachtung zu berechnen. Diese starke räumliche Verzerrung stellt die Aussagekraft des „Trends der globalen mittleren Oberflächentemperatur“ vor 1980 in Frage[7].

Nakamura geht auch auf Versuche ein, seine Ansichten zu diskreditieren, die jedoch fehlschlugen. Im Gegensatz zu Koonin, der die Entwicklung der globalen mittleren Oberflächentemperatur vor 1980 akzeptiert, stellt Nakamura fest, dass diese Entwicklung höchst fragwürdig ist. So ist beispielsweise seit über 2.000 Jahren bekannt, dass Veränderungen in der Landnutzung, wie die Trockenlegung von Feuchtgebieten, die Abholzung von Wäldern, die Bewässerung, die Verstädterung usw., zu einer Veränderung der lokalen Klimatemperaturen führen. Nakamura stellt fest, dass die globalen Oberflächentemperaturtrends auf einigen wenigen, stark lokalisierten Messungen beruhen und die gesamte Aufzeichnung, auf der die globalen Klimamodelle beruhen, stark verzerrt sein kann. Vergleicht man die Ergebnisse globaler Klimamodelle mit dem, was in der Atmosphäre geschieht, wo der Treibhauseffekt auftritt, so überschätzt das Modell die erwärmende Wirkung von Kohlendioxid und anderen Treibhausgasen erheblich. Beide Autoren beanstanden die Vorgehensweise des UN IPCC und der US-Regierung bei der Bewertung der Auswirkungen von Treibhausgasen als äußerst problematisch.

Die Auswirkungen der Treibhausgase auf die atmosphärische Temperatur sind weitaus geringer als in den Modellen dargestellt. Christy et al. verglichen vier verschiedene Satelliten-Datensätze, vier verschiedene Wetterballon-Datensätzr und vier Sätze von Wetter-Reanalysen mit dem Durchschnitt der Modellsimulationen, die im Fünften Sachstandsbericht des IPCC verwendet wurden. Die Forscher stellten fest, dass die Modelle die tatsächliche Entwicklung der atmosphärischen Temperatur stark überschätzen und dass die Diskrepanz immer größer wird. Globale Klimamodelle mögen nützliche Lehrmittel sein, aber sie sind für die Regierungspolitik in Bezug auf Treibhausgase nicht geeignet[8].

Abschnitt 5: Aktuelle physikalische Beweise, die eine alternative Analyse des Treibhauseffekts unterstützen

Im 20. Jahrhundert kam es zu großen Veränderungen in der Physik, wie der Relativitätstheorie und der Quantenmechanik, die die physikalischen Eigenschaften der Natur auf molekularer, atomarer und subatomarer Ebene beschreibt. Die Quantenmechanik führte zu einem Bereich der Physik, der als Atomare, Molekulare und Optische Physik (AMO) bezeichnet wird und die Entwicklung von Datenbanken ermöglichte, die zur direkten Berechnung des Treibhauseffekts in der Atmosphäre verwendet werden können [9].

Mit Hilfe der HITRAN-Datenbank haben die AMO-Verantwortlichen W. A. van Wijngaarden und W. Happer den Einfluss von Wasserdampf, Kohlendioxid, Ozon, Distickstoffoxid und Methan in einer wolkenfreien Atmosphäre auf die Erhöhung der globalen Temperaturen geschätzt. Unter den derzeitigen atmosphärischen Bedingungen haben ein Anstieg des Wasserdampfs und des Kohlendioxids nur minimale Auswirkungen auf die Temperaturen. Endlich haben wir Berechnungen, die mit den Messungen der Vorgänge in der Atmosphäre übereinstimmen. [10]

Abschnitt 6: Wie es weitergeht

Wissenschaftliche Integrität erfordert, dass die Regierung Biden die strengste Anwendung der wissenschaftlichen Methode anwendet.

Wie oben gezeigt, unterstützen Beobachtungen mit der Technologie des 21. Jahrhunderts bestimmte Konzepte des 20. Jahrhunderts und weisen andere als falsch aus. Wissenschaftliche Integrität erfordert, dass die Verwaltung keine langfristigen Modelle für die Politik verwenden sollte, solange die Modelle nicht die hohen Standards für die Verifizierung und Validierung erfüllen, die von den Sandia National Laboratories für die Modellierung der Zuverlässigkeit von Kernwaffen erfüllt werden, oder die Standards, die vom Apollo-Team von Wissenschaftlern und Ingenieuren für die bemannte Erforschung des Mondes gefordert werden[11], [12].

Da es derzeit keine physikalischen Beweise für eine gefährliche globale Erwärmung durch Treibhausgase oder deren Auswirkungen und auch keine physikalischen Beweise für eine Klimakrise gibt, sollte die Regierung die atmosphärischen Temperaturtrends und die MODTRAN- und HITRAN-Datenbanken nutzen, um die Auswirkungen zunehmender Treibhausgase in der Atmosphäre abzuschätzen. Außerdem sollte die Regierung weiterhin

● die Überwachung der atmosphärischen Temperaturen, wie sie seit 40 Jahren durchgeführt wird, und

● die ausgehende elektromagnetische Strahlung überwachen, wie dies im Rahmen des CERES-Projekts geschieht.

Vor allem aber sollte die Biden-Regierung die Öffentlichkeit darüber informieren, dass es keine aktuelle Bedrohung gibt und dass sie die bestmögliche Wissenschaft zur Überwachung der Situation einsetzt, um sicherzustellen, dass sich keine Bedrohung entwickelt.

This article is adapted from a version that first appeared on the website of the Science and Environmental Policy Project (SEPP) July 28, 2021, and is used by permission.

Endnotes

[1] Steven E. Koonin, Unsettled: What Climate Science Tells Us, What It Doesn’t, and Why It Matters, BenBella Books, Inc, 2021 Kindle Edition; p 10, Introduction.

[2] Richard Lindzen, Global Warming for the Two Cultures, Global Warming Policy Foundation, October 2018.

[3] John Tyndall, Heat, a Mode of Motion, 5th ed., 1875, p. 359; the book is available in PDF.

[4] Ad Hoc Study Group on Carbon Dioxide and Climate, Massachusetts Institute of Technology, Jule G. Charney, Chairman, et al., Carbon Dioxide and Climate: A Scientific Assessment, presented to the Climate Research Board, Assembly of Mathematical and Physical Sciences, National Research Council, National Academy of Science, 1979.

[5] Roy W. Spencer, UAH Global Temperature Update for June 2021: -0.01 deg. C, July 2, 2021. Data from Global Temperature Report, Earth System Science Center, The University of Alabama in Huntsville, June 2021, data from https://www.nsstc.uah.edu/climate/.

[6] Data from NOAA, Global Monitoring Laboratory, Mauna Loa, Hawaii, accessed July 26, 2021.

[7] Motokaka Nakamura, Confessions of a climate scientist: The global warming hypothesis is an unproven hypothesis, Kindle Edition, October 2019.

[8] John R. Christy, Roy W. Spencer, William D. Braswell & Robert Junod, “Examination of space-based bulk atmospheric temperatures used in climate research,” International Journal of Remote Sensing, March 8, 2018.

[9] Iouli E. Gordon, The HITRAN Database, Harvard-Smithsonian Center for Astrophysics, Atomic and Molecular Physics Division, accessed July 12, 2019.

[10] W. A. van Wijngaarden and W. Happer, “Dependence of Earth’s Thermal Radiation on Five Most Abundant Greenhouse Gases,” Atmospheric and Oceanic Physics, June 4, 2020. Link to prepublication version.

[11] William L. Oberkampf, Timothy G. Trucano, and Charles Hirsch, Verification, Validation, and Predictive Capability in Computational Engineering and Physics, Sandia National Laboratories, Sand Report, February 2003.

[12] One More Mission, The Right Climate Stuff Team.

Link: https://cornwallalliance.org/2021/08/comments-on-federal-scientific-integrity/

Übersetzt von Christian Freuer für das EIKE