Wirkte Kohlendioxid 47 Jahre lang abkühlend?

Inzwischen existiert der selbst ernannten Weltklimarat und das PIK Potsdam, die praktisch per Satzung festgeschrieben haben, dass CO2 der alleinige Hauptverursacher einer fortdauernden menschengemachten Erwärmung wäre. Und dass die Zunahme ausschließlich vom Menschen erzeugt ist. Den Kohlendioxidanstieg der Atmosphäre bestreitet niemand. Die Messung am Mauna Loa, nach der eigentlich alle anderen CO2-Messstationen der Welt geeicht sind, zeigt die erste Abbildung.

Abb. 1: Seit 1958, dem Messbeginn nimmt der CO2-Gehalt in der Atmosphäre zu. Derzeit um etwa 2 ppm pro Jahr. Derzeitiger Stand 2020: 417 ppm

Zu dieser Gruppe an Klimawissenschaftlern, die sich selbst Klimafolgenwissenschaftler nennen, gehört auch, dass sie die CO2-Klimasensitiviät von 1,5°C bis 4,5°C aufgrund von Computersimulationen und Szenarien taxieren.

Diese Gruppe vor allem bei uns PIK Potsdam tritt radikal und Angst verbreitend auf und beherrscht die Medien. Radikal, weil sie wie eine Glaubensgruppe keine andere Meinung dulden. Inzwischen sind die Medien selbst zu deren Angsttreibern und Handlagern avanciert. Selbst Wissenschaftler, die eine geringere Sensitivität angeben, werden als Klimaleugner verunglimpft.

Ihr größter Trumpf ist dabei der Anstieg der Temperaturen, also die Wiedererwärmung nach der kleine Eiszeit, die auch in Mitteleuropa auf dem Boden des einstigen Kaiserreiches stattgefunden hat. Die DWD-Temperaturreihe seit 1881 sieht so aus

Abb. 2: Seit 1881 sind die Temperaturen im damaligen Kaiserreich, gemessen bei den damaligen Wetterstationen im Vergleich zur heutigen BRD bei den nun ganz anderen Stationen, deutlich gestiegen.

Dass somit ein großer Anteil des Anstieges vom Menschen erzeugten Wärmeinseleffekt bei den Stationen verursacht wird, soll hier zunächst außer Acht gelassen werden, genauso die Frage nach der Höhe des WI-Anteils. Wir tun so, als wären die Temperaturen vergleichbar und die Erhöhung würde ausschließlich durch Menschen verursachtes CO2 erzeugt. Dann wäre die Erwärmung beachtlich und hätte bereits 2 Grad seit 1881 überschritten.

Betrachten wir nun einzelne Zeitabschnitte bei den DWD-Deutschlandtemperaturen.

  1. Von 1881 bis 1940: Gleichmäßiger Anstieg der Jahrestemperaturen:

Abb. 3: Von 1881 bis 1940 zeigen die Temperaturen einen gleichmäßigen Anstieg, wobei 1940 ein ausgesprochenes Kaltjahr war. Ein Zeichen für einen Temperaturwechsel

  1. 1941 bis 1987: gleichmäßige Abkühlung in Deutschland.

Abb. 4: Im Zeitraum 1941 bis 1987, also 47 Jahre erlebte Mitteleuropa eine Abkühlungsphase. Wo bleibt die CO<sub>2</sub>– Treibhauswirkung?

Abb. 4: Im Zeitraum 1941 bis 1987, also 47 Jahre erlebte Mitteleuropa eine Abkühlungsphase. Wo bleibt die CO2– Treibhauswirkung?

  1. Seit 1988: Fortsetzung der Erwärmung

Abb. 5: In der dritten Phase der Temperaturbetrachtung setzt sich die bei Abschnitt 1 nach der kleinen Eiszeit begonnene Erwärmung fort.

Zusammenfassung:

Behauptet wird vom Mainstream, eine gut bezahlte Gruppe an Klimafolgenwissenschaftlern samt Medien, dass die Erwärmung seit der Industrialisierung ausschließlich durch den ebenfalls vom Menschen erzeugten CO2-Anstieg verursacht würde.

Im Zeitraum 1940 bis 1987, also 47 Jahre lang kühlte Mitteleuropa ab. Ein Zeitraum, in welchem diverse Klimawissenschaftler eine neue kleine Eiszeit vorhersagten.

Dieser 47-jährige Abkühlungszeitraum zeigt bereits, dass CO2 nichts mit der Temperaturentwicklung zu tun haben kann.

Unsere Frage war: Wirkte Kohlendioxid 47 Jahre lang abkühlend?

Antwort: Nein, CO2 hat entweder gar keine oder eine nur sehr untergeordnete Wirkung auf die Temperaturen.

Eine seriöse Klimawissenschaft sucht wertneutral nach den tatsächlichen Ursachen der ständigen Klimaschwankungen. Wann die nächste Abkühlungsphase oder der nächste Temperaturstillstand bevorsteht wissen wir nicht. Spannend sind allerdings die Vorhersagen.

Zum Wärmeinseleffekt: In allen drei Phasen der Betrachtung ist dieser bei den Wetterstationen gestiegen. Dadurch ist die Trendlinie in Phase 1 etwas weniger steil, in Phase 2 etwas stärker fallend und in Phase 3 wieder weniger steil ausgefallen als …

ja, als wenn sich Deutschland überhaupt nicht seit 1881 verändert hätte.

Fazit: Will man den menschengemachten Anteil an der Erwärmung bekämpfen, dann müsste man die weitere Bebauung, Technisierung und Trockenlegung der Landschaft einstellen. Eine CO2-Einsparung bewirkt nichts, das zeigt die Graphik 4 im Vergleich zum CO2-Anstieg




Gibt es einen Treibhaus­effekt?

1. Einleitung

Der Begriff Treibhauseffekt verleitet zur Annahme, dass man diesen Effekt mit dem Modell eines bestrahlten Gewächshauses, mit und ohne CO2, demonstrieren kann. Bereits 1909 hatte Robert Wood jedoch herausgefunden, dass sich ein Gewächshaus nur deshalb erwärmt, weil es das Aufsteigen und Entweichen erwärmter Luft verhindert. In der Folgezeit wurde Wood‘s Experiment mehrfach wiederholt und seine These bestätigt (Nasif S. Nahle, 2011 [1]; Jan-Eric Solheim, 2017 [2]).

Einen besonders hohen Temperatur-Anstieg konnte Hoimar von Ditfurth 1978 [3] bei einem spektakulären Selbst-Versuch erzielen. Eine Überprüfung des Ditfurth-Experimentes ergab, dass der beobachtete Temperatur-Anstieg einem Schichtungseffekt geschuldet ist, der ähnlich wie eine Mehrfachverglasung von Fenstern eine sehr gute Wärmeisolierung verursacht (M. Schnell, 2020) [4]). Eine solche Schichtung tritt auf, wenn reines CO2 von unten in eine Vorrichtung eingebracht wird. Ist das CO2, wie in der Atmosphäre, gleichmäßig mit der Innenluft vermischt, gibt es bei einem Treibhaus-Modell nur eine minimale oder gar keine Luft-Erwärmung. Mit diesen Treibhaus-Experimenten kann der Treibhauseffekt grundsätzlich nicht nachgewiesen werden, was einen neuen Denkansatz erforderlich macht.

Es ist unbestritten, dass CO2 ein infrarot (IR) aktives Gas ist und Wärmestrahlung absorbieren und auch wieder emittieren kann, was durch eine Vielzahl von IR-Spektren nachgewiesen ist. Diese Daten sind in der HITRAN-Datenbank [5] auch für die Öffentlichkeit zugänglich. Strittig ist, ob und in welchem Umfang die Temperatur der Erde durch CO2 beeinflusst wird (H. Harde, 2014 [6]; H. Harde, 2017 [7]). Der erste Teil dieser Fragen, ob auch kältere Treibhausgase zu einem Temperatur-Anstieg eines wärmeren, beheizten Körpers beitragen können, soll durch eine neue experimentelle Untersuchung geklärt werden.

Zunächst muss man sich bewusst machen, dass Energie in ganz verschiedenen Formen auftreten kann und in der Atmosphäre durch eine Reihe unterschiedlicher Mechanismen transportiert wird. Dazu gehören vertikale und horizontale Luftströmungen, Verdampfung, Kondensation und Gefrieren von Wasser, Wärmeleitung der Luft aber auch Wärmestrahlung (IR-Strahlung). Der Treibhauseffekt betrifft nur den letzten Fall, den Austausch von Wärmestrahlung der Erdoberfläche mit verschiedenen Schichten der Atmosphäre und den dort vorhandenen IR-aktiven Bestandteilen. Diese IR-aktiven Komponenten der Atmosphäre können Treibhausgase, Aerosole oder Wolken sein.

2. Versuchsaufbau

Man benötigt also einen Versuchsaufbau, der einen Strahlungstransport von A nach B realisiert, was in dem vorgestellten Experiment durch eine 30 °C warme und eine -1,8 °C kalte Fläche ermöglicht wurde, die einen Abstand von 1,11 m voneinander besitzen. Im Gegensatz zu den o.g. Treibhaus-Experimenten wird hier keine Bestrahlung mit einer Lichtquelle vom sichtbaren bis zum mittleren infraroten Spektralbereich verwendet, sondern Wärmestrahlung untersucht, die auch bei der Erde und der Atmosphäre in dieser Form auftritt. Wärmeströme, die nicht zum Strahlungsaustausch gehören, müssen durch entsprechende Maßnahmen verhindert oder minimiert werden.

Abb. 1 zeigt den schematischen Aufbau der Apparatur und die wichtigsten Bauteile. Ihre senkrechte Aufstellung, mit der warmen Fläche in oberster Position, erzeugt eine stabile Luftschichtung, die per se eine vertikale Luftbewegung (Wärmestrom durch Konvektion) verhindert (kalte Luft steigt nicht auf).
Ein möglicher Energietransport mittels Wasserdampf (latente Wärme) kann ausgeschlossen werden, da entweder getrocknete Luft oder Argon als Gasfüllung eingesetzt wird (siehe Anhang).

Wärmeleitung, sowohl durch die Gefäßwand oder längs der Gasphase, lässt sich nicht verhindern, wohl aber minimieren. So befindet sich die warme Fläche (Erd-Platte) in einem halbkugelförmigen Raum (Dom) (Abb. 1), der von außen mit einem Vinylschlauch umwickelt ist. Durch diesen Schlauch fließt Wasser mit einer konstanten Temperatur von 29,6 °C. Wegen der geringen Temperatur-Differenz von 0,4 K zwischen Dom und Erd-Platte gibt es in diesem Bereich auch nur eine geringe Wärmeleitung.

Die konstante Dom-Temperatur ist essentiell für diese Untersuchung und wird durch eine konstante elektrische Heizung des Wassers für die Dom-Heizung erreicht.

Die hohe Temperatur des Domes garantiert eine gute thermische Isolierung der Erd-Platte, aber ist auch gleichzeitig eine Orientierungshilfe für die Auswertung der Versuche. Der Dom hat eine polierte Edelstahloberfläche, wodurch sie weitgehend unempfindlich für Wärmestrahlung ist. Eine mögliche Erwärmung der schwarzen Erd-Platte nach Zugabe von Treibhausgasen lässt sich dann visuell am zunehmenden Abstand zur Dom-Temperatur erkennen (Abb. 2 und folgende).

Die Erd-Platte hat von vornherein die höchste Temperatur im Versuchsaufbau (0,4 K höher als der Dom und wesentlich höher als alle anderen Teile der Apparatur und auch höher als die Probengase). Dadurch ergibt sich ein kleiner, unvermeidbarer Wärmestrom von der Erd-Platte hauptsächlich zum Dom aber auch zur Gefäßwand und zur kalten unteren Platte. Erwärmt sich die Erd-Platte, nimmt dieser Wärmeverlust noch zu. Ohne diese Störung wäre ein noch höherer Temperatur-Anstieg möglich, als er hier beobachtet wurde. Der Wärmestrom zum Dom lässt sich verringern, indem man die Dom-Temperatur während eines Versuches parallel zur Erd-Temperatur erhöht. Das soll bei der vorliegenden Untersuchung jedoch nicht geschehen, um jeden Verdacht einer Manipulation kategorisch auszuschließen.

Die Wärmeleitung der Gase, zwischen warmer und kalter Platte, ist von Natur aus sehr gering, da Gase schlechte Wärmeleiter sind. Trotzdem könnte hier ein Einfluss der unterschiedlichen Wärmeleitfähigkeiten von Luft und den Probengasen vermutet werden. Das ist ein ernstzunehmendes Argument, das durch Kontroll-Experimente mit Edelgasen entkräftet werden kann.

Die Methodik der Versuche orientiert sich an der erfolgreichen Untersuchung zum „Ditfurth-Experiment“, das sich durch eine hohe Transparenz auszeichnet (M. Schnell, 2020 [4]). Es geht nicht um eine einzige Temperatur-Angabe, nach dem Motto „Friss oder Stirb“, sondern um eine lange Beobachtungsphase mit mehr als siebzig Temperatur-Daten, die in den Diagrammen auf einer Zeitachse von links nach rechts verfolgt werden können.

Die ersten 90 Minuten, vor Zugabe eines Probegases, sollen zeigen, dass sich die Erd-Platte im thermischen Gleichgewicht befindet. Die elektrische Heizung der Erd-Platte entspricht dem Wärmeverlust durch Wärmestrahlung und Wärmeleitung (Input = Output). Die Erd-Platte hat dabei eine konstante Temperatur von 30,0 °C. Die Anzeige-Genauigkeit beträgt ±0,13 K, d.h. um diesen Wert verändert sich die digitalisierte Temperaturanzeige der Erd-Platte bei Erwärmung. Eine Temperatur-Änderung von ±0,13 K wird deshalb als LOD (limit of detection) gewertet. Der Treibhauseffekt gilt als nachgewiesen, wenn bei einem Experiment ein deutlicher Temperatur-Anstieg ∆TpE >> LOD registriert wird, also ein Mehrfaches des LOD-Wertes.

Nach Ablauf der 90-minütigen Messungen mit der luftbefüllten Apparatur werden die Probengase mit einer Geschwindigkeit von 1 l/min von unten in die Apparatur eingeleitet. Danach wird für kurze Zeit mit einer Aquarien-Pumpe die Innenluft aus dem oberen Gasrohr abgesaugt und in das untere Gasrohr (in den Totraum unterhalb der kalten Platte) wieder eingeleitet (Abb. 1). Durch dieses Umpumpen werden die Probengase aus dem Totraum verdrängt und eindeutig zwischen warmer und kalter Platte positioniert. Die Zugabe der Probengase und das Umpumpen sind die einzigen äußeren Eingriffe während eines Experimentes. Von nun an wird nur noch beobachtet, wie sich die Messwerte verändern.

3. Wirkung der Probengase bei konstanter Heizung der Erd-Platte

3.1 Das CO2-Experiment

Eine Messung mit CO2 als Probengas bei einer Konzentration von 15,4 Vol.-% in trockener Luft ist in Abb. 2a wiedergegeben.
Zum Vergleich: bei dieser Konzentration und einem Abstand der Platten von 1,1 m entspricht dies etwa der Absorption und Emission, wie dies von 100 ppm CO2 (ohne andere Treibhausgase) in der Atmosphäre zu erwarten wäre.

Unmittelbar nach dem Einleiten und Umpumpen, befindet sich das CO2 im Bereich des Tp4-Sensors bei rund 12 °C, also 18 K kälter als die Erd-Platte (siehe Abb. 2b). Trotzdem reagiert die weit entfernte Erd-Platte nur wenige Minuten nach Beginn der CO2-Einleitung mit einem deutlichen Temperatur-Anstieg. Diese CO2-Schicht dehnt sich langsam durch Diffusion in der gesamten Apparatur aus, wobei immer wärmere Regionen erreicht werden. Die Erd-Platte reagiert hierauf mit einem kontinuierlichen Temperatur-Anstieg, der bei 290 Minuten ein Maximum von ∆TpE = 0,9 K erreicht. Auch ein weiteres 10-minütiges finales Umpumpen verändert diesen Wert nicht mehr.

An dieser Stelle soll erinnert werden, dass bei der Überprüfung des Ditfurth-Experimentes ein finales Umpumpen ein „KO“-Kriterium war. Der ursprüngliche Temperatur-Anstieg verschwand beim Umpumpen, dem Homogenisieren der Gasmischung, und das Ditfurth-Experiment konnte als fake entlarvt werden (M. Schnell, 2020 [4]).

Offensichtlich ist das neue experimentelle Konzept nicht mit den vielen „Treibhaus-Experimenten“ in der Art von Ditfurth & Co. vergleichbar. Auch bei den Temperaturen des Gasraumes zwischen warmer und kalter Platte gibt es gravierende Unterschiede. Über die gesamte Messzeit zeigen die Sensoren eine konstante Temperatur und einen stabilen Gradienten von 27,3 °C bei Tp1 bis 12,6 °C bei Tp4. Die Zugabe von CO2 führt zu keiner signifikanten Temperatur-Änderung an diesen Messpunkten (Abb. 2b).

Die konstanten Temperaturen der Gasphase sollten aber nicht überbewertet werden, da die Dom-Temperatur absichtlich konstant gehalten wurde, um Manipulationsvorwürfe zu vermeiden.

Würde man die Dom-Temperatur im gleichen Abstand zur Temperatur der Erd-Platte erhöhen, würden auch die Temperaturen der benachbarten Luftschichten leicht ansteigen. Das ist allerdings eine andere Geschichte und Gegenstand der laufenden experimentellen Untersuchung zur Klimasensitivität von CO2.

Reaktion der Thermoelemente

Gemäß dem Seebeck-Effekt entsteht in einem Stromkreis aus zwei verschiedenen elektrischen Leitern eine elektrische Spannung, die u.a. von der Temperaturdifferenz zwischen den Kontaktstellen abhängig ist. Auf die kalte Platte wurden fünf Thermoelemente geklebt, die auf ihrer Unterseite von der Temperatur der kalten Platte und auf ihrer Oberseite von den Wärmeströmungen in der Röhre beeinflusst werden. Diese Elemente sind in Reihe geschaltet, und ihre Klemmspannung wird von einem empfindlichen Voltmeter registriert.

Beim CO2-Einleiten entsteht in den ersten Minuten ein „CO2-See“ oberhalb der kalten Platte, der wegen eines Schichtungs-Effektes und einer geringeren Wärmeleitfähigkeit von CO2 zu einem Wärmestau führt (M. Schnell, 2020 [4]). Das hat zur Folge, dass der kalten Platte weniger Wärme von der wärmeren Röhre (im Bereich von Tp4) zufließt. Die Oberseite der Thermoelemente kühlt sich ab und die ursprüngliche Spannung von Th = 74,6 mV geht um ∆Th = -16,8 mV zurück. Beim Umpumpen wird die CO2-Schicht etwas angehoben und wärmere Luft umströmt die Thermoelemente, wodurch die Spannung kurzzeitig bis auf Th = 76 mV wieder ansteigt. Nach Beendigung des Pumpens bildet sich erneut ein leichter Wärmestau aus, und die Spannung sinkt auf Th = 70,7 mV. Im Verlauf der Diffusion kommt es dann zu einer gleichmäßigen Vermischung von CO2 und der Innenluft, wodurch der Schichtungs-Effekt beseitigt wird und sich die Spannung der Thermoelemente Th langsam dem Ausgangswert von Th = 74,6 mV annähert (Abb. 2c). Die finale Differenz von ∆Th = -1,6 mV ist der geringeren Wärmeleitung einer 15%igen CO2-Luft-Mischung geschuldet.

Die Reaktion der Thermoelemente zeigt, dass man die Einleitung schwerer Gase und ihre anschließende Diffusion sehr gut verfolgen und somit auch dokumentieren kann. Diese Eigenschaft wird sich später beim Argon-Versuch bezahlt machen.

3.2 Das Propan-Experiment

Propan ist ein wesentlich stärkeres Treibhausgas als CO2. Man erreicht mit nur 13 % der CO2-Menge (4,5 g Propan vs. 35,3 g CO2 bzw. 2 Vol.-% Propan vs. 15,4 Vol.-% CO2) einen ungefähr gleichen Temperatur-Anstieg von ∆TpE = 0,8 K wie beim CO2 (Abb. 3a).

Der Versuch wurde in Argon durchgeführt, um den Einfluss der Wärmeleitung auf die Reaktion der Thermoelemente zu untersuchen. Argon hat eine kleinere Wärmeleitfähigkeit als Luft (0,018 vs. 0,026 W/(m∙K)) aber eine etwas größere als Propan (0,015 W/(m∙K)). Demzufolge verursacht die Einleitung von Propan auch nur einen geringen Rückgang der Spannung der Thermoelemente ∆Th = 4,6 mV, der schon beim Umpumpen wieder den Ausgangswert erreicht, was zu beweisen war.

Während der Diffusion des Propans steigt die Spannung der Thermoelemente Th jedoch weiter an und ist am Ende sogar 4,3 mV höher als der Anfangswert, obwohl mit Propan die Wärmeleitung zwischen Wand und kalter Platte weiter leicht reduziert wird und eher eine niedrigere Spannung zu erwarten wäre. Dieser Anstieg von Th ist nur durch die Emission von IR-Strahlung durch Propan in Richtung der kalten Platte zu erklären, da ein Treibhausgas nicht nur Wärmestrahlung absorbiert, sondern in gleichem Maße aufgrund seiner Eigentemperatur auch wieder emittieren kann. Gleichzeitig kühlt sich dabei das Gasgemisch leicht ab (siehe Abb. 3b).

Um einem Missverständnis vorzubeugen, diese zusätzliche Ausstrahlung und die Abkühlung der Gasphase ist ein Phänomen der Labor-Experimente. Dies wird durch die Konstruktion der Apparatur verursacht und soll nur als ein weiterer Beweis des Treibhauseffektes verstanden werden. Dieser Effekt wird durch die geringe Größe der Erd-Platte im Vergleich zum Dom und Röhren-Durchmesser verursacht. Die anderen (verspiegelten) Flächen senden nur eine geringe Wärmestrahlung aus, die in diesem Fall vom Propan übertroffen wird.

In der Atmosphäre gibt es solche Energieströme nicht. Die Temperaturen der Troposphäre werden hauptsächlich durch den Druckgradienten der Atmosphäre (adiabatische Temperaturänderung von Luftpaketen) und Wetterphänomenen bestimmt. Ob und in welchem Umfang Treibhausgase einen Einfluss auf die Temperatur der Troposphäre haben, ist umstritten und kann nicht durch einfache Labor-Experimente entschieden werden.

3.3 Das Freon-Experiment

Das Freon-Experiment (Abb. 4a u. 4b) zeigt sowohl bei den Thermoelementen als auch bei den Temperaturen ähnliche Ergebnisse wie das Propan-Experiment. Bemerkenswert ist die sehr kleine Menge an Freon 134a, die mit 0,13 Vol.-% bereits einen Temperatur-Anstieg von knapp 1,2 K verursacht. Die Wärmeleitung von Gasmischungen geringer Konzentration errechnet sich in guter Näherung über den Molenbruch. Eine relevante Veränderung der mechanischen Wärmeflüsse ist angesichts der kleinen Freon-Konzentration bei vollständiger Durchmischung nicht zu erwarten.

3.4 Das Argon-Kontrollexperiment

Die Zugabe von Argon als Probengas in die mit trockener Luft befüllte Apparatur hat keinen messbaren Einfluss auf die Temperaturen der Erd-Platte und der Luft. Dass überhaupt Argon eingeleitet wurde, wird am vorübergehenden Rückgang der Spannung der Thermoelemente ∆Th = -11,5 mV erkennbar (Abb. 5a). Beim Einleiten bildet sich eine Argon-Schicht, die die Wärmeleitung im Bereich der Thermoelemente durch einen Schichtungseffekt erheblich verringert. Umpumpen und Diffusion beseitigt die Schichtung, und die Spannung der Thermoelemente Th erreicht wieder annähernd den Ausgangswert (siehe Abb. 5b) wie bereits beim CO2 beobachtet (Abb. 2c). Damit wird nachgewiesen, dass der Spannungsrückgang ∆Th durch einen Schichtungs-Effekt beim Einleiten schwerer Gase verursacht wird.

3.5 Das Helium-Kontrollexperiment

Da Helium leichter als Luft ist, wird es von oben unterhalb der Erd-Platte eingeleitet. Ein Umpumpen ist hier nicht erforderlich, da es bei der Erd-Platte keinen Totraum gibt.
Helium hat eine wesentlich höhere Wärmeleitfähigkeit als Luft (0,157 vs. 0,026 W/(m∙K)), trotzdem hat die Temperatur der Erd-Platte auch nach 350 Minuten immer noch den Anfangswert (Abb. 6). Ein deutliches Zeichen, dass die Wärmeleitung der Gase keine Rolle spielt. Damit lässt sich Wärmeleitung als mögliche Erklärung der oben geschilderten Temperatur-Anstiege in Gegenwart von Treibhausgasen endgültig ausschließen.

Nur direkt beim Einleiten von Helium kommt es zu einem leichten Temperatur-Rückgang von TpE, da das kalte Helium an der Erd-Platte vorbeiströmt.

Bemerkenswert sind die Thermoelemente, die bei diesem Versuch, keine Reaktion zeigen. Da das Helium von oben, weit von den Thermoelementen entfernt, eingeleitet wird, kommen diese Sensoren erst nach vollständiger Diffusion in Kontakt mit dem Edelgas. Es gibt somit keinen Schichtungs-Effekt und selbst die 13 %-ige Helium-Luft-Mischung am Ende des Versuches macht sich bei den Thermoelementen nicht bemerkbar.

4. Wirkung von Freon 134a bei konstanter Temperatur der Erd-Platte

Bis zur 235. Minute sieht der Versuch Freon Nr. 15 wie eine Wiederholung des Freon-Experimentes Nr. 13 aus (siehe Abb. 7a bis 7c). Aber es gibt einen Unterschied: Die kalte Platte ist rund 10 K kälter als beim vorherigen Experiment. Trotz der geringeren Temperatur der kalten Platte (TpK = -11.4 ° vs. TpK = -1,8 °C) ist der Temperatur-Anstieg ∆TpE der Erd-Platte um 0,55 K größer als beim Experiment 13 (∆TpE = 1,69 vs. ∆TpE = 1,17 K).
Schon früher wurde auf diesen scheinbar paradoxen Zusammenhang hingewiesen (M. Schnell, [8]). Die Temperatur der kalten Platte spielt beim Treibhauseffekt eine wichtige Rolle. Bei einem geringeren Temperatur-Unterschied zwischen den Treibhausgasen und dieser Platte wird die Strahlung der Moleküle stärker durch die Hintergrundstrahlung der kalten Platte überlagert (ähnlich der Hintergrundstrahlung, die durch Wolken in der Atmosphäre verursacht wird, siehe auch H. Harde [7]). Bei identischen Temperaturen gibt es keine Erwärmung der Erdplatte durch das IR aktive Gase. Ein Phänomen, das weiterer experimenteller Untersuchungen bedarf, aber für die aktuelle Fragestellung, bei der es um den prinzipiellen Nachweis des Treibhauseffekts geht, keine Rolle spielt.

Nach Feststellung der maximalen Temperatur-Erhöhung ∆TpE(max) wird die Heizung schrittweise solange reduziert, bis die Erd-Platte wieder die Anfangs-Temperatur von 30 °C hat. Dabei zeichnet sich Freon durch eine besonders gute „Wärmeisolierung“ aus. Die geringe Konzentration von 0,13 Vol.-% Freon (0,15 l) bewirkt, dass die Heizung der Erd-Platte um rund 11 % von 169,9 W/m2 auf 151,2 W/m2 gesenkt werden muss. Dieser Isolations-Effekt wird jedoch nicht durch Wärmeleitung, sondern durch einen veränderten Strahlungsaustausch verursacht (siehe Kap. 5). Erinnert sei hier an das Argon-Kontrollexperiment (Kap. 3.4), das trotz einer 10-fachen Menge an Argon (15 l) keinen Isolations-Effekt zeigte.

Damit weist dieses Experiment überzeugend nach, dass die von Freon ausgehende Wärmestrahlung von der Erd-Platte als sogenannte Gegenstrahlung aufgenommen wird und dies unter den gegebenen experimentellen Bedingungen (Konzentration des Gases, Temperatur, „eingesehener“ Raumwinkel) zu einer entsprechend geringeren Heizleistung von rund 19 W/m2 führt.

5. Die Heizung der Erd-Platte

Bei diesem Versuch geht es vordergründig um die Frage: „Wie verändert sich die Temperatur der Erd-Platte, wenn ihre Heizung verzögert eingeschaltet wird?“

Das Experiment beginnt mit den gleichen Vorbereitungen wie in Kap. 2 angegeben, jedoch ohne Heizung der Erd-Platte. Die ersten 86 Minuten zeigen, dass die Erd-Platte im thermischen Gleichgewicht eine Temperatur von 19,2 °C annimmt, wenn ihre Heizung ausgeschaltet ist (Abb. 8a). Sie ist jetzt 10,4 K kälter als ihre unmittelbare Umgebung, dem Dom, der dank seiner Wasser-Heizung 29,6 °C warm ist. Das ist vergleichbar mit der Abkühlung von Körpern, die einem kalten Himmel ausgesetzt sind, was in unseren Breiten z.B. als Strahlungsfrost bekannt ist.

Das Experiment, das man als einen weiteren Test bezeichnen kann, soll nachweisen, dass die Temperatur der Erd-Platte hauptsächlich durch Strahlungsaustausch I mit der 1,11 m entfernten kalten Platte bestimmt wird.

Der Strahlungsaustausch I beschreibt den Wärmeverlust eines warmen Körpers in einer kalten Umgebung. Es ist ein Wärmeverlust, der ausschließlich durch einen gegenseitigen Austausch von Wärmestrahlung verursacht wird. Beim Einschalten der Heizung steigt die Temperatur der Erd-Platte und damit erhöht sich auch ihre Wärmestrahlung. Die Thermoelemente reagieren auf diese zusätzliche Wärmestrahlung mit einem Anstieg der Spannung ∆Th um 15,1 mV, synchron zur Temperatur der Erd-Platte.

Aus dieser Beobachtung lässt sich die Reaktion der Thermoelemente wie folgt erklären:

  • Ein Anstieg der Spannung Th zeigt die von oben kommende Wärmestrahlung.
  • Ein Absinken von Th zeigt vor allem die geringe Wärmeleitung schwerer Gase bzw. einen Schichtungs-Effekt.

Die Temperatur der ungeheizten Erd-Platte von 19,2 °C ergibt sich aus dem Wärmeverlust durch Strahlungsaustausch I (hauptsächlich mit der kalten Platte) und Zufuhr von Wärme Q aus seiner wärmeren Umgebung (Dom).
Beim Einschalten der Heizung verändern sich die Temperatur-Differenzen zwischen Erd-Platte, Dom und kalter Platte, wodurch der Wärmestrom Q abnimmt und der Strahlungsaustausch I zunimmt. Es stellt sich ein neues Gleichgewicht bei der Erd-Platten-Temperatur von 30 °C ein.
Unter der Annahme, dass bei nahezu gleichen Temperaturen von Dom und Erd-Platte der Wärmestrom Q vernachlässigt werden kann, lässt sich der Strahlungsaustausch I mit der Stefan-Gleichung berechnen (Wikipedia [8]).

Für E=1 (Emissionsaustauschgrad), TE = 303,15 K (30 °C) und TK = 271,35 K (1,8 °C) errechnet sich eine Intensität I für den Strahlungsaustausch mit B als Boltzmann-Konstante:

Tatsächlich wird für die Temperatur der Erd-Platte von 30 °C aber nur eine elektrische Heizleistung von 143 W/m2 benötigt, also nur 83 % des theoretischen Strahlungsaustausches I. Dieses bestätigt sich auch weitgehend, wenn die kalte Platte auf -11,4 °C gekühlt wird. In diesem Fall beträgt wurde eine Heizleistung von 169,9 W/m2 benötigt, entsprechend 80% des theoretischen Wertes. Diese so ermittelten Leistungen sind ein Qualitätsmerkmal der Apparatur und zeigen, wie die Apparatur auf die Wärmestrahlung der kalten Platte reagiert.

Die Abweichung vom theoretischen Wert entsteht durch einen zweiten Strahlungsaustausch I‘ der Erd-Platte mit der Röhre. Die Röhre hat eine höhere Temperatur als die kalte Platte, wodurch die Erd-Platte weniger Wärme in dieser Richtung verliert.

Die Messungen der Lufttemperatur zeigen, dass sich beim Einschalten der Heizung hauptsächlich die Luft in der Nähe der Erd-Platte, im Bereich der Messstelle Tp1, erwärmt (Abb. 8b).

6. Fazit

Der Versuchsaufbau des Experimentes kann als ein Modell bezeichnet werden, das den Strahlungsaustausch der Erdoberfläche unter einer Wolkenschicht abbildet. Die gewählten Temperaturen einschließlich eines Temperatur-Gradienten zwischen Erd- und kalter Platte können auch auf der Erde und in der Atmosphäre gefunden werden.
Andere Parameter wie die Sonnenstrahlung, der Einfluss von Wasserdampf, ein Druckgradient, vertikale und horizontale Luftströmungen, Wärmetransport durch latente Wärme und viele Wetter-Phänomene werden von dem Versuchsaufbau nicht berücksichtigt. Es lassen sich somit auch keine Global-Temperaturen der Erde ableiten oder gar vorhersagen.

Alle ermittelten Temperaturen sind nur Demonstrationen, die zeigen, dass Treibhausgase grundsätzlich zur Erwärmung der Erde beitragen können, dass der Treibhauseffekt physikalisch möglich ist.
Die gezeigten Diagramme sind nur eine kleine Auswahl von rund 50 durchgeführten Experimenten. In allen Fällen, ohne Ausnahme, verursachte die Zugabe eines IR-aktiven Gases eine Temperatur-Erhöhung der Erd-Platte, trotz konstanter Heizung dieser Platte und konstanter Temperatur ihrer unmittelbaren Umgebung.

Bisher vorgebrachte Einwendungen gegen einen Treibhauseffekt wurden bei den Untersuchungen weitgehend berücksichtigt. So konnte eindeutig gezeigt werden, dass ein beheizter Körper, hier die Erd-Platte, sich auch in Gegenwart deutlich kälterer Treibhausgase erwärmt. Es wurde demonstriert, dass der Erwärmungs-Effekt sowohl von der Gas-Temperatur als auch von der Art des Gases abhängt. Auch eine sehr kleine Menge eines IR-aktiven Gases spricht nicht gegen den Treibhauseffekt, der aufgrund der langen Ausbreitungswege von Strahlung in der Atmosphäre auch dann noch einen deutlichen Einfluss verursachen kann.
Die Gastemperaturen sind kleiner als die der Erd-Platte und verändern sich während eines Versuches nicht oder sinken sogar leicht. Die Erwärmung der Erd-Platte kann somit nicht durch einen Wärmestrom aus ihrer Umgebung erklärt werden.

Kontrollexperimente mit den Edelgasen Argon und Helium, zeigen, dass die unterschiedliche Wärmeleitfähigkeit dieser Probengase im Vergleich zu Luft keinen Einfluss auf die Temperatur der Erd-Platte haben.

Die Ursache für die Erwärmung der Erd-Platte ist die Fähigkeit der Treibhausgase, nicht nur IR-Strahlung zu absorbieren, sondern aufgrund ihrer Eigentemperatur auch Strahlung auf den gleichen Wellenlängen wieder zu emittieren. Hierdurch wird die bereits vorhandene Gegenstrahlung der kalten Platte weiter verstärkt. Entsprechend der Stefan-Gleichung wird dadurch bei konstanter Temperatur der Erdplatte der Transport von Energie von der Erd-Platte zur kalten Platte verringert. Das hat allerdings ein Ungleichgewicht von Input und Output zur Folge. Wegen der Energieerhaltung muss sich die Erd-Platte erwärmen, um bei einer höheren Temperatur das Gleichgewicht von Input und Output wieder herzustellen.
Vereinfacht ausgedrückt handelt es sich beim Treibhauseffekt im Grunde um eine Art „Isolations-Effekt“, der beim Austausch von Wärmestrahlung wirksam wird (wie unsere Bettdecke, die uns nachts schön warm hält, nur dass wir hier eine Gasschicht haben und von Wärmestrahlung sprechen).

In einigen weiteren Experimenten konnte diese Wärmestrahlung auch für Propan und Freon 134a nachgewiesen und quantifiziert werden.

Eine Klimasensitivität kann aus den Versuchen nicht abgeleitet werden, da die Temperatur des Doms, die unmittelbare Umgebung der Erd-Platte, konstant gehalten wurde. Der gefundene Temperatur-Anstieg von 0,9 K bei einer recht hohen CO2 Menge lässt jedoch jetzt schon ahnen, dass die IPCC-Angaben bezüglich der CO2-Wirkung wohl deutlich zu hoch gegriffen sind. Der Streit um die CO2-Klima-Katastrophe wird also weitergehen. Danach lautet die strittige Frage nicht ob, sondern wie hoch der CO2-Treibhauseffekt ist. Das ist jedoch eine andere Geschichte und Gegenstand einer weiteren experimentellen Untersuchung.

Danksagung:

Herrn Ing. Ulrich Tengler danken wir an dieser Stelle für seine Unterstützung und die kostenlose Überlassung des Kryostaten Isotemp 1016S.

Anhang

Versuchsablauf: Am Tag vor einem Experiment wird eine Natronlauge-Kassette zwischen Pumpe und Sauerstoffsensor geschalten und für 4 Stunden die Innenluft mit 1,5 l/min im Kreis gepumpt, wodurch Wasserdampf und CO2 entfernt werden (Siehe Abb. 1). Im Falle von Argon als Gasfüllung, werden 300 Liter Argon von unten in die oben offene Apparatur geleitet, wodurch die Luft verdrängt wird.

Nachts, um 1:30 Uhr werden mit einer Schaltuhr Kühlaggregat, Domheizung und Raum-Thermostatisierung in Betrieb genommen und nach einer gewissen Verzögerung die Heizung der warmen Platte eingeschaltet.
Für die elektrische Heizung der Erd-Platte wird ein digitales Labornetzgerät (KA3005D) im Konstant-Spannungsbetrieb mit einer Auflösung von 0,01 V verwendet. Die erforderliche Heizleistung für die 219 cm2 große Erd-Platte wird mit dem Faktor 45,654 multipliziert, um auf die Heizung einer Fläche von 1 m2 umzurechnen.
Gegen 7:30 Uhr beginnt die computergestützte Aufzeichnung der Messwerte für TpE, TpK und Dom Temperatur im Minutentakt. Alle 6 Minuten wird ein Durchschnittswert der letzten 6 Minuten errechnet und für eine Excel-Tabelle gespeichert. Alle anderen Daten werden manuell in gewissen Zeitabständen abgelesen.
Mit den ersten 90 Minuten wird die Konstanz aller Messwerte innerhalb eines Schwankungsbereiches von ± 0,13 K demonstriert. Gegen 9:00 Uhr wird das Probegas von unten in die Apparatur eingeleitet und danach für kurze Zeit mit einer Aquarium-Pumpe die Luft aus dem Dom abgesaugt und in den unteren Totraum wieder eingeleitet (Umpumpen). Im Falle von CO2 und Propan wird die Menge der Probengase durch Wägung der Gasflaschen ermittelt. Das Volumen von Argon und Helium wird mit Hilfe eines Rotameters ermittelt. Für das Freon 134a wird eine verschließbare Gasmaus mit dem Volumen von 0,15 l verwendet, die zwischen Luftpumpe und Feuchtesensor geschaltet wird.

Interessenten an weiteren Diagrammen oder technischen Details können bei EIKE um einen Kontakt nachfragen.

Referenzen

  1. N. S. Nahle: Repeatability of Professor Robert W. Wood’s 1909 experiment on the Theory of the Greenhouse,. Biology Cabinet Online-Academic Resources and Principia Scientific International. Monterrey, N. L. , July 5, 2011
    http://www.biocab.org/experiment_on_greenhouses__effect.pdf
  2. J.-E. Solheim: Start des zweitägigen „Al Gore-Experiments“, 10. Internationale Klima- und Energie-Konferenz (10. IKEK), EIKE, Berlin, 12. November 2016
    https://www.eike-klima-energie.eu/2017/02/04/10-ikek-prof-em-jan-erik-solheim-start-des-zweitaegigen-al-gore-experiments/
  3. H. v. Ditfurth 1977: https://www.youtube.com/watch?v=lORAR1nvfjs
  4. M. Schnell, 2020: Die falschen Klimaexperimente,
    https://www.eike-klima-energie.eu/2020/11/06/die-falschen-klima-experimente/
  5. HITRAN-Datenbank: https://www.cfa.harvard.edu/hitran/welcometop.html
  6. H. Harde, Advanced Two-Layer Climate Model for the Assessment of Global Warming by CO2, Open Journal of Climate Change, Vol. 1, No. 3, Nov. 2014
    http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.909.4771&rep=rep1&type=pdf
  7. H. Harde, Radiation Transfer Calculations and Assessment of Global Warming by CO2 , International Journal of Atmospheric Sciences, Volume 2017, Article ID 9251034, pp. 1-30 (2017), https://www.hindawi.com/journals/ijas/2017/9251034/ https://doi.org/10.1155/2017/9251034
  8. M. Schnell, 2020, Die Hintergrundstrahlung der Wolken und Aerosole
    https://www.eike-klima-energie.eu/2018/06/03/experimentelle-verifikation-des-treibhauseffektes/
  9. Wikipedia, Strahlungsaustausch: https://de.wikipedia.org/wiki/Strahlungsaustausch

 

Die englische Version dieses Beitrags ist hier:

Is there a greenhouse effect?




Aktualisierung: Fakten und Theorien

Manchmal fragt man Klimaskeptiker, ob sie an die Evolution oder die Schwerkraft glauben. Sie wollen unseren Skeptizismus lächerlich machen, indem sie den vom Menschen verursachten, alias anthropogenen Klimawandel mit Evolution oder Schwerkraft gleichsetzen. Evolution und Schwerkraft sind Fakten, der anthropogene Klimawandel dagegen ist eine Hypothese. Die Gleichsetzung von „Klimawandel“ mit der Schwerkraft oder der Evolution ist hingegen in Ordnung, da alle drei Tatsachen sind. Das Klima ändert sich, die Schwerkraft hält uns an die Erdoberfläche und die Arten entwickeln sich weiter.

Der berühmte Philosoph Karl Popper würde sagen, dass diese beobachteten Phänomene keine wissenschaftlichen Hypothesen oder Theorien sind, weil sie nicht falsifizierbar sind (Popper, 1962). Wie kann man beweisen oder widerlegen, dass sich das Klima verändert?

Es gibt andere Vorstellungen, die Popper als Pseudowissenschaft bezeichnet. Diesen Vorstellungen zufolge ist es völlig egal, was man beobachtet, die Beobachtung wird immer als Bestätigung der Vorstellung gesehen. Popper bietet die Geschichtstheorie von Marx als Beispiel an und stellt fest, „dass ein Marxist keine Zeitung aufschlagen könnte, ohne auf jeder Seite einen bestätigenden Beweis“ für diese Theorie zu finden. Freuds Theorien waren die gleichen, jeder klinische Fall war eine Bestätigung der Freudschen Theorien. Es war genau diese Tatsache, dass die Beweise immer zu diesen Gedanken passten, die ihre Schwäche ausmachten. Eine Theorie, die durch kein denkbares Ereignis widerlegt werden kann, ist nicht wissenschaftlich (Popper, 1962, S. 35-36). Die Astrologie ist ein weiteres Beispiel.

Popper fragte sich 1919, wie sich Marxismus, Freud und Astrologie von wirklich wissenschaftlichen Vorstellungen wie Newtons Gravitationsgesetz oder Einsteins Relativitätstheorie unterscheiden. Er erkannte, dass letztere getestet und als falsch nachgewiesen werden konnten. Er war inspiriert von Frank Dyson, Andrew Crommelin und Arthur Eddingtons Bestätigung von Einsteins Relativitätstheorie während der Sonnenfinsternis vom 29. Mai 1919. Einsteins Theorie sagte voraus, dass sich das Sternenlicht aufgrund der Schwerkraft um die Sonne krümmen würde. Das Newtonsche Gravitationsgesetz sagt ebenfalls eine Ablenkung voraus, aber Einsteins Theorie sagte eine doppelt so große Ablenkung voraus. Die Beobachtungen während der Sonnenfinsternis zeigten, dass dies genau so geschah, wie Einstein es vorhergesagt hatte (Coles, 2019).

Dies war die erste wirkliche Bestätigung der Einsteinschen Theorie, und sie beruhte auf einer riskanten Vorhersage. Eine Bestätigung einer Theorie muss eine riskante Vorhersage von Dingen beinhalten, die nicht geschehen können oder geschehen werden, wenn die Theorie zutrifft. Theorien sollten Dinge erfolgreich vorhersagen, und es sollte nichts auftreten, das im Widerspruch zu der Theorie steht. Je mehr das der Fall ist, desto besser. Bestätigungen beweisen eine Theorie nicht, aber sie erlauben es ihr, zu überleben.

Popper zieht eine klare Grenze zwischen Wissenschaft und Pseudowissenschaft. Wissenschaftliche Hypothesen und Theorien sagen voraus, was geschehen wird und was nicht geschehen wird, wenn die Theorie wahr ist. Die Pseudowissenschaft zieht keine solche Grenze.

Mit anderen Worten: Wenn ein Krieg stattfindet und jemand durch ihn reich geworden ist, bestätigt das nicht Marx‘ Sicht der Geschichte. Marx hätte vorhersagen müssen, dass der Mann reich werden würde, und er hätte zugeben müssen, dass er Unrecht hatte, wenn der Mann arm blieb. Wir müssen uns vorstellen können, wie die Theorie widerlegt werden kann.

Schwerkraft und Evolution agieren wie es allgemein anerkannte Theorien vorgeben. Einstein entwickelte unsere heutige wissenschaftliche Theorie der Schwerkraft. Newton lieferte uns sein beschreibendes „Gesetz der Gravitation“. Das Newtonsche Gesetz sagt uns, was die Schwerkraft bewirkt, und es ist nützlich, aber es sagt uns nichts darüber, wie sie funktioniert. Dafür brauchen wir Einsteins Relativitätstheorie.

In der wissenschaftlichen Gemeinschaft werden sowohl ein Gesetz als auch eine Theorie durch ein einziges widersprüchliches Experiment oder eine einzige Beobachtung widerlegt. Entweder Einstein oder Popper sollen es einmal so ausgedrückt haben:

„Keine noch so große Menge an Experimenten kann je beweisen, dass ich Recht habe; aber ein einziges Experiment reicht aus, um zu beweisen, dass ich Unrecht habe“. (Autor unbekannt)

Beide sagten ähnliche Dinge, beide glaubten, dass keine wissenschaftliche Theorie jemals bewiesen, sondern nur widerlegt werden kann. Lassen Sie uns also unsere Themen in diesem Licht betrachten. Gibt es Ausnahmen von Newtons beschreibendem Gravitationsgesetz, das auf Masse und Entfernung basiert? Nur in Größenordnungen wie der des Sonnensystems, in der Nähe von Schwarzen Löchern und im atomaren Bereich. Im täglichen Leben auf der Erde funktioniert das Newtonsche Gesetz gut. Wie steht es mit Einsteins Gravitationstheorie (Relativitätstheorie), gibt es Ausnahmen? Keine, die wir in irgendeiner Größenordnung kennen.

Wie steht es mit der Evolution? Arten entwickeln sich, das können wir in den geologischen Aufzeichnungen sehen (Jepson, Mayr, & Simpson, 1949). Wir können dies auch bei einigen sich schnell reproduzierenden Arten beobachten (Wilcox, 2011; Soltis & Soltis, 1989). So könnten wir die Evolution als eine Tatsache beschreiben. Sie erfolgt, aber wir können ohne weitere Arbeit nicht beschreiben wie. Zu den frühen Theorien des Evolutionsprozesses gehören Charles Darwins Theorie der natürlichen Auslese (Darwin, 1859) und Jean-Baptiste Lamarcks Theorie der vererbbaren Anpassung von Arten aufgrund von äußeren Umweltbelastungen. Lamarck hat den Gedanken der vererbbaren Anpassung nicht erfunden; sie wurde allgemein schon lange vor seiner Geburt angenommen. Aber er hat sie in seine Ideen zur Evolution neuer Arten aufgenommen.

Die aktuelle epigenetische Forschung (Nature, 2020) zeigt, dass Darwin und Lamarck beide Recht hatten und dass die Evolution beide Prozesse einschließt. Eine Zusammenfassung der jüngsten Forschung über die epigenetische Komponente der Evolution findet sich in diesem Artikel aus dem Oxford Journal (Mendizabal, Keller, Zeng, & Yi, 2014). Die natürliche Auslese spielt eine wichtige Rolle beim Aussterben, da Arten, die sich nicht an eine neue Umgebung anpassen können, aussterben. Die vererbbare Anpassung des Lamarck’schen Typs spielt eine entscheidende Rolle bei der Entwicklung neuer, robusterer Sorten und Arten.

Lamarck stellte seine neue Theorie, dass sich die verschiedenen Arten auf der Erde allmählich von den einfachsten zu den komplexesten entwickelten, erstmals in zwei Vorträgen am 17. Mai 1802 im Pariser Museum für Naturgeschichte vor. Die erste Vorlesung richtete sich an seine Studenten, die zweite an seine Professorenkollegen. Die zweite Vorlesung wurde von einem Bericht begleitet (Lamarck, 1802). Wie der Historiker an der University of Illinois Richard Burkhardt beschreibt, waren Lamarcks Ideen bahnbrechend und revolutionierten die Biologie, aber dies wurde damals nicht anerkannt (Burkhardt, 2013).

Die moderne DNA-Forschung beschreibt, wie Anpassungen vererbt werden können. John Smythies von der Universität von Kalifornien und seine Kollegen erklären, dass Umweltstress normalerweise die DNA eines Lebewesens unverändert lässt, aber Spermien tragen nicht nur DNA zur Eizelle, sondern auch eine Vielzahl von RNA-Molekülen, die die Expression und das Timing der verschiedenen Teile der DNA regulieren. Stress wirkt sich auf diese RNA-Moleküle aus, und sie beeinflussen die Entwicklung und die Eigenschaften der Nachkommenschaft (Smythies, Edelstein, & Ramachandran, 2014).

Mit dem Fortschritt der Wissenschaft ändern sich etablierte Fakten und wissenschaftliche Gesetze selten, aber Theorien entwickeln sich weiter. Fakten und Gesetze werden leicht abgetan, wenn widersprüchliche Daten gesammelt werden, und manchmal werden sie, wenn wir mehr erfahren, wieder eingesetzt. Die moderne Evolutionstheorie ist ein gutes Beispiel dafür, wo konkurrierende Theorien zu einer einzigen verschmelzen und eine verworfene Theorie wieder aufgenommen werden kann.

Die meisten wissenschaftlichen Theorien beginnen als Hypothesen. Eine Hypothese lässt sich am besten als eine Vorstellung davon beschreiben, was die Ursache für das Eintreten eines bestimmten Ereignisses sein könnte. Wie oben diskutiert, müssen sowohl Hypothesen als auch Theorien falsifizierbar sein. Der „Klimawandel“ ist nicht falsifizierbar, er ist weder eine wissenschaftliche Hypothese noch eine Theorie. Popper würde „Klimawandel“ als Pseudowissenschaft bezeichnen, da jedes Wetterereignis als Unterstützung der Idee interpretiert werden kann und oft auch so interpretiert wird, ähnlich wie der Marxist mit seiner Zeitung.

Der vom Menschen verursachte oder anthropogene Klimawandel ist eine richtige wissenschaftliche Hypothese, da er falsifizierbar ist. Wissenschaft ist meistens Skepsis. Wir suchen nach dem, was nicht passt, wir stöbern in etablierten Fakten und Gesetzen, in Theorien und Hypothesen. Wir versuchen, Fehler zu finden; wir überprüfen die Zahlen. Schlimmer noch: Wenn Wissenschaft richtig gemacht wird, bedeutet das, dass wir mehr Zeit damit verbringen, zu beweisen, dass wir uns selbst und andere im Unrecht sind, als zu beweisen, dass wir Recht haben. Das Leben ist manchmal hart, und Wissenschaftler gewinnen nur selten Popularitätswettbewerbe.

Tabelle 1 unten enthält Phrasen. Jede wird als Fakt, Theorie, Gesetz, Hypothese oder einfach als Idee identifiziert. Wir sehen, dass der anthropogene Klimawandel und die Möglichkeit einer anthropogenen Klimakatastrophe nicht mit den Relativitäts- und Evolutionstheorien vergleichbar sind. Der anthropogene Klimawandel ist mehr als eine Idee, er beruht auf einigen Beobachtungen und vernünftigen Modellen des Prozesses. Aber keines der Klimamodelle hat die globale Erwärmung erfolgreich und genau vorhergesagt. Die Relativitäts- und Evolutionstheorien dagegen haben jeweils erfolgreiche Vorhersagen mit großer Genauigkeit und Präzision gemacht.

Wie Popper sagte, müssen die Befürworter des anthropogenen Klimawandels riskante Vorhersagen machen, die eintreten, um zu behaupten, dass ihre Hypothese eine gültige Theorie ist. Der anthropogene Klimawandel ist nach wie vor eine noch nicht abgeschlossene Arbeit und keine wissenschaftliche Theorie. Er ist mit Sicherheit keine Tatsache.

Nur validierte und reproduzierbare Modelle und Experimente können ausnahmslos zur Unterstützung einer wissenschaftlichen Theorie verwendet werden. Die Meinungen von Wissenschaftlern und Politikern sind nicht relevant. Damit soll nicht gesagt werden, dass der anthropogene Klimawandel oder die Möglichkeit einer anthropogenen Klimakatastrophe widerlegt sind, es soll nur gesagt werden, dass es keine gültigen Beweise gibt, um diese Hypothesen zu stützen.

Die Vorstellung, dass der vom Menschen verursachte Klimawandel eine Katastrophe in der Größenordnung des islamischen Terrorismus oder von Massenvernichtungswaffen auslösen könnte, wie John Kerry 2014 behauptete (Almasy, 2014), ist reine Spekulation. Die Modelle, die zur Berechnung des menschlichen Einflusses auf die globale durchschnittliche Oberflächentemperatur verwendet werden, stimmen nicht mit den Beobachtungen überein. Dies ist leicht in Abbildung 1 zu erkennen, die John Kerrys Diagramm der IPCC-Klimamodellvorhersagen im Vergleich zu Beobachtungen von Satelliten und Wetterballons darstellt (Christy, 2016). Satelliten- und Wetterballonmessungen sind unabhängig voneinander und sie sind unabhängig von den verschiedenen Oberflächentemperatur-Datensätzen, wie HadCRUT4 in Abbildung 2 zeigt. Alle Kurven auf dem Diagramm wurden mit gleitenden Fünfjahresdurchschnitten geglättet. Die Fünfjahresdurchschnitte sollen kurzfristige Wetterereignisse, wie El Niños und La Niñas (NOAA, 2020), herausfiltern. Klima wird normalerweise definiert als Veränderungen über 30 Jahre oder länger.

Abbildung 1: Ein Vergleich von IPCC-CMIP5-Klimamodell-Prognosen mit drei Datensätzen von Satellitenbeobachtungen und 4 Datensätzen von Ballon-Messungen. Die Graphik präsentierte John Christy im Jahre 2016 dem Committee on Science, Space and Technology des Weißen Hauses (Christy 2016)

Die Linie, die durch die Beobachtungen verläuft, ist das russische Modell „INM-CM4“ (Volodin, Dianskii, & Gusev, 2010). Es ist das einzige Modell, das den Beobachtungen nahe kommt. INM-CM4 schneidet über längere Zeiträume sehr gut bei hintereinander beobachteten Temperaturen ab. Ron Clutz ist ein Blogger und kanadischer Unternehmensberater mit einem Abschluss in Chemie aus Stanford. Clutz hat INM-CM4 untersucht und geschrieben, dass es eine CO2-Zwangsreaktion (ECS) verwendet, die 37% niedriger ist als bei den anderen Modellen, etwa 2°C pro CO2-Verdoppelung. Er verwendet auch eine viel höhere Wärmekapazität der tiefen Ozeane (Trägheit des Klimasystems), und er entspricht genau dem niedrigeren Wassergehalt der Troposphäre und ist darüber hinaus niedrig verzerrt. Die anderen Modelle sind hoch verzerrt (Clutz, 2015). Das russische Modell sagt zukünftige Temperaturanstiege mit einer Rate von etwa 1°C/Jahrhundert voraus, was keineswegs alarmierend ist und viel niedriger als die Vorhersagen der anderen Modelle. Der Durchschnitt der anderen Modelle sagt eine Erwärmung von 2,15°C/Jahrhundert voraus. Der beobachtete lineare Erwärmungstrend für den Globus liegt laut dem Satellitenrekord der UAH (University of Alabama in Huntsville) seit 1979 zum Zeitpunkt der Erstellung dieses Artikels (4. April 2020) bei 1,3°C pro Jahrhundert (Spencer, 2020). Abbildung 2 zeigt, dass die Erwärmung nach Angaben des Met Hadley Center/Climatic Research Unit im letzten Jahrhundert etwa 0,8⁰C betrug.

Abbildung 2. Die Rekonstruktion der globalen Durchschnittstemperatur des Met Office Hadley Center und der Climatic Research Unit an der University of East Anglia seit 1850. Sie wird in Erwärmungs- und Abkühlungsperioden unterteilt. Insgesamt zeigt sie eine Erwärmung von ~0,8°C im 20. Jahrhundert.

Man kann jedes in Abbildung 1 dargestellte Klimamodell als ein digitales Experiment betrachten. Der Bereich der vorhergesagten Erwärmung aus diesen digitalen Experimenten beträgt von 1979 bis 2025 über ein Grad. Dies übertrifft die von CMIP5 (Coupled Model Intercomparison Project 5) vorhergesagte durchschnittliche Erwärmung um ein Grad seit 1979. Vergleichen Sie die CMIP5-Vorhersage mit dem tatsächlichen Erwärmungstrend von 0,5°C, der von UAH gemessen und von Roy Spencer berichtet wurde (Spencer, 2020). Die Bandbreite der Modellergebnisse und der Vergleich mit den tatsächlichen Messungen gibt uns kein Vertrauen in die Genauigkeit der Modelle. Dennoch verwendet der IPCC die Differenz zwischen den mittleren Modell-Temperaturvorhersagen mit und ohne berechneten menschlichen Einfluss seit 1950, um den menschlichen Einfluss auf das Klima zu bestimmen (Bindoff & Stott, 2013, S. 879). In Abbildung 3, nach Bindoff und Stott, ihrer Abbildung 10.1, Seite 879, ist das CMIP3 (AR4)-Modell als schwache hellblaue Linien, das CMIP5 (AR5)-Modell als schwache gelbe Linien, die Mittelwerte des Modells als stärkere blaue (CMIP3-AR4) und rote (CMIP5-AR5) Linien dargestellt. Überlagert wird die Darstellung durch Oberflächentemperaturmessungen als dicke schwarze Linie.

In Abbildung 3, Schaubild (a), verwenden die Modelle ein Szenario, das nach Ansicht des IPCC sowohl die natürlichen als auch die menschlichen Klimaeinflüsse widerspiegelt. In Schaubild (b) verwenden sie ein Modellszenario, von dem sie glauben, dass es nur natürliche (d.h. nicht-menschliche) Klimaeinflüsse repräsentiert.

Abbildung 3. IPCC AR5 Abbildung 10.1, Seite 879. Die Grafiken veranschaulichen, wie das IPCC den menschlichen Einfluss auf das Klima berechnet. Die rote und die blaue Linie sind Modellergebnisse ohne menschlichen Antrieb (b) und mit menschlichem Antrieb (a). Die schwarzen Linien kennzeichnen beobachtete Temperaturen.

Die Diagramme sind recht klein und decken über 150 Jahre ab, aber dennoch sind Abweichungen der beobachteten Temperaturen vom Mittelwert des Modells von 1910 bis 1940 und von 2000 bis 2010 deutlich erkennbar. Außerdem ist die Bandbreite der Modellergebnisse ärgerlich groß. Das Diagramm in Abbildung 3(b) zeigt einen flachen natürlichen Klimatrend, und der gesamte beobachtete Temperaturanstieg von 1950 bis heute wird dem menschlichen Einfluss zugeschrieben. Dieses Ergebnis hat viel Kritik von Willie Soon, Ronan Connolly und Michael Connolly (Soon, Connolly, & Connolly, 2015), sowie Judith Curry, Marcia Wyatt (Wyatt & Curry, 2014) und anderen hervorgerufen. Soon, Connolly und Connolly (SCC15) sind der Meinung, dass der IPCC ein ungeeignetes Modell der Variation der Sonnenleistung (TSI oder Gesamtsonneneinstrahlung) gewählt hat.

In der begutachteten Literatur gibt es viele Modelle der Sonnenvariation, und die Frage, welches davon richtig ist, wird heftig diskutiert. Acht neuere Modelle sind in Abbildung 8 von SCC15 dargestellt (siehe unsere Abbildung 4). Nur Modelle mit geringer Sonnenvariabilität (rechts in Abbildung 4) werden vom IPCC verwendet, um den Einfluss des Menschen auf das Klima zu berechnen, obwohl für die Modelle mit höherer Variabilität auf der linken Seite ebenso viele Beweise vorliegen. Die in den Diagrammen verwendeten Skalen sind alle gleich, aber die oberen und unteren Werte variieren. Der IPCC hätte mindestens zwei Fälle durchlaufen müssen, einen für hohe Variabilität und einen für geringe Variabilität. SCC15 zeigt deutlich, dass das verwendete Modell bei der Berechnung des menschlichen Einflusses auf das Klima einen großen Unterschied macht.

Abbildung 4. Verschiedene begutachtete Modelle der Sonnenvariabilität der letzten 200 Jahre. Das IPCC verwendet Sonnenmodelle mit geringer Variabilität wie die rechts abgebildeten, um die natürliche Variabilität zu berechnen, damit sie den menschlichen Einfluss ableiten können, wie in Abbildung 3 dargestellt. Quelle: (Bald, Connolly, & Connolly, 2015).

Marcia Wyatt und Judith Curry (Wyatt & Curry, 2014) oder WC14 glauben, dass die natürliche Temperaturschwankung aufgrund langfristiger natürlicher Zyklen in Abbildung 3(b) nicht korrekt dargestellt ist. Ihre „Zustands-Welle“ (Wyatt, 2014) deutet darauf hin, dass in den 1980er und 1990er Jahren eine beträchtliche natürliche Erwärmung stattgefunden hat. Würde man die in WC14 beschriebenen langfristigen (etwa 30-jährigen Halbzyklus) Schwingungen in Abbildung 3(b) einbeziehen, wäre das Ausmaß der dem Menschen zugeschriebenen Erwärmung viel geringer. Marcia Wyatt hält eine Schwankung der gesamt-solaren Einstrahlung für eine mögliche Ursache.

Jedes Computer-Klimamodell muss eine Erfolgsbilanz erstellen, bevor sein Ergebnis in Berechnungen verwendet wird. Der Planet Erde ist einfach zu komplex, und die natürlichen Klimaschwankungen werden nur unzureichend verstanden. Wenn sich Eigenschwingungen nicht vorhersagen lassen, können sie nicht von Beobachtungen abgezogen werden, um den menschlichen Einfluss auf das Klima zu berechnen. Die Debatte dreht sich nicht darum, ob der Mensch das Klima beeinflusst, die Debatte geht darum, wie viel wir beitragen und ob die zusätzliche Erwärmung gefährlich ist. Die Jury ist noch immer nicht einig. Sicherlich wurde nicht für eine drohende Katastrophe plädiert, da dies zwei spekulative Sprünge erfordert. Erstens müssen wir davon ausgehen, dass der Mensch den Klimawandel vorantreibt, zweitens müssen wir davon ausgehen, dass dies zu einer Katastrophe führen wird. Man kann eine mögliche Katastrophe vorhersagen, wenn die extremsten Modellvorhersagen richtig sind, aber Beobachtungen zeigen, dass sie es nicht sind. Nur INM-CM4 stimmt mit den Beobachtungen einigermaßen gut überein, und INM-CM4 sagt nichts voraus, was auch nur annähernd einer Katastrophe gleichkommt.

Bei der Untersuchung des Evolutionsprozesses ist das Problem dasselbe. Einige glauben, dass der vorherrschende Prozess die natürliche Auslese und die epigenetische Veränderung gering ist. Andere glauben das Gegenteil. Jeder glaubt, dass beides eine Rolle spielt. Wie in der Klimawissenschaft ist es schwierig, herauszufinden, welcher Prozess vorherrschend ist.

Die jüngste Klimageschichte (der „Stillstand“ in der Erwärmung und die jüngste langsame Erwärmung) legt nahe, dass wir viel Zeit haben, dieses Problem in den Griff zu bekommen, bevor wir etwas Drastisches tun wie die Zerstörung der fossilen Brennstoffindustrie und die Verarmung von Milliarden von Menschen aufgrund des Mangels an erschwinglicher Energie. Wir schulden den billigen fossilen Brennstoffen heute viel. Darauf haben Roger Revelle [in deutscher Übersetzung beim EIKE hier] und seine Kollegen bereits im Jahre 1988 hingewiesen, und das gilt auch heute noch. Wenn die Projektionen in WC14 richtig sind, kann die „Pause“ noch eine ganze Weile andauern und uns viel mehr Zeit geben.

Zusammenfassend lässt sich sagen, dass die Wissenschaft ein Prozess der Widerlegung von Hypothesen ist, die vorgeben zu zeigen, wie und warum Naturereignisse stattfinden. Wissenschaft kann nicht dazu benutzt werden, etwas zu beweisen. Wissenschaftliche Gedanken und Hypothesen können vorgestellt werden, aber sie müssen falsifizierbar sein. Wenn niemand eine Hypothese widerlegen kann, überlebt sie. Wenn sie über einen längeren Zeitraum lebensfähig bleibt, wird sie zu einer Theorie.

Somit haben Klimawissenschaftler nicht bewiesen, dass der Mensch das Klima mit atmosphärischen Emissionen kontrolliert, und sie könnten es auch niemals tun. Sie haben auch nicht widerlegt, dass die Natur das Klima kontrolliert. Dies ist ihre Aufgabe, etwas, das sie tun müssen, wenn sie erwarten, dass sie jemals zeigen können, dass der Mensch das Klima kontrolliert. Es gibt reichlich Beweise dafür, dass die Natur und die Sonnenvariation eine große Rolle beim Klimawandel spielen. Es gibt auch ziemlich viele Beweise dafür, dass Treibhausgase eine kleine Rolle bei der Beeinflussung der globalen Erwärmung spielen, wie Lindzen und Choi (Lindzen & Choi, 2011), Lewis und Curry (Lewis & Curry, 2018) und (Lewis & Curry, 2015) zeigen. Der von Lewis und Curry berechnete Medianwert und die beste Schätzung liegt bei 1,5°C pro CO2-Verdoppelung (Lewis & Curry, 2018). Dies ist etwas weniger als die Sensitivität (~2°C), die aus dem russischen INM-CM4-Klimamodell berechnet wurde (Clutz, 2015). Ihr Wert ist viel geringer als die Sensitivität, die aus dem Durchschnitt der anderen Klimamodelle berechnet wurde (~3,1°C). Lindzen und Choi berechnen einen noch kleineren Wert, etwa 0,44°C pro CO2-Verdoppelung (ECS).*

[*Zu einer ordentlichen wissenschaftlichen Diskussion hätten hier auch die Arbeiten von Dr. Gerhard Stehlik erwähnt werden müssen, die dem Autor offenbar unbekannt waren. Auch die o. g. genannten Berechnungen der Klima-Realisten sind also nicht die eindeutige Wahrheit. Anm. d. Übers.]

Man kann nicht sagen, dass diese Papiere und andere Arbeiten von Klimaskeptikern die Hypothese widerlegen, dass der Mensch mehr Kontrolle über das Erdklima hat als die Natur und die Sonne, aber sie werfen erhebliche Zweifel an der Hypothese auf. Es gibt keine Daten, die die Hypothese einer drohenden Klimakatastrophe irgendeiner Art unterstützen. Es gibt Möglichkeiten, ein Klimamodell zu erstellen, das eine problematische Erwärmung in der fernen Zukunft zeigt, aber ein Modell kann so konstruiert werden, dass es alles heraus bekommt, was man will.

Wir haben versucht zu zeigen, wie Wissenschaft funktioniert, und zwar aus der Sicht eines Wissenschaftlers. Dann haben wir diese Methodik verwendet, um den Stand der Klimawissenschaft im Jahr 2020 aufzuzeigen. Klimawissenschaftler debattieren heftig über die Ursachen des Klimawandels heute und in Zukunft. Alarmisten haben Modelle verwendet, um eine drohende Klimakatastrophe zu prophezeien. Die Skeptiker haben anhand von Beobachtungen einen viel geringeren Einfluss von CO2 auf das Klima empirisch berechnet. Traditionell und praktisch herrschen Beobachtungen. Es scheint unwahrscheinlich, dass die Verbrennung fossiler Brennstoffe gefährlich ist.

Nichts ist klar, nichts ist bewiesen und nichts ist widerlegt. Dies ist ein stetig sich weiter entwickelnder Prozess.

Link: https://wattsupwiththat.com/2020/11/10/facts-and-theories-updated/

Übersetzt von Chris Frey EIKE

 




Welche Auswirkungen würde ein Leben ohne fossile Treibstoffe auf die Gesellschaft haben?

Der größte Teil der Weltbevölkerung lebt bereits ohne die Produkte und Treibstoffe aus Erdöl, während die gesünderen und wohlhabenderen Länder ihre Anstrengungen auf die Reduzierung ihrer Emissionen aus der Nutzung fossiler Brennstoffe wie Erdgas und Kohle konzentrieren und mittels umfangreicher Subventionen die intermittierende Stromerzeugung aus Wind- und Sonnenenergie in ihren Ländern beschleunigen. Bevor sie zu schnell in die sprichwörtliche Schlangengrube der „grünen“ religiösen Bewegung springen, sollten sich die Grünen Zeit nehmen, um zu antworten: Wie können wir unseren Lebensstil und unsere Wirtschaft aufrechterhalten, ohne wieder zu dem zurückzukehren, wie die Welt vor dem Jahr 1900 aussah?

Es ist fast unmöglich zu verstehen, dass fast die Hälfte der Welt – über drei Milliarden Menschen – von weniger als 2,50 Dollar pro Tag lebt. Heute gibt es in ganz Südasien, Teilen Europas sowie Teilen Afrikas und Australiens Familien, die sich abmühen, von praktisch nichts zu leben.

Ein komplexer Kompromiss im Zusammenhang mit politischen Entscheidungen, zu schnell in den GND einzusteigen, besteht darin, dass der Verzicht auf fossile Brennstoffe den 6 Milliarden Menschen auf dieser Welt, die von weniger als 10 Dollar pro Tag leben, den Zugang zu den 6.000 Produkten weiter erschwert und/oder verzögert, die wir in den wohlhabenden und gesunden Ländern genießen und die alle aus Ölderivaten hergestellt werden, von denen die meisten vor 1900 in den entwickelten Ländern noch nicht einmal existierten.

Zur Anschauung gibt es ein Diagramm von Leben ohne Öl und ein kurzes YouTube-Video von Leben ohne Öl, d.h. es ist nicht so einfach, wie man vielleicht denkt. Es ist vielleicht an der Zeit, an die unbestreitbare Wissenschaft zu glauben. Erneuerbare Energien können nur Strom erzeugen, und auch das allenfalls nur intermittierend. Absolutes Faktum ist, dass erneuerbare Energien KEINE der Ölderivate herstellen können, welche die Grundlage für Tausende von Produkten sind, auf deren Basis heute Gesellschaften und Volkswirtschaften auf der ganzen Welt leben.

Wenn man fossile Brennstoffe zu schnell eliminiert, führt das dazu, dass jedes Jahr 11 Millionen Kinder auf der Welt an vermeidbaren Ursachen wie Durchfall, Malaria, Neugeborenen-Infektionen, Lungenentzündung, Frühgeburt oder Sauerstoffmangel bei der Geburt sterben. Diesen Kindern in armen Ländern mangelt es noch immer an sauberem Trinkwasser, Abwasserentsorgung, angemessener Ernährung, zuverlässiger Elektrizität (wenn überhaupt), angemessener Gesundheitsversorgung und den Infrastrukturen und Produkten, die wir als selbstverständlich erachten und die alle auf Mineralien und Brennstoffen aus den Tiefen der Erde basieren. Übrigens leben die Erwachsenen in diesen armen Ländern kaum länger als 40 Jahre.

Man sollte sich darauf konzentrieren, all jene Produkte, für die wir seit fast 200 Jahren noch keine Klone oder Generika entdeckt haben, mit den unterentwickelten Ländern zu teilen, damit sie einen ähnlichen Lebensstil wie die wohlhabenden und gesunden Länder genießen können. Die wohlhabenderen entwickelten Länder haben auch Zugang zu Heizung, Klimaanlagen und Isolierung, wodurch wetterbedingte Todesfälle praktisch ausgeschlossen werden konnten.

Die gegenwärtige Leidenschaft, sich eine Welt mit intermittierender Elektrizität zu erschaffen, ist sich der unbeabsichtigten Folgen einer Welt ohne fossile Brennstoffe nicht bewusst. Die Unterzeichner der grünen Bewegung haben es versäumt, sich vorzustellen, wie das Leben ohne jene Industrie sein könnte, also vor dem Jahr 1900: KEINE Medikamente und medizinische Geräte, KEINE Impfstoffe, KEINE Wasserfiltersysteme, KEINE Abwassersysteme, KEINE Düngemittel, die Milliarden von Menschen ernähren könnten, KEINE Pestizide zur Bekämpfung von Heuschrecken und anderen Schädlingen, KEINE Kommunikationssysteme, einschließlich Handys, Computer und I-Pads, KEINE Fahrzeuge, KEINE Fluggesellschaften, die jetzt 4 Milliarden Menschen um die Welt befördern, KEINE Handelsschiffe, die jetzt monatlich Produkte im Wert von Milliarden Dollar um die Welt transportieren, KEINE Reifen für Fahrzeuge und KEIN Asphalt für Straßen und KEIN Weltraumprogramm. Wenn wir nur auf ein paar kurze Jahrhunderte zurückblicken, haben wir seit den Pioniertagen einen langen Weg zurückgelegt. Der Klimawandel mag ein wichtiges Thema sein, aber die wirtschaftliche Überlebensfähigkeit ist es auch.

Falls nicht mehr erinnerlich, wir hatten vor 1900 auch praktisch keine militärischen Flugzeugträger, Zerstörer, U-Boote, Flugzeuge und Panzer auf der ganzen Welt. Ein Hauptgrund dafür, dass sowohl der Erste als auch der Zweite Weltkrieg von den Alliierten gewonnen wurden war, dass sie über mehr Öl, Petroleum und Kohle verfügten als die Achsenmächte Deutschland, Italien und Japan, um ihre militärische Ausrüstung an Flugzeugträgern, Schlachtschiffen, Zerstörern, U-Booten, Flugzeugen, Panzern und Panzerungen, Lastwagen, Truppentransportern und Waffen zu betreiben.

Außerdem hatte die Welt vor 1900 nur sehr wenig Handel, und ohne Transport gibt es keinen Handel. Die beiden Zugpferde, die mehr für die Sache der Globalisierung getan haben als alle anderen sind der Dieselmotor und die Düsenturbine. Beide beziehen ihre Energie aus Öl. Straßen- und Flugverkehr dominieren heute das Leben der meisten Menschen.

Nach 1900 verfügen wir heute über Medikamente, Elektronik, Kosmetika, Kunststoffe, Düngemittel, Verkehrsinfrastrukturen und Tausende von Produkten, die aus den Derivaten des Rohöls gewonnen werden, darunter alle Teile* von Sonnenkollektoren und Windturbinen sowie die verschiedenen Brennstoffe, mit denen Flugzeuge, Lastwagen, Baumaschinen, Handelsschiffe, Kreuzfahrtschiffe und Autos weltweit betrieben werden.

[*Dieser Beitrag stammt zwar schon aus dem Jahr 2016, doch sollte man den darin beschriebenen Umstand lauthals immer wieder verkünden: Ohne fossile Treibstoffe gibt es keinerlei Solarpaneele und Windmühlen! Anm. d. Übers.]

Die Fragen, für deren Beantwortung sich Demonstranten gegen fossile Brennstoffe sowohl von der Demokratischen als auch von der Republikanischen Partei Zeit nehmen sollten, sind zweifacher Art: 1) Wie können wir zulassen, dass jedes Jahr 11 Millionen Kinder auf der Welt in den Entwicklungsländern an vermeidbaren Ursachen sterben? und 2) Wie werden wir uns an Lebensstile anpassen, wie sie vor dem Jahr 1900 gang und gäbe waren – also ohne Zugang zu den Tausenden von Produkten, die heute aus Erdölderivaten hergestellt werden, und zu den Brennstoffen, die von Fluggesellschaften, Handelsschiffen, Verkehrsinfrastrukturen und dem Militär benötigt werden und die es vor 1900 noch nicht gab?

[Hervorhebung vom Übersetzer]

Autor: Ronald Stein, P.E. is the co-author of the newly released book, “Just GREEN Electricity,” an internationally published columnist, and a policy advisor for The Heartland Institute.

Full Bio

Link: https://www.heartland.org/news-opinion/news/how-would-life-without-fossil-fuels-impact-society

Übersetzt von Chris Frey EIKE




Moderne Klimawandel-Wissenschaft

Sie liefern auch einen wahrscheinlichen Wert von 2,4°C auf Seite 9, obwohl sie auf Seite 2 einen Wert „nahe 3,0“ angeben. Der Wert auf Seite 9 ist nicht weit entfernt von der empirischen Schätzung von 2°C von Guy Callendar aus dem Jahr 1938, aber deutlich höher als der von Nic Lewis und Judith Curry (Lewis & Curry, 2018) angegebene Wert von 1,2°C bis 1,95°C (Bereich von 17% bis 83%, best estmate 1,5°C).

Das IPCC schätzt in seinem AR5-Bericht (Bindoff & Stott, 2013) die ECS auf einen Temperaturbereich zwischen 1,5°C und 4,5°C und liefert kein best estimate. Diese Spanne entspricht genau der des Charney-Berichts vor 34 Jahren. Während sich die empirischen, auf Beobachtungen basierenden Schätzungen deutlich verringert haben, hat sich die theoretische Bandbreite nicht verändert, obwohl Tausende von staatlich finanzierten Wissenschaftlern Milliarden von Dollar dafür ausgegeben haben. Die Daten sind heute sehr ähnlich, und es scheint keine Rolle zu spielen, dass sie mit leistungsfähigeren Computern und Milliarden von Dollar schneller ausgegeben werden. Mit Dung funktioniert es auf dieselbe Weise.

[Hervorhebung vom Übersetzer]

Wenn wir den AR5 genau unter die Lupe nehmen, wie es Monckton et al. in MSLB15 taten, einem Aufsatz mit dem Titel „Why Models run hot: results from a irreducially simple climate model“ (Monckton, Soon, Legates, & Briggs, 2015), sehen wir, dass die Elemente der theoretischen AR5-Berechnungen darauf hindeuten, dass sich der Bereich nach unten verengt. Angesichts des politischen Umfelds beim IPCC kann man leicht vermuten, dass die Politiker nicht zugeben wollen, dass die theoretischen Risiken des CO2-bedingten Klimawandels abnehmen. Je mehr empirische Schätzungen des CO2-Effekts erscheinen und je mehr theoretische Arbeit geleistet wird, desto mehr fragt man sich, wie lange die Politiker die deutlich überhöhte Spanne von 1,5°C bis 4,5°C noch unterstützen können.

Die Schätzungen der ECS sind seit langem rückläufig, wie Nicola Scafetta und Kollegen 2017 gezeigt haben. Abbildung 1 stammt aus ihrer Studie:

Abbildung 1: Der Rückgang der Schätzungen der ECS von 2000 bis 2015. Quelle: Scafetta, Mirandola und Bianchini, 2017.

In den 1980er Jahren wurde die Idee der katastrophalen, vom Menschen verursachten (oder anthropogenen) globalen Erwärmung (CAGW) entwickelt. Seitdem schlagen die Alarmisten Jahr für Jahr die Trommel. In den Vereinigten Staaten fand am 23. Juni 1988 im Dirksen-Senatsbürogebäude in Washington, DC eine Senatsausschusssitzung zum Thema CAGW statt, die von Senator Tim Wirth ausgerichtet wurde. Es war ein heißer und feuchter Tag im sumpfigen Washington, DC. Das Treffen war ein Wendepunkt, was nicht zuletzt Dr. James Hansen von der NASA zu verdanken war. In seiner Präsentation vor dem Kongressausschuss sagte er:

1988 ist es wärmer als jemals zuvor in der Geschichte der instrumentellen Messungen.

Alles in allem sind die Beweise dafür, dass sich die Erde um einen Betrag erwärmt, der zu groß ist, um eine zufällige Fluktuation zu sein, und die Ähnlichkeit der Erwärmung mit der durch den Treibhauseffekt zu erwartenden, ein sehr starker Fall. Meiner Meinung nach … ist der Treibhauseffekt entdeckt worden, und er verändert jetzt unser Klima.

Die gegenwärtig beobachtete globale Erwärmung liegt nahe 0,4 Grad C, relativ zur ‚Klimatologie‘, die als Mittelwert der dreißig Jahre (1951 – 1980) definiert ist. … können wir mit etwa 99-prozentiger Sicherheit feststellen, dass die gegenwärtigen Temperaturen eher einen echten Erwärmungstrend als eine zufällige Schwankung über den Zeitraum von 30 Jahren darstellen“. (Hansen, 1988)

ExxonMobil glaubte, dass die natürliche Variabilität ±0,5°C betrug. Man war der Meinung, dass eine Veränderung größer als diese sein musste, um signifikant zu sein. Offensichtlich schränkte Hansen diesen natürlichen Bereich irgendwie ein. Die Welt kühlte sich von 1944 bis 1977 global ab und begann sich dann 1978 zu erwärmen. Ein Anstieg von 0,4°C ist nicht viel, so dass die Verwendung dieses Wertes, um festzustellen, dass der „Treibhauseffekt“ nach einer langen Abkühlungsperiode festgestellt wurde, hätte Stirnrunzeln und Fragen hervorrufen müssen. Man beachte, dass Hansen „Treibhauseffekt“ sagt, wenn er den „vom Menschen verursachten Treibhauseffekt“ oder „verstärkter Treibhauseffekt“ meint. Es gibt einen natürlichen Treibhauseffekt, der durch natürliches CO2 und andere Treibhausgase, insbesondere Wasserdampf, verursacht wird. Dies ist der Beginn einer Täuschungstaktik, die von den Alarmisten häufig angewendet wird. Um die natürlichen Ursachen des Klimawandels zu ignorieren, setzen sie den „Treibhauseffekt“ mit dem „vom Menschen verursachten Treibhauseffekt“ gleich. Außerdem verwenden sie „globale Erwärmung“ als Synonym für „vom Menschen verursachte globale Erwärmung“, und „Klimawandel“ ist gleichbedeutend mit „vom Menschen verursachter Klimaänderung“. Diese Art von trügerischer und manipulativer Sprache wird auch heute noch verwendet.

Die IPCC-Berichte

Der erste IPCC-Bericht (FAR) unter dem Vorsitz von Bert Bolin stellte fest, dass die globale Erwärmung bis 1992, als der Bericht veröffentlicht wurde, in den Bereich der „natürlichen Klimavariabilität“ fiel und nicht unbedingt auf menschliche Aktivitäten zurückzuführen war (IPCC, 1990, S. XII). Sie hielten den eindeutigen Nachweis eines menschlichen Einflusses „für ein Jahrzehnt oder länger für unwahrscheinlich“. Bert Bolin war der Meinung, dass James Hansens Aussage im Kongress 1988 die Bedeutung der jüngsten globalen Erwärmung übertrieben habe.

Der zweite, 1996 veröffentlichte Bericht SAR kam zu dem Ergebnis, dass „die Abwägung der Beweise auf einen erkennbaren menschlichen Einfluss auf das globale Klima hindeutet“. (IPCC, 1996, S. 4). Dies basierte jedoch auf unveröffentlichten und nicht überprüften Arbeiten von Benjamin Santer und Kollegen. Seine Studie legte nahe, dass die Vorhersagen der Klimamodelle über die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre dem entsprachen, was sich abspielte. Er nannte dies einen „Fingerabdruck“ des menschlichen Einflusses auf das Klima (Santer, et al., 1996a). Nach der Veröffentlichung der Studie stellte sich heraus, dass Santer bzgl. dieses Fingerabdrucks „Rosinenpickerei“ betrieben hatte (Michaels & Knappenberger, 1996). Die Studie wurde zurückgewiesen, und der IPCC wurde gedemütigt. Diese Demütigung wurde noch dadurch verstärkt, dass die für den IPCC verantwortlichen Politiker dabei erwischt wurden, wie sie die wissenschaftlichen Berichte innerhalb der SAR veränderten, um sie ihrer Summary for Policymakers anzupassen (Seitz, 1996).

Der 2001 veröffentlichte dritte Bericht TAR stellte fest, dass „der Großteil der in den letzten 50 Jahren beobachteten Erwärmung wahrscheinlich auf den Anstieg der Treibhausgaskonzentrationen zurückzuführen ist“. (IPCC, 2001, S. 10). Sie stützten diese Entscheidung auf den „Hockeyschläger“, der sich später als fehlerhaft erwies. Bis zur Veröffentlichung des vierten Berichts (AR4) im Jahr 2007 zeigten zahlreiche Untersuchungen des Hockeyschlägers, dass er fehlerhaft war und zu wenig Variabilität aufwies. Dies wurde im vierten Bericht, AR4, von Keith Briffa eingeräumt, der, etwas beschönigend, schrieb, dass der Hockeyschläger zu empfindlich auf bestimmte Proxies (Baumringe) und die statistischen Verfahren (Hauptkomponenten) reagierte, welche zu seiner Konstruktion verwendet worden waren (IPCC, 2007b, S. 436). Willie Soon und Sallie Baliunas zeigten, dass der Hockeyschläger nicht die Daten widerspiegelte, die zu seiner Konstruktion verwendet wurden (Soon & Baliunas, 2003). Der Hockeyschläger entpuppte sich als eine ausgeklügelte Fiktion, die einzig und allein aus einem fehlerhaften statistischen Verfahren und einem schlecht ausgewählten Satz von Temperaturproxies entstand (National Research Council, 2006, S. 112-116) und (Wegman, Scott, & Said, 2010, S. 4-5, 48-50).

Als AR4 im Jahr 2007 veröffentlicht wurde, hatte die Führung des IPCC aufgegeben, direkte Beweise dafür zu finden, dass der Mensch den Klimawandel beherrscht. Sie hatten es mit dem „Fingerabdruck“ von Santer und dem „Hockeyschläger“ von Michael Mann versucht und konnten die Öffentlichkeit mit beidem nicht überzeugen. So versuchten sie im AR4, die Öffentlichkeit mit Klimamodellen zu überzeugen, dass „der größte Teil des beobachteten Anstiegs der globalen Durchschnittstemperaturen seit Mitte des 20. (IPCC, 2007b, S. 10) sehr wahrscheinlich der beobachteten Zunahme von Treibhausgasen in der Atmosphäre geschuldet ist“. Sie präsentieren keine Beobachtungen, sondern lediglich Modellergebnisse. Der fünfte Bericht, AR5, war lediglich eine Wiederholung von AR4. Dieselben zwei Modelle, dasselbe Ergebnis. Wie bereits erwähnt, zeigte MSLB15 (Monckton, Soon, Legates, & Briggs, 2015), dass die neueren Ergebnisse des AR5-Modells darauf hindeuteten, dass die Schlagzeilen des IPCC die Empfindlichkeit des Klimas gegenüber CO2 überbewerten, aber dieses Ergebnis wurde im Bericht weder erklärt noch eingeräumt.

Während also die empirischen Berechnungen der Klimasensitivität gegenüber CO2 nun eine ECS zwischen 1,1°C und 2,45°C zeigen (siehe Tabelle 1), blieben die theoretischen Schätzungen bei 1,5 bis 4,5 – mit Ausnahme von AR4, als diese auf 2,0 bis 4,5 geändert wurde. Die Bereiche in Tabelle 1 sind allesamt 5% bis 95% Bereiche, soweit ich das beurteilen kann.

Tabelle 1. Verschiedene Schätzungen der ECS. Alle sind theoretische Berechnungen mit Ausnahme von Lewis und Curry, deren Schätzung auf Beobachtungen beruht:

Tausende von Wissenschaftlern und Milliarden von Dollar später haben wir also immer noch die gleiche theoretische Unsicherheit über die Auswirkungen von CO2 auf das Klima. Die einzige empirische Schätzung der ECS, die gezeigt wird, liegt bei etwa 1,5°C. Die meisten dieser empirischen Schätzungen liegen unter 2°C und gruppieren sich um 1,5°C bis 1,6°C (Lewis & Curry, 2018). Die empirische Schätzung von Guy Callendar lag bei 2°C (Callendar, 1938) und die theoretische Schätzung von Arrhenius (Arrhenius, 1908) bei 4°C. Man kann also sagen, dass die gesamte Arbeit und das Geld, das seit 1938 aufgewendet wurde, um den Klimawandel dem Menschen zuzuschreiben, verschwendet wurde.

[Hervorhebung vom Übersetzer]

Wird es nun besser? Wie steht es mit der neuesten Generation theoretischer Modelle, CMIP6? Erste Anzeichen deuten darauf hin, dass die Ergebnisse nicht besser, sondern schlechter werden, wie Ron Clutz und John Christy berichten. Während die meisten der neuen Modelle absurd überhöhte Werte für die ECS zeigen, ist es interessant, dass die neueste Version des russischen Modells, INM-CM4, auf das ich in meinem vorherigen Beitrag Bezug genommen habe, jetzt eine ECS von 1,83 vorhersagt. Mit Ausnahme des INM-CM4 haben wir also seit 1938 keine Fortschritte gesehen. Wie meine verstorbene Großmutter Marie McCartney sagen würde, „ist das jetzt nicht einfach großartig?“.

This is a condensed excerpt, with minor modifications, from my new book, Politics and Climate Change: A History.

To download the bibliography, click here.

Link: https://wattsupwiththat.com/2020/11/12/modern-climate-change-science/

Übersetzt von Chris Frey EIKE