Luft- und Meeres-Temperaturen vom 19. Jhd. bis 1980 dramatisch fehlerhafter, als bisher bekannt: Eine längst überfällige Fachpublikation

von Prof. Dr. Horst-Joachim Lüdecke

Im Klimafachjournal „Sensors“ des Wissenschaftsverlags MDPI (hier) erschien brandaktuell am 27. Juni 2023 die bemerkenswerte Facharbeit „LIG Meteorology, Correlated Error, and the Integrity of the Global Surface Air-Temperature Record“ des Autors Dr. Patrik Frank von der Stanford University (hier).

P. Frank ist kein unbeschriebenes Blatt, sondern welweit anerkannter Experte. Er hat 48 begutachtete Facharbeiten verfasst, darunter bereits eine vom 6. Sept. 2019 im renommierten Journal „Frontiers“ mit ähnlichem Thema und dem Titel „Propagation of Error and the Reliability of Global Air Temperature Projections”. Dr. Axel Göhring von EIKE hatte damals darüber in einer EIKE-News berichtet (hier). Weitere ältere fünf Fachpublikationen von P. Frank zum Themenbereich seiner neuesten Arbeit sind in deren Quellenverzeichnis zu finden. Seine hier besprochene jüngste Arbeit in „Sensors“ ist „open“ und kann frei als pdf heruntergeladen werden (hier).

Was P. Frank in dieser jüngsten Arbeit herausarbeitet und belegt, hat das Potential, die Klimawissenschaft zu erschüttern. Wenn man einen so steilen Satz schreibt, muss man ihn auch begründen. Ich will es im Folgenden versuchen.

Bereits nach Überfliegen des 47 Seiten umfassenden Textes von P. Frank fällt eine ungewöhnliche Detailtiefe und Sorgfalt auf, was bereits an den rekordverdächtigen 284 Quellenangaben ablesbar ist. Dies ist lediglich mein schneller Eindruck, denn der Zeitbedarf eines ordentlichen Reviews dieser Arbeit dürfte bei mindestens 3-4 Wochen liegen, was den angegebenen Daten des Veröffentlichungsverlaufs auf dem paper entspricht.

Die riesige Länge und Detailliertheit der Arbeit verlangen für eine EIKE-News extreme Komprimierung in Sachen Lesbarkeit . Für Details sei daher auf den oben angegebenen Link des Originaltextes verwiesen. Wer sich für Details interessiert, beherrscht ohnehin das extrem einfache Wissenschafts-Englisch. Im Folgenden also nur das Wichtigste:

Die Arbeit spricht die Zeit von meteorologischen Temperaturmessungen der Luft ab etwa Ende des 19. Jahrhunderts bis zum Jahre 1980 an. Die Grenze liegt im Jahr 1980, weil ab diesem Zeitpunkt Satellitenmessungen zur Verfügung stehen, die keinen örtlichen Behinderungen oder anderweitigen Besonderheiten von Land- oder See-Stationen mehr unterliegen (Beispiel UHI-Effekt). In der Arbeit von P. Frank wird aber auch auf die seit etwa 1900 regelmäßig vorgenommenen Messungen von Meeresoberflächenwasser mit Hilfe von Eimern aus Schiffen sehr ausführlich eingegangen. Was die detaillierte Beschreibung der Fehlerquellen von den verwendeten Thermometertypen angeht, handelt es sich fast wieder um eine eigene Arbeit im Gesamtpaper und erklärt dessen ungewöhnliche Länge.

Der Kern der Arbeit ist die Messtatistik. Das Hauptproblem ist auf S. 25 angesprochen (in Folgenden alles ins Deutsche übertragen)

Lufttemperaturmessungen, die mit systematischen Fehlern behaftet sind, lassen sich nicht von gültigen Daten unterscheiden. Systematisch fehlerhafte Lufttemperaturtrends bestehen jeden statistischen Test, der zur Validierung einer Stationsaufzeichnung verwendet wird“.

Das klingt schwierig und ist es auch. Zuerst folgt daraus, dass es nicht mehr möglich ist, die nur bei normalverteilten (also zufälligen) Fehlern korrekte Methode, das Mittel bzw. das Maximum der Gauss-Glockenkurve als korrekten Wert zu verwenden. Hier ist vielleicht noch einmal auf den von vielen Laien gemachten Fehler einzugehen, die Genauigkeitsangabe einer Temperatur von beispielsweise 22 ± 0.2 °C als falsch oder gar als Betrug zu werten, wenn viele der Messfehler größer als ± 0.2 °C sind.

Dass Entscheidende ist nicht die Größe der Messfehler, sondern welcher Art sie sind! Sind sie zufällig hat man gute Karten, denn die Häufigkeitsverteilung der Messungen zeigt dann nämlich die berühmte Glockenkurve von F. Gauss (Normalverteilung), und man erreicht mit beliebig vielen Messungen beliebig genaue Werte des gesuchten Phänomens, hier im Beispiel der Temperatur, mögen noch so große Messfehler in der Messreihe vorkommen. Dies gilt natürlich nicht mehr, wenn die Messfehler nicht zufällig, sondern in irgend einer Form systematisch sind. Und genau darum geht es in der hier besprochenen Arbeit von P. Frank.

Die Thermometermessungen der Meteorologie in der Vergangenheit unterliegen nämlich wie es P. Frank belegt systematischen Fehlern. Auch hierzu wieder aus dem Text des papers“

Stark korrelierte systematische Messfehler lösen sich nicht in einem Mittelwert auf. Auch große Datensätze mit systematischen Lufttemperaturmessfehlern bilden keine Normalverteilungen. Es gibt keinen statistischen Nachweis dafür, dass sich nicht-normale systematische Messfehler im Mittelwert auflösen [30,210], zumal auch noch die Dimensionen der Fehler in den historischen Temperaturaufzeichnungen völlig unbekannt sind.

Die Hauptergebnisse der Arbeit

  • Die Genauigkeitsgrenze von meteorologischen LiG-Thermometern (Anmerkung: LiG = liqid in glass), 2σ = ±0.11 °C/°F, wurde ignoriert (Anmerkung: σ ist die Standardabweichung);
  • Die veröffentlichte Unsicherheit der Aufzeichnung der globalen durchschnittlichen Lufttemperaturanomalie von 1900-1980 war geringer als die kombinierte untere Grenze der idealen Laborwiederholbarkeit von hochwertigen LiG-Thermometern von 2σ = ±0.432 °C;
  • Die Joule-Drift von Bleiglas- oder Weichglasthermometern aus der Zeit vor 1890 wurde ignoriert, macht aber die Aufzeichnungen der frühen Lufttemperaturen im 19. Jahrhundert unzuverlässig (Anmerkung: zu Joule-Drift s. 3.3.3. des papers) ;
  • Land- und Meeresoberflächentemperaturen wurden nicht um die nichtlineare Reaktion von LiG-Thermometern korrigiert;
  • Systematische Messfehler, die durch natürlich belüftete Lufttemperatursensoren an der Landoberfläche entstehen, sind nicht zufällig;
  • Der systematische Fehler bei der Messung der Lufttemperatur an der Landoberfläche ist zwischen den Sensoren korreliert;
  • Die Semivariogramm-Methode offenbart nicht den mittleren SST-Messfehler (Anmerkung: SST = sea surface temperature), sondern eher die Hälfte der mittleren Fehlerdifferenz;
  • Der mittlere Fehler der SST-Messungen bleibt unbekannt (ebenso wie der mittlere Fehler der Seewindmessung);
  • Der Fehler bei der SST-Messung im Eimer ist in der Regel nicht zufällig; Der Fehler bei der SST-Messung am Motoreinlass ist nicht zufällig; Die Verteilung des SST-Messfehlers der Schiffe variiert mit jeder Fahrt, mit der Besatzung (und sogar mit der Wache) und zwischen den Schiffen; Die Mittelwerte der SST-Fehlerverteilungen der Schiffe sind nicht zufällig verteilt; Turbulenzen, die durch das Schiff (die Plattform) selbst verursacht werden, verhindern im Allgemeinen die Übereinstimmung der Messung mit dem ungestörten Zustand des Oberflächenwassers.

Die Joule-Drift des LiG-Thermometers hat die gesamte Aufzeichnung der frühen Lufttemperatur bis zum 19. Jahrhundert unzuverlässig gemacht. Feldkalibrierungsexperimente mit Lufttemperatur- und SST-Sensoren an Bord von Schiffen widerlegen die Annahme, dass Lufttemperatur- und SST-Messfehler rein zufällig sind. Zu den Ausnahmen gehören SST-Messungen in Pütts, wenn sie von methodisch geschultem Personal durchgeführt und alle notwendigen Vorsichtsmaßnahmen beachtet werden, und SST-Messungen mit modernen Bojen.

Die Zusammenstellung der LiG-Unsicherheiten an der Land- und Meeresoberfläche ergibt eine Anomalie der globalen Lufttemperatur von 1900 bis 2010 von 0,86 ± 1.92 °C (2σ), die jede Aussage über die Geschwindigkeit oder das Ausmaß der Temperaturänderung und somit über die Geschwindigkeit, oder das Ausmaß der Klimaerwärmung seit 1850 oder früher unmöglich macht.

 

Das Fazit der Arbeit

Zu den direkten Beweisen für eine Erwärmung des Klimas seit dem 19. Jahrhundert gehören die Verlängerung der Vegetationsperiode, die Begrünung des hohen Nordens und die polwärts gerichtete Verschiebung der nördlichen Baumgrenze. Mit einer Unsicherheit von 95 % sind jedoch weder die Geschwindigkeit noch das Ausmaß der Erwärmung im 19. oder 20. Jahrhundert bekannt. Eine detailliertere Bewertung der Fehler könnte zwar noch die Unsicherheitsgrenzen ändern, aber eine ganz andere Schlussfolgerung ist unwahrscheinlich.

Die Anomalie der Oberflächenlufttemperatur des 20. Jahrhunderts von 0.74 ± 1.94 °C (2σ), sagt nichts über die Geschwindigkeit oder das Ausmaß der Veränderung des thermischen Zustands der Troposphäre aus. Ein Klimaalarm ist aus diesem Grund nicht zu rechtfertigen. Die Joule-Drift, die mit Sicherheit alle vor 1885 hergestellten LiG-Thermometer beeinträchtigt hat, macht die Zuverlässigkeit früherer Lufttemperaturmessungen zunichte. Die Aufzeichnung der global gemittelten Lufttemperaturanomalien kann die Vorstellung einer noch nie dagewesenen Klimaerwärmung in den letzten 200 Jahren oder in einem anderen Zeitraum nicht stützen.

Hinweis der EIKE Redaktion.

Zu vergleichbaren Ergebnissen kam der Dissertationsversuch unseres Vizepräsidenten Michael Limburg in seinem Dissertationstext vom März 2010, auch wenn darin die quantitative Auswertung mangels Daten unterblieb, Limburg, M. (19. März 2010), „Analyse zur Bewertung und Fehlerabschätzung der globalen Daten für Temperatur und Meeresspiegel und deren Bestimmungsprobleme“, Leipzig, Sachsen, Deutschland. Den Text finden sie hier.

 

 

 

 

 




Der gemeine Küchenherd als Beispiel für die Anwendung des Stefan-Boltzmann-Gesetzes – Teil 1

von Uli Weber

(A) Vorbemerkung: Ich hatte in der fernen Vergangenheit oft die populärwissenschaftlichen Aussagen von US-amerikanischen Wissenschaftlern bewundert, deren stark vereinfachende Erklärungen allgemeinverständlich waren, ohne grob fehlerhaft zu sein. Von einem aktuellen Fortbestand dieser hohen Kunst ist mir in den Zeiten spontaner Empörung und hochmoralischem Mobbing leider nichts bekannt. Denn dazu gehört nunmal auch auf Seiten von selbsternannten „Fachleuten“ und sogenannten „Faktencheckern“ eine Kultur des Zulassens solcher allgemeinverständlichen Beschreibungen ohne spontan-cholerische Besserwisseranfälle, die solche Bemühungen konterkarieren. Schon die Mathematik scheint in der gegenwärtigen Kommunikation an frühe Verständnisgrenzen zu stoßen, und die Physik bedient sich der Mathematik lediglich als Formalsprache. Im aktuellen EIKE-Artikel von Dr. Hans Hofmann-Reinecke heißt es dazu, Zitat mit Hervorhebungen:

Unsere grassierende Inkompetenz in Sachen Mathematik ist kein rein akademisches Problem, sie hat dramatische Konsequenzen, auch für die deutsche Politik. Dabei geht es nicht etwa um Fehler bei den letzten Stellen hinterm Komma, es geht um das Verkennen von Größenordnungen. Diese kognitive Behinderung führt zu katastrophalen Entscheidungen durch unsere „Politiker-innen“. Da aber die Mehrheit der Bevölkerung auch nicht besser rechnen kann, ist sie nicht in der Lage, das Versagen der Verantwortlichen zu erkennen und sie dafür zur Rechenschaft zu ziehen.

Das vorstehend Gesagte gilt umso mehr für komplizierte physikalische Vorgänge, wenn dem geneigten Leser in unserer MINT-fernen Gesellschaft zusätzlich auch noch grundlegende physikalische Begriffe unbekannt sind, selbst wenn er denn eigenständig rechnen könnte. Was nun mein hemisphärisches Stefan-Boltzmann-Modell betrifft, mit dem ich den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ widerlegt hatte, so sind mir in der Vergangenheit drei Sorten von „Total-Quatsch“-Kritikern untergekommen. Die Hälfte dieser Kritiker besteht aus Professoren mit unterschiedlichen Schwerpunkten in Physik oder Chemie, die altersgemäß-intellektuell ihren ganz persönlich interpretierten „atmosphärischen Treibhauseffekt“ nicht mehr loslassen wollen oder können, ein weiteres Viertel davon sind Dunning-Krüger-Schmalspurphysiker, die nur ihre eigene vorgefasste Meinung (aner)kennen, und das letzte Viertel besteht aus sophistisch vorgebildeten Trollen der Klimakirche. Unter diesen Voraussetzungen ist es ziemlich ungünstig, sich mit stark vereinfachenden Beispielen zusätzlich angreifbar zu machen. Daher werde ich das jetzt mal versuchen und setze dabei einfach die Grundrechenarten ganz frech voraus.

(B) Fangen wir also mal mit den physikalischen Einheiten an: Physikalische Berechnungen bestehen nicht nur aus Zahlen und Symbolen, bestimmend sind vielmehr die jeweilig korrekten [physikalischen Einheiten]. Nehmen wir einmal an, Ihr Auto hätte eine Leistung von 100 [kW], das sind [k=kilo=1.000] mal 100 [Watt], also so viel wie 1.000 von den inzwischen verfemten 100 [Watt] Glühbirnen. Diese Leistung hat Ihr Auto immer, auch wenn es in der Garage steht. Und wenn Sie sich jetzt wundern, dass Ihr Auto dann gar nicht leuchtet, das tut die Glühbirne auch nicht, solange kein Strom fließt. Man nennt die Fähigkeit eines Körpers, Arbeit zu verrichten, physikalisch „Leistung“ (Einheit Watt [W]), und zwar auch dann, wenn dieser Körper momentan gar nichts leistet, sondern sich in der Garage oder im Supermarkt-Regal ausruht. Wenn Sie aber den Lichtschalter umlegen, dann läuft die Zeit, die Glühbirne verbraucht diese 100 [Watt] an elektrischem Strom und liefert Ihnen dafür Licht. Und wenn Sie diese Glühbirne jetzt 12 Stunden brennen lassen, dann stellt Ihnen Ihr Stromversorger dafür 12 Stunden mal 100 Watt in Rechnung, also 1,2 Kilowattstunden. Diese 1,2 Kilowattstunden bestehen also aus 100 Watt [W] mal 12 Stunden [h] gleich 1.200 Wattstunden [Wh] und nennen sich physikalisch „Arbeit“. Arbeit ist also Leistung [Watt] mal Zeit [Zeiteinheit], oder

Arbeit: 1 [Wh] = 1 [W] x 60 [min = 60sek] = 3.600 [Watt x Sekunden] [= Joule = Ws]

Zum Durchschnitt von physikalischer Arbeit: Nehmen wir jetzt einmal an, Sie haben für diese Glühbirne einen eigenen Stromzähler und lassen sie an 182,5 Tagen im Jahr brennen. Nach genau einem Jahr stellen Sie fest, dass Ihre Glühbirne 100 Watt x 182,5 Tage [=d] Strom verbraucht hat, also

100 [W] x 182,5[d] x 24[h] = 438.000 [Wh] x 3.600[s] = 1.576.800.000 [Ws oder Joule]

Nun sind Sie aber vielleicht schon etwas älter und ein bisschen vergesslich. Daher wissen Sie nicht mehr so genau, wie lange Sie die Glühbirne haben brennen lassen. Dummerweise ist auch die Leistungsangabe auf der Glühbirne nicht mehr lesbar, sodass Sie weder die tatsächliche Brenndauer noch die Leistung der Glühbirne aus dem Stromverbrauch physikalisch korrekt rückrechnen können, wie es sonst eigentlich möglich wäre:

Brenndauer der Glühbirne = 438.000 [Wh] / 100 [W] = 4.380 [Stunden =h]

Leistung der Glühbirne = 438.000 [Wh] / 4.380 [Stunden =h]= 100 [Watt]

Anmerkung: Wie Sie sicher bereits gemerkt haben, stehen physikalische Einheiten oft in eckigen Klammern. Diese physikalischen Einheiten müssen sich auf beiden Seiten des Gleichheitszeichens entsprechen und unterliegen ebenso den Regeln der Mathematik wie die davor stehenden Zahlen, also beispielsweise: 100 [Ws] / 10 [s] = 10 [W]

Ihnen bleibt jetzt also nur noch eine rein mathematische Rückrechnung, wobei Sie entweder die Leistung der Glühbirne oder deren Brenndauer als bekannt voraussetzen müssen, im einfachsten Fall also beispielsweise das gesamte Abrechnungsjahr, weil Ihre Stromrechnung darauf lautet:

Der Gesamtverbrauch war 438.000 [Wh] / [a] – und das Jahr [a] hat 8.760 Stunden [h]

Daraus folgt: Leistung der Glühbirne = 438.000 [Wh] / 8.760 Stunden [h] = 50 [Watt =W]

In dem Moment, wo Sie aus einer vorhandenen „Leistung“ [W] durch Einbeziehung der „Zeit“ [s] eine „Arbeit“ [Joule=Ws] abfordern, geht Ihnen der physikalisch eindeutige Bezug zwischen „Leistung“ und „Zeit“ verloren. Sie müssen also mindestens eine der beiden tatsächlichen Eingangsgrößen kennen, um den originären physikalischen Bezug wieder herzustellen. Das Ergebnis von „Arbeit“ [Ws] ist also mathematisch richtig, kann aber rückblickend den tatsächlichen physikalischen Sachstand nicht mehr eindeutig aus sich heraus abbilden. Denn Sie hatten ja gar keine 50 W Glühbirne übers ganze Jahr brennen lassen, sondern eine 100 W Glühbirne für ein halbes Jahr.

(C) Das geheimnisvolle Stefan-Boltzmann-Gesetz: Nachdem wir nun die nötigen physikalischen Einheiten geklärt haben, wenden wir uns einmal dem geheimnisvollen Stefan-Boltzmann-Gesetz zu. Dieses physikalische Gesetz verknüpft die Temperatur eines Körpers mit seiner Abstrahlungsleistung:

P / A = C x T x T x T x T = C x T^4 mit

P = Strahlungsleistung in [W]

A = Fläche des Körpers in Quadratmetern [m x m = m^²]

C = Konstante (S-B-Konstante) [W/(m^² x K^4)]

T = Temperatur des Körpers bezogen auf den absoluten Nullpunkt

[0 Kelvin = 0 K]

Anmerkung: 0 Kelvin entspricht einer Temperatur von -273,15°C

Wir können diese Gleichung vereinfachen, indem wir eine spezifische Strahlungsleistung „S“ (= P / A) in [W/m^²] einführen und erhalten dann:

S [W/m^²] = C [W/(m^² x K^4)] x T^4 [K^4] Stefan-Boltzmann-Gesetz

Jeder Körper mit einer Temperatur größer 0 Kelvin, also größer als -273,15°C, strahlt mit einer spezifischen Strahlungsleistung, die sich direkt aus dem Stefan-Boltzmann-Gesetz ergibt. Wie Sie unschwer erkennen, kommt die Zeit [t] im Stefan-Boltzmann-Gesetz gar nicht vor. Dieses physikalische Gesetz gilt nämlich ausschließlich „just in Time“, also, ein Körper strahlt dann und nur dann die durch das Stefan-Boltzmann-Gesetzes vorgegebene spezifische Leistung ab, wenn er in diesem Augenblick auch ganz genau die dort vorgegebene Temperatur hat.

Temperatur [Kelvin]

Abbildung: Die Abhängigkeit der spezifischen Strahlungsleistung [W/m^²] von der Temperatur [K] im Stefan-Boltzmann-Gesetz (mit freundlicher Genehmigung von M. Limburg)

Der in der vorstehenden Abbildung gezeigte Verlauf der Stefan-Boltzmann-Funktion ist durch eindeutige Wertepaare von Temperatur und spezifischer Strahlungsleistung gekennzeichnet. Eine mathematische Anwendung dieser Funktion auf Mittelwerte ist physikalisch nicht erlaubt. In einer räumlichen Umgebung, die gegenüber einem betrachteten Körper sehr groß und massereich ist, tendiert dieser Körper dazu, die Temperatur seiner Umgebung anzunehmen. Wenn Sie also ein Eis aus dem Kühlschrank nehmen und sich eine Tasse Kaffee aufbrühen, dann ist das Eis kälter als die Umgebung und der Kaffee heißer. Wenn Sie dann gestört werden und Eis und Kaffee vergessen, werden Sie später feststellen, dass beides die Temperatur der Küche angenommen hat; das ist sowohl schlecht für das ehemals kalte Eis wie auch für den ehemals heißen Kaffee, und für Sie bleibt auch nichts Gescheites mehr übrig. Im Ergebnis hatte also das Eis so lange Strahlung aufgenommen, bis es die Temperatur der Umgebung angenommen hat, und der Kaffee hatte so lange Strahlung abgegeben, bis er ebenfalls diese Temperatur angenommen hatte. Nehmen Sie zum Beispiel eine Tiefkühlpizza und schieben Sie diese in den Ofen. Solange der Ofen nicht angeschaltet ist, schmilzt diese Tiefkühlpizza lediglich still vor sich hin und nimmt schließlich die Umgebungstemperatur des kalten Ofens an. Sie müssen also den Ofen anschalten und die vorgegebene Temperatur einstellen, damit Sie Ihre Tiefkühlpizza aufbacken können. Physikalische Gleichzeitigkeit bedeutet also, dass der Ofen genau dann Wärme erzeugen muss, wenn die Pizza im Ofen aufgebacken werden soll.

Sie finden das selbstverständlich? Naja, Tag und Nacht sind auch selbstverständlich, das weiß schon jedes Kindergartenkind. Nur in der Klimawissenschaft ist das immer noch nicht bekannt.

(D) Das glauben Sie nicht? – Dann schaunmermal der Klimawissenschaft genau auf die Finger:

Die strenge physikalische Gleichzeitigkeit im Stefan-Boltzmann-Gesetz gilt nicht nur für Ihre Pizza und den heißen Ofen, sie ist ebenfalls eine zwingende Voraussetzung für eine Stefan-Boltzmann-Inversion*. Inversion heißt in diesem Fall, dass, in Umkehrung des Stefan-Boltzmann-Gesetzes, eine spezifische Strahlungsleistung auf einen Körper einwirkt und dort eine Temperatur erzeugt. Und diese Temperatur folgt dann wiederum dem Stefan-Boltzmann-Gesetz. Soweit die Theorie, in der Praxis ist das gar nicht so einfach, wenn man die Temperatur der sonnenbeschienenen Erde berechnen will, denn es gibt auf unserer Erde nun mal Tag und Nacht:

Abbildung: Die geometrischen Verhältnisse beim Einfall der Sonneneinstrahlung auf die Erde

Und das sind die bestimmenden Parameter:

Spezifische Strahlungsleistung der Sonne: 1.367 W/m² (= Solarkonstante)

Fläche des Lichtkegels, der auf die Erde fällt: Kreisfläche mit dem Erdradius R

Von der Sonne beschienene Fläche: Halbkugel mit dem Erdradius R

Gesamtoberfläche der Erde: Kugel mit dem Erdradius R

Kreisfläche, Halbkugelfläche und Kugelfläche verhalten sich zueinander wie 1 : 2 : 4

Und mit diesem Flächenverhältnis haben wir bereits den wesentlichen Knackpunkt für eine Stefan-Boltzmann-Inversion auf unserer Erde zu fassen. Beim S-B-Gesetz (Temperatur erzeugt Strahlung) hat der betreffende Körper nämlich eine einheitliche Temperatur und strahlt in alle Richtungen gleichmäßig ab. Bei der S-B-Inversion (Strahlung erzeugt Temperatur) ist das nicht so. Versuchen Sie einfach mal, einen Fußball komplett mit einer Taschenlampe zu beleuchten (danke für das schöne Beispiel, Herr W. Schulz), dann erkennen Sie das Problem sofort. Denn egal was Sie auch machen, die Rückseite des Fußballs bekommen Sie mit dem Lichtstrahl nie zu fassen. Nun könnte man mit der sogenannten „Klimawissenschaft“ argumentieren, dass sich die Erde unter dem Lichtkegel der Sonne ja einmal in 24 Stunden um sich selber dreht und einfach über diese 24 Stunden mitteln. Wir haben aber bereits gesehen, dass eine mathematische Mittelung über Dunkelzeiten physikalisch nicht so richtig funktioniert. Denn schließlich wäre die dunkle Nachtseite der Erde in einer solchen 24h-Mittelung ja immer mit enthalten. Nehmen wir jetzt also noch einmal unsere Tiefkühlpizza und stellen über einen gemeinsamen Stromzähler nebeneinander 2 Herde auf, die Tag- und Nachtseite der Erde repräsentieren sollen und jeweils 12 Stunden des 24h-Tages angeschaltet sind. Jeder dieser beiden Herde wird also für 12 Stunden mit 2 [kW] betrieben und danach kommt der andere Herd dran. Wenn Sie Ihre Pizza aufbacken wollen, dann müssen Sie daher je nach Tageszeit den jeweils eingeschalteten Herd auswählen. Über einen 24h-Tag liegt der Verbrauch beider Herde zusammen dann bei 48 [kWh]. Bezogen auf einen einzelnen Herd ergibt das jeweils einen Verbrauch von 24 [kWh] in 24 Stunden oder 1 [kW] pro Stunde. Wenn wir jetzt einmal vereinfachend eine lineare Beziehung zwischen Stromverbrauch und Temperatur unterstellen, dann würden echte 2 [kW] beispielsweise 200°C entsprechen, 1 [kW] Durchschnitt dagegen nur 100°C. Die 200°C reichen zum Aufbacken der Pizza in der vorgegebenen Zeit völlig aus; bei 100°C sehe das Ergebnis dagegen sehr viel langwieriger und trockener aus…

Wir sehen also, dass die Ableitung von Temperatur allein aus einer Energiemenge zu völlig unterschiedlichen Ergebnissen führen kann, je nachdem, ob die tatsächliche physikalische Situation in die Berechnung eingeht oder nicht. Man muss also in einer Stefan-Boltzmann-Inversion immer die tatsächliche „Just-in-Time“ Augenblicksleistung als physikalische Grundlage für die Berechnung der tatsächlichen Augenblickstemperatur verwenden.

Weiterhin gilt das Stefan-Boltzmann-Gesetz nur für einen sogenannten „schwarzen“ Körper. Das ist ein idealisierter Körper, der sämtliche Strahlung aufnimmt, die auf ihn trifft. Und hier kommt ein weiterer wichtiger Fachbegriff ins Spiel, und zwar die sogenannte „Weiße“ (Albedo) eines natürlichen Körpers. Diese „Weiße“ gibt an, wie viel der Einstrahlung ein solcher Körper zurückreflektiert. Während also ein „schwarzer“ Körper eine Albedo von „0“ hat, reflektiert eine Diskokugel die gesamte Strahlung und hat eine Albedo von „1“. Und die natürlichen Körper liegen als sogenannte „graue Körper“ irgendwo dazwischen, beispielsweise auch unsere Erde:

https://eike-klima-energie.eu/wp-content/uploads/2022/10/word-image-97452-1.jpegAbbildung: Earthrise, Farbbild, von Bill Anders – gemeinfrei (Wikipedia)

Alles, was Sie hier in dieser Abbildung von der Erde sehen ist das reflektierte Sonnenlicht, und das sind etwa 30% (oder 0,30 vom Ganzen=1) der Sonneneinstrahlung. Diese 30 Prozent müssen wir also schon einmal von der Solarkonstanten (1.367 W/m²) abziehen, wenn wir das Stefan-Boltzmann-Gesetz auf die Erde anwenden wollen. Es bleiben somit etwa 940 W/m² für die Erzeugung der Temperatur auf unserer Erde übrig. Wir können auf der obigen Abbildung die Tagseite und die Nachtseite unserer Erde deutlich unterscheiden. Weiterhin ändern sich über die Breitenkreise der Zenitwinkel der Sonne, also wie hoch die Sonne am Himmel steht. Deshalb fahren Sie im Urlaub beispielsweise gerne in den Süden, weil es dort bei höherem Sonnenstand wärmer ist als hier bei uns. Und über das Jahr ändert sich dann auch noch das Verhältnis zwischen Tageslicht und Nacht, was man bei uns Sommer und Winter nennt.

(E) Der sogenannte „natürliche atmosphärische Treibhauseffekt“: Die Klimawissenschaft macht sich die Berechnung der „theoretischen“ Temperatur unserer Erde nun denkbar einfach. Sie nimmt nämlich einfach die einfallende Sonnenstrahlung auf der Kreisfläche mit dem Erdradius, zieht den reflektierten Anteil von 30% (Albedo) davon ab und teilt diesen Betrag dann durch 4, weil die Kugelfläche der Erde viermal größer ist als die Kreisfläche der einfallenden Sonnenstrahlung. Im Ergebnis ergibt sich somit ein Wert von:

(Solarkonstante – 30% = 940 W/m²) / 4 = 235 W/m² für jeden Quadratmeter unserer Erde.

Mit dieser spezifischen Strahlungsleistung geht man nun in das Stefan-Boltzmann-Gesetz hinein und erhält -18°C für die „theoretische Temperatur“ unserer Erde. Die „tatsächlich gemessene globale Durchschnittstemperatur“ beträgt dagegen etwa +15°C**. Die Differenz von 33°C zwischen diesen beiden Temperaturen schreibt man nun einem „natürlichen atmosphärischen Treibhauseffekt“ zu, der durch sogenannte IR-aktive „Klimagase“, das sind mit absteigender Wichtigkeit Wasserdampf, CO2, Methan und andere IR-aktive Gase, erzeugt werden soll. Wenn Sie nun einmal das Internet durchsuchen, dann werden Sie feststellen, dass der Wasserdampf nur noch sehr selten unter den „Klimagasen“ auftaucht. Das war vor etwa einem Jahrzehnt noch ganz anders; damals hatte der Wasserdampf bei weitem den größten Anteil am sogenannten „natürlichen atmosphärischen Treibhauseffekt“:C:\Users\Uli\Documents\Ablage & Archiv\Texte\Klimahysterie\Text 12 x 19\Charts\Charts skaliert\Chart 7.jpg

Abbildung: Die gemittelten Anteile am sogenannten „natürlichen atmosphärischen Treibhauseffekt“

Quelle: Klimahysterie gefährdet die Freiheit Seite 57 (damals hat der Autor den THE noch „geglaubt“)

Das Problem von Klimawissenschaft und globaler Transformationspolitik war sicherlich der geringe Anteil von CO2 am sogenannten „Treibhauseffekt“, denn der „menschengemachte“ CO2-Anteil ist wiederum nur ein Bruchteil des natürlichen atmosphärischen CO2. Die Argumentation für den Wegfall des Wasserdampfs ist daher ganz einfach. Mit der Temperatur steigt der Anteil von Wasserdampf in der Atmosphäre. Also werden die übrigen „Klimagase“ zu „primären Temperaturanheizern“ befördert, während Wasserdampf mit einem Beitrag von etwa 65% am sogenannten „Treibhauseffekt“ nur ein „Mitläufer“ ist, der lediglich auf einen solchen Temperaturanstieg reagiert – und damit ist er ‘raus aus der Betrachtung. Vielmehr wird sein Einfluss auf die „globale Durchschnittstemperatur“ den „primären Klimagasen“ einfach proportional, also je nach deren eigenem Anteil an diesem Temperaturanstieg, zugerechnet. Mit diesem Zaubertrick hat man dann auch gleich noch die natürlichen Klimaschwankungen von ca. 50% (IPCC) für den „menschengemachten Treibhauseffekt“ vereinnahmt. Was die platten Zahlen angeht, so ist der aktuelle Stand bei den atmosphärischen Anteilen von CO2 und Wasserdampf:

Atmosphärisches CO2: um 420 ppmWasserdampf im Mittel 0,4 %

Ich hoffe, diese Zahlen haben einen allgemeinen Aufschrei unter meinen Lesern bewirkt, denn die Äpfel und Birnen stimmen in diesem Vergleich nicht überein. Wenn schon ppm, dann muss man in einem direkten Vergleich beide Anteile in ppm angeben, und bei Prozent ist das ebenso, also:

Atmosphärisches CO2: 420 ppm oder 0,042% – Wasserdampf 4.000 ppm oder 0,4 %

Mit der oben zitierten Argumentation kann man sich nun voll auf das lebensspendende CO2 als „klimatisches Giftgas“ stürzen, wie die nachfolgende Abbildung vom Umweltbundesamt beweist:

 Abbildung: Beitrag zum Treibhauseffekt durch Kohlendioxid und langlebige Treibhausgase 2021
Quelle: UBA mit Angabe: National Centers for Environmental Information (NOAA)

Im dazu gehörigen Text ist nirgendwo beschrieben, dass es sich bei dieser Kreisgrafik um lediglich etwa 30% des sogenannten „natürlichen atmosphärischen Treibhauseffektes“ handelt beziehungsweise der „Klimaeffekt“ von Wasserdampf bei den dargestellten „Klimagasen“ bereits mit eingerechnet ist. Das große Problem der sogenannten Klimakatastrophe soll nun vielmehr der stetig wachsende menschengemachte Anteil am atmosphärischen CO2 durch die Verbrennung fossiler Energieträger sein, durch den dieser „Treibhauseffekt“ sich immer weiter verstärken und schließlich zu einer „Selbstverbrennung“ unserer Erde führen soll:

Abbildung: Der atmosphärische Treibhauseffekt (Wikipedia, Autor „A loose necktie“, Lizenz Creative Commons Attribution-Share Alike 4.0 International

Die Erklärung dazu lautet, Zitat:Sonnenlicht (weiße Pfeile) wird auf der Erdoberfläche in Wärmestrahlung umgewandelt. Diese wird zurückgestrahlt (orange Pfeile). Ein Teil davon wird von Molekülen der Treibhausgase aufgenommen (Wasserdampf, Kohlendioxid und Methan) und in eine zufällige Richtung wieder emittiert, teilweise auch zurück zur Erde“.

Nix Genaueres über diesen sogenannten „natürlichen atmosphärischen Treibhauseffekt“ finden Sie übrigens auch beim Umwelt Bundesamt, das sich hinter historischen Fehlinterpretationen und schwammigen Vermutungen versteckt, ohne konkrete zahlenbasierte physikalische Mechanismen darzustellen. Wer’s etwas theoretischer mag, möge hier nachschauen…

Die Fortsetzung dieses Artikels erfolgt im 2. Teil: In Teil 2 wird zunächst das Kapitel (E) beendet, indem die Kenntnisse aus den Kapiteln (B) bis (D) auf die Berechnung der Klimawissenschaft für ihren „natürlichen atmosphärischen Treibhauseffekt“ angewendet und daraus Fragen abgeleitet werden. In Kapitel (F) erfolgt dann ein Abgleich dieser Fragestellungen mit den Gesetzen der physikalischen Wärmelehre. Als Gegenentwurf wird in Kapitel (G) dann mein hemisphärisches Stefan-Boltzmann-Modell vorgestellt. Und am Ende folgen in Kapitel (H) noch ein paar Nachweise, warum die mit meinem S-B-Modell berechnete und die gemessene Temperatur nicht übereinstimmen können.

Erklärungen

*) Stefan-Boltzmann-Inversion: Sowohl die klimawissenschaftliche Ableitung des Treibhauseffektes (THE) als auch mein hemisphärisches Stefan-Boltzmann-Modell stellen Inversionen des Stefan-Boltzmann-Gesetzes dar. In beiden Fällen wird aus der spezifischen Strahlungsleistung der Sonne eine Temperatur berechnet. Anstelle von (Temperatur erzeugt Strahlung) wird bei der Inversion also das S-B-Gesetz umgekehrt (Strahlung erzeugt Temperatur). Die Erwärmung eines Körpers durch Sonnenstrahlung kann jeder selber beobachten und überprüfen. Für eine genaue Berechnung müssen zusätzlich alle Randbedingungen des S-B-Gesetzes eingehalten werden, beispielsweise die zwingende Gleichzeitigkeit von Temperatur und Strahlung sowie die exakten geometrischen Verhältnisse bei der Einstrahlung. Das ist bei der klimawissenschaftlichen Faktor4-Berechnung des THE aber nicht der Fall.

**) Die „tatsächlich gemessene globale Durchschnittstemperatur“ von etwa +15°C: Diese „gemessene globale Durchschnittstemperatur“ ist eine Schimäre, denn dafür gibt es kein exaktes und nachvollziehbares „Kochrezept“ und keine zuverlässige Datengrundlage. Der interessierte Leser findet dazu die detaillierten Analysen und Ausführungen von Herrn Dipl.-Ing. Limburg hier und hier auf EIKE. Die Differenz dieser aktuell „gemessenen“ Globaltemperatur zu einer „vorindustriellen Temperatur“ stellt nun aber die Grundlage für die Sage von der „menschengemachten Klimakatastrophe“ dar. Der Menschen soll nämlich durch die Nutzung von fossilen Energieträgern und dem damit verbundenen Ausstoß von CO2 einen Temperaturanstieg verursachen, der schließlich das Ende der Menschheit herbeiführen soll. Aber selbstverständlich gibt es für die ominöse „vorindustrielle Globaltemperatur“ auch kein Kochrezept und keine nachvollziehbare Datengrundlage. Inzwischen werden sogar fast nur noch Differenzen zwischen dieser „vorindustriellen Temperatur und der angeblich „gemessenen globalen Durchschnittstemperatur“ veröffentlicht. Das wiederum ist ganz natürlich, denn es gab und gibt gar keine globalen vorindustriellen Daten, wie die nachstehende Abbildung beweist:

Abbildung: NOAA Global Historical Climatology Network: Gebiete mit mehr als 10 Jahren kontinuierlicher Temperaturaufzeichnung im Zeitraum 1861-1890 (rechts, grau unterlegt)

Anmerkung: Der angegebene Link aus 2020 funktioniert aktuell nicht mehr.

Die Industrialisierung begann in der 1. Hälfte des 19. Jahrhunderts. Es gibt aber selbst aus der 2. Hälfte des 19. Jahrhunderts keine weltumspannenden Temperaturdaten, lediglich aus Teilen der USA, Europa, Ceylon und Australien liegen solche Daten vor. Das reicht für eine Globaltemperatur schon mal nicht aus. Vielleicht wird jetzt auch klar, warum die „gemessene globale Durchschnittstemperatur“ nur noch als Differenz zu einem ungenannten Fixwert angegeben wird – und gleichzeitig das oben abgebildete Beweismittel verschwunden ist…

 




„Kältester Mai jemals nördlich von 80°N“

Cap Allon

Laut dem professionellen Meteorologen und Wetter-Prognostiker Joe Bastardi erlebte die Arktis (80°N) gerade den kältesten Mai in den Aufzeichnungen des Dänischen Meteorologischen Instituts (DMI), welche 65 Jahre zurückreichen (bis 1958).

Bastardi schreibt via Twitter: „Nur ein, vielleicht zwei Tage waren durchschnittlich…“.

Dies wird in der unten eingebetteten, vergrößerten DMI-Grafik veranschaulicht, die den Mittelwert von 1958 bis 2023 (blaue Linie) und die tägliche Durchschnittstemperatur für 2023 (orange Linie) zeigt:

Weit unterdurchschnittliche Temperaturen traten im Mai nördlich von 80N auf und hielten bis in den Juni hinein an – Daily Mean Temp +80N, mit ERA40 [DMI].

„Und das, obwohl Klimaaktivisten eine absurde GFS-Wärme über der Arktis angeben2, so Bastardi weiter. „Sie können verdammt sicher sein, dass es Schlagzeilen machen würde, wenn es der wärmste Mai seit Beginn der Aufzeichnungen wäre.“

Im Gegenzug führte der kalte Mai zu einem soliden Vormarsch des arktischen Meereises:

Bastardi verweist auch auf die globalen Mai-Temperaturen und weist auf die offensichtliche NOAA-Verschleierung hin; ein weiteres Beispiel dafür, dass nicht die ganze Geschichte gezeigt wird.

Die „Perzentilenkarte“ der NOAA für Mai 2023 ist erschienen, und wieder einmal zeigen die tatsächlichen Temperaturen, wie absurd verzerrt sie ist.

Unten stehen die tatsächlichen Temperaturanomalien für den Mai, auf welche Bastardi verweist:

Und so zeigt die NOAA das:

Wenn man sich die Interpretation der Daten durch die NOAA anschaut, hat man keine Ahnung, wie anomal kalt es zum Beispiel in der Arktis war.

Nun, die NOAA lügt hier nicht wirklich, sie verschleiert – sie verbiegt die Daten und Statistiken, um ihr Ziel zu erreichen, oder, genauer gesagt, um die Befehle ihrer Matrix-Meister zu erfüllen, die, zumindest meiner Meinung nach, die „Weltherrschaft durch Terror“ anstreben.

Deprimierenderweise ist die Verschleierung durch Regierungsbehörden nichts Neues. Sie hat sich immer wieder gezeigt. Doch die pflichtbewussten Gehorsamen unter uns (d. h. die Massen) schlucken sie weiterhin: „Warum sollte uns die Regierung anlügen?“ – die dümmste aller Entgegnungen.

Der Februar 2021 war in weiten Teilen der Welt ein Monat mit wahrhaft historischer Kälte, wenn man sich die Verfälschungen in der Vergangenheit ansieht.

Das ist jedoch NICHT der Eindruck, den man bekommt, wenn man nur Zugang zu der absurden „Perzentilenkarte“ der NOAA hat:

Umgeht man jedoch die Irreführung durch die NOAA und schlüsselt die Daten auf, so zeigt sich, dass die USA den kältesten Februar seit 1989 erlebten; die südliche Hemisphäre verzeichnete den kältesten Februar seit 2012; ganz Zentral- und Nordasien fror; während große Teile Afrikas, Südasiens und Südamerikas ebenfalls kältere Monate als der Durchschnitt erlebten.

Die selten zitierte NOAA-Karte „Abweichungen vom Durchschnitt“ gibt einen viel besseren Überblick über den Stand der Dinge im Februar 2021:

Vergleichen Sie die beiden Karten selbst, und beachten Sie, dass sie exakt dieselben Daten für denselben Zeitraum verwenden und dennoch völlig unterschiedliche Eindrücke von diesem Monat vermitteln.

Link: https://electroverse.info/coldest-may-80n-greenland-gains-warmer-in-the-past-zharkova-interview/

Übersetzt von Christian Freuer für das EIKE

 




Eine Stellungnahme zum GEG Gesetzentwurf der Bundesregierung

von Dr. Dipl. Ing. Helmut Waniczek

Stellungnahme zum Gesetzentwurf der Bundesregierung

„Entwurf eines Gesetzes zur Änderung des Gebäudeenergiegesetzes, zur Änderung der Heizkostenverordnung und zur Änderung der Kehr- und Überprüfungsordnung, Bundestagsdrucksache 20/6875  unter Berücksichtigung der „Leitplanken“ vom 13. Juni 2023 anlässlich der Öffentlichen Anhörung im Ausschuss für Klimaschutz und Energie des Deutschen Bundestages am 21. Juni 2023

Kurzbewertung des Gesetzentwurfs

Der vorliegende Gesetzentwurf Drs. 20/6875klärt schon in der Einleitung darüber auf, dass sich der Antragsteller nicht im Klaren ist, welche Folgen die geplanten Maßnahmen haben:

„Eine auf erneuerbaren Energien basierende Wärmeversorgung dürfte mittel- bis langfristig eine sehr viel kalkulierbarere, kostengünstige und stabile Wärmeversorgung gewährleisten.“ (Seite 45 Abs.4)

Nach dem Lesen der unübersichtlichen und vagen Vorlage komme ich zu dem Schluss, dass die Wärmeversorgung mit erneuerbaren Energien eine unkalkulierbare, teure und instabile Wärmeversorgung werden dürfte.

Zur flächendeckenden Installation von Wärmepumpen

Eine ganze Reihe von Maßnahmen scheint unkalkulierbar. Schon die flächendeckende Versorgung mit Wind- und Solarstrom ist zweifelhaft, wenn die Bundesnetzagentur schon jetzt Stromabschaltungen für Wärmepumpen fordert, weil zu wenig Strom vorhanden ist. Aber selbst wenn für die vorliegenden Pläne ausreichend Strom zur Verfügung gestellt würde, wäre das Netz an vielen Stellen nicht geeignet, die nötige Strommenge durchzuleiten. Die Versorgung mit Wasserstoff ist noch nicht einmal im Ansatz geklärt, und die Kosten dafür stehen in den Sternen. Der Fachkräftemangel wird in dem Papier zwar angesprochen und bestätigt, die Lösung des Problems wird aber verschwiegen (S. 149).

Wenn die Bürger nun aller Orten Wärmepumpen einbauen, können unsere Häuser dann so aussehen.

Quelle: kanvag / Fotolia.com

Dieses Bild findet man auf der Seite des Umweltbundesamtes:

https://www.umweltbundesamt.de/themen/blauer-engel-fuer-klimageraete

Mit dem Kommentar: „Klimageräte stoßen nicht nur durch den hohen Stromverbrauch viele Treibhausgase aus: Auch die verwendeten Kältemittel haben negative Auswirkungen auf das Klima.“ Dies stimmt natürlich auch für Wärmepumpen, die zum Heizen verwendet werden. Nun handelt es sich bei dem vorliegenden Gesetz ja nicht um Kühlgeräte, sondern um Heizgeräte, die der Umwelt die Wärme entziehen. In unseren Breiten werden diese Geräte im Winter, wenn das Heizen nötig ist, etwa so aussehen:

Quelle: https://heimwerk.org/waermepumpe-vereist

 

Je mehr diese Wärmepumpen auf engem Raum betrieben werden, umso ineffizienter werden sie, da es wie beim „Stilling-Effekt“ bei den Windrädern dazu kommt, dass eine Anlage der anderen die nötige Wärme entzieht. Rechtliche Fragen, wem denn eigentlich die Wärme außerhalb eines Gebäudes gehört, sind offen. Darf ich vor meinem Fenster der Luft so viel Wärme entziehen, dass beim Nachbarn die Fenster zufrieren? Da die Wärmepumpen an Fassaden auch die Hauswände stark kühlen werden, sind Auswirkungen auf die Bausubstanz zu befürchten. Auch die Innenseiten der Fassaden würden gekühlt und Kondenswasser entstehen, was zu Schimmelbildung führt.

Ein Wust an Vorschriften soll eingehalten und sanktioniert werden. Dies führt entweder dazu, dass der Fachkräftemangel noch verstärkt wird, oder dass die Vorschriften eben nicht eingehalten werden können, und der Bürger immer sanktionierbar ist.

Zur flächendeckenden Beimischung von grünem Wasserstoff ins Erdgasnetz

Offensichtlich soll gemäß dem Gesetzentwurf im deutschen Gasnetz dem Erdgas Wasserstoff beigemischt werden. Wie viel das sein soll, ob sich das Mischungsverhältnis im Laufe der Zeit ändern soll, in welchen Zeiträumen diese Änderungen erfolgen sollen, ist nicht ersichtlich. Diese Angaben wären aber zwingend erforderlich, um das Vorhaben überhaupt bewerten zu können. 10 oder 20 Prozent Wasserstoff im Erdgas werden kaum technische Änderungen erfordern. Soll der Wasserstoffgehalt jedoch auf 50 Prozent gesteigert werden, dann werden viele Brenner der Heizungsanlagen schon nicht mehr geeignet sein, und auch das Gasnetz muss nachgerüstet werden, da etwa die doppelte Gasmenge durch die Leitungen transportiert werden muss, um die gleiche Wärmemenge anzubieten. Wenn dann irgend wann 100 Prozent Wasserstoff durch das Deutsche Gasnetz transportiert werden sollen, dann treten wieder die gleichen Probleme wie beim ersten Schritt auf, und zusätzlich werden Materialprobleme einen Austausch erheblicher Rohrleitungen erfordern. Diese Rohrleitungen liegen alle unterirdisch mit dem daraus resultierenden Aufwand.

Dann müssen auch mehr als dreimal so hohe Volumina durch die Rohrleitungen als heute. Die dann erforderlichen Brenner für die Heizungen müssen Spezialbrenner sein, welche heute erst entwickelt werden. Sie müssen gewährleisten, dass das Wasserstoff-Luft-Gemisch vor der Verbrennung optimal durchmischt wird, und dass die Gefahr des Rückzündens vermieden wird. Diese Brenner sind teuer. Denn ein ganz gravierendes Problem hat der Verfasser des Gesetzentwurfes gar nicht erwähnt. Der Verfasser denkt offensichtlich, dass bei der Verbrennung von Wasserstoff nur Wasser entsteht. Die Verbrennung von Wasserstoff erfolgt aber bei wesentlich höheren Temperaturen als die von Erdgas. Dies führt dazu, dass erhöhte Mengen an NOx, Stickoxiden, entstehen. Diese Stickoxide sind Atemgifte.

Dieses Problem ist nur lösbar entweder durch die oben erwähnten Spezialbrenner die in jedem Haushalt eingebaut werden müssen, oder durch Einbau nachgeschalteter Katalysatoren. Dadurch wird die Maßnahme für die Bürger unkalkulierbar teuer.

Der Gesetzgeber hat es bisher versäumt, spezielle Abgasregulierungen für industrielle oder private Wasserstoff-Feuerungen zu erlassen. An der schrittweisen Erhöhung des Wasserstoffanteils im Erdgas wird aber kein Weg vorbeiführen, da der Wasserstoff in der nötigen Menge schlicht nicht vorhanden ist. Dass dies so ist, zeigen die folgenden drei Veröffentlichungen:

Markus Söder (CSU) preist die Pionieranlage in Wunsiedeln am 15.09.2022 an:

Am 29.12.2022 schreibt die Frankenpost: Zweiter Eletrolyseanlage liegt auf Eis:

https://www.frankenpost.de/inhalt.wunsiedel-zweite-elektrolyse-liegt-auf-eis.538e96a9-aa3f-4871-

8f7c-60f49fb406d0.html

Die Süddeutsche Zeitung schreibt am 15.01.2023, dass die erste Wasserstoffanlage in Bayern stillsteht, weil der Wasserstoff unverkäuflich, weil zu teuer ist:

https://www.sueddeutsche.de/bayern/wunsiedel-wasserstoff-strompreisbremse-bayern-1.5732369

Auch der internationale Handel mit Erdgas wird von dem vorliegenden Vorhaben stark beeinflusst. Durch die Rohrleitungen, durch die mit Wasserstoff angereichertes Erdgas geleitet wird, kann nicht gleichzeitig reines Erdgas geleitet werden. Diese Leitungen fallen für den internationalen Austausch aus. Deutschland hat dann kein Erdgasnetz mehr, um Erdgas durchzuleiten.

Grundsätzlich muss aber zu Wasserstoff als Heizgas erwähnt werden, dass 1 kWh Wasserstoff mit mehr als 2 kWh Strom hergestellt werden muss. Heizen mit Wasserstoff wird deshalb in jedem Fall doppelt so teuer, wie Heizen mit Strom. Deshalb wird die gesamte Wasserstoffstrategie der Bundesregierung nicht an der Machbarkeit scheitern, sondern sie wird an den hohen Kosten scheitern.

Sollte jemand daran denken, dass man mit dem Wasserstoff-haltigen Erdgas Brennstoffzellen betreiben könnte (Wasserstoffbusse, Rückverstromung), so soll hier erwähnt werden, dass dies technisch nicht möglich ist. Für Brennstoffzellen muss Wasserstoff in Reinst-Form eingesetzt werden, da sonst die Elektroden vergiften und die Brennstoffzelle nach kurzer Zeit zum Stillstand kommt.

Aber es gibt auch Kurioses in diesem Gesetzentwurf. Gemäß § 71 d Absatz 2 darf in einem bestehenden Gebäude eine elektrische Direktheizung nur eingebaut und aufgestellt werden, wenn das Gebäude den vorgeschriebenen Wärmeschutz um 45 Prozent unterschreitet. Nun muss eine elektrische Direktheizung nicht eingebaut werden. Es reicht, wenn man den Stecker des Heizlüfters in die Steckdose steckt. Sollen die Millionen in Haushalten existierenden Heizlüfter verboten werden?

Besonders heiter ist der Folgesatz, dass § 71 d Abs. 2 nicht beim Austausch eines bestehenden Heizlüfters anzuwenden ist. Man darf also den Heizlüfter im Wohnzimmer erneuern, aber nicht in das Schlafzimmer tragen.

Und wichtig scheint zu sein, dass § 71 d Abs. 2 nicht für Gebäude gilt, die nicht mehr als zwei Wohnungen haben, und eine davon vom Eigentümer bewohnt wird. Zieht der Eigentümer aus, muss also in der anderen Wohnung der Heizlüfter entfernt werden.

So steht es zumindest im Entwurf. Ob das auch so gemeint ist, weiß man nicht, es wird aber zu großer Verwirrung führen.

Der vorliegende Gesetzentwurf behandelt nur einen kleinen Teil der Maßnahmen, die zur Erreichung des vorgegebenen Zieles, die sogenannte „Wärmewende“ zu erreichen, nötig sind. Die wesentlich umfangreicheren Veränderungen und Investitionen, die dafür nötig werden sind ausgespart und teilweise nur erwähnt. Die Bürger werden zu Maßnahmen verpflichtet werden, deren Auswirkungen und Kosten noch gar nicht bekannt sind. Nach dem Motto – erst bauen, dann planen – wird dem Bürger ein großes Risiko aufgebürdet, und mit Strafmaßnahmen gedroht.

Dr. Helmut Waniczek am 21. Juni 2023

Das obige Video ist ein Zusammenschnitt der Fragen und Antworten an den Sachverständigen seitens einiger Abgeordneter

Und zusätzlich

Auf die Frage an Dr. Engelke vom vzbv (Verbraucherschutz Bundesverband): Welche Rolle könnte Wasserstoff aus ihrer Sicht beim Heizen spielen.

Antwort: Dr. Engelke:

Der Gesetzentwurf der Bundesregierung sieht vor, dass Gasheizungen, die mit reinem Wasserstoff betrieben werden können, die 65% Vorgabe erfüllen. Das Papier geht sogar noch weiter. Die Heizung sollen zum Beispiel auch dann eingebaut werden dürfen, wenn eine kommunale Wärmeplanung ein klimaneutrales Gasnetz vorsieht, das muss aber erst 2045 umgesetzt sein. Wie hoch der Anteil 2030 im Gasnetz sein muss, ist offen. Der vzbv kann diese Position nicht nachvollziehen. Es gibt einen Grundkonsens in der Wissenschaft, dass Wasserstoff für den Gebäudesektor in 2030 oder vielleicht auch 2045 kaum eine Rolle spielen wird. Wasserstoff bleibt also ein knappes und teures gut, Erdgas und seine Infrastruktur werden tendenziell teurer. Verbraucher müssen wissen, dass sie H2-ready-Heizungen gegebenenfalls für Jahrzehnte nur mit Erdgas betreiben können. Wenn jetzt Verbraucherinnen und Verbraucher glauben oder glauben sollen, dass sie mit dem Kauf einer H2-ready-Heizung diese in absehbarer Zeit klimafreundlich und kostengünstig mit grünem Wasserstoff betreiben können, ist das durch Fakten nicht hinreichend unterlegt. Im Gegenteil, Verbraucherinnen Verbrauchern droht eine Kostenfalle. Das muss verhindert werden, die Erfüllungsoptionen von theoretisch mit Wasserstoff betriebenen Erdgasheizungen müssen aus dem Gesetzesvorschlag gestrichen werden.

 

 




Klima-Skeptiker auf dem Vormarsch*

=========

Alex Reichmuth (Red. WELTWOCHE GRÜN)*

Wer es wagt, die These von der menschengemachten Erderwärmung auch nur ein bisschen in Zweifel zu ziehen, kennt den Vorwurf: «Klimaleugner!» Angeblich ist es unbestreitbar, dass die emittierten Gase Kohlendioxid und Methan praktisch zu 100 Prozent verantwortlich sind für den Anstieg der weltweiten Temperaturen seit etwa 1850 um 1,1 Grad.

=========

Skeptiker haben da keinen Platz, weil sich «die Wissenschaft» scheinbar einig ist.

Nicht einig ist sich allerdings die Bevölkerung – auf der ganzen Welt. Zwar liest man in den Medien regelmässig, dass die Zahl der Klimaskeptiker – oder Klimarealisten, wie sie sich selber nennen – am Sinken sei. «Leugner des Klimawandels findet man heute kaum mehr, die Zahl der Skeptiker hat stark abgenommen», schrieb die NZZ am Sonntag. «Kaum jemand traut sich heute noch, den menschengemachten Klimawandel zu leugnen», hiess es im Wiener Standard.

 

Saudi-Arabien auf Platz eins

Doch eine Erhebung der Marktforschungsfirma Ipsos und des Energiekonzerns Electricité de France ist nun zum gegenteiligen Schluss gekommen: Es gibt sogar immer mehr Leute, die am menschengemachten Klimawandel zweifeln. Dieses Resultat stützt sich auf die Befragung von 24 000 Personen in dreissig ausgewählten Ländern, darunter Frankreich, Deutschland, Italien, China, Indien, Amerika, Nigeria, Australien und Brasilien. (Die Schweiz gehörte nicht dazu.)

Demnach waren im vergangenen Jahr 28 Prozent der Befragten der Meinung, dass es zwar eine Erderwärmung gebe, diese aber nicht auf den Menschen zurückzuführen sei. Vorher, 2019, hatten erst 23 Prozent der Befragten diese Antwort gegeben. Innerhalb von nur drei Jahren ist die Zahl der Skeptiker also um über ein Fünftel gestiegen.

Zusammen mit den 9 Prozent, welche die Existenz des Klimawandels völlig abstreiten, sind damit 37 Prozent der Befragten zu den «Klimaleugnern» zu zählen. Bezeichnenderweise gibt es vor allem in Staaten, wo der Wohlstand stark von der Förderung fossiler Brennstoffe abhängt, besonders viele Zweifel an der menschengemachten Klimakatastrophe.

Auf Platz eins der Länderrangliste steht entsprechend Saudi-Arabien, wo satte 60 Prozent der Befragten klimaskeptisch sind. Dahinter folgen Norwegen mit 48 Prozent, Russland (48), die USA (48) und die Vereinigten Arabischen Emirate (46) – alles Länder, die wesentlich im Öl- und Gasgeschäft engagiert sind.

Eine weitere Umfrage, durchgeführt an der Universität Chicago, bestätigt den Trend zu immer mehr Klimaskepsis in den USA. Demnach sind die Klimaskeptiker in Amerika neu sogar in der Mehrheit.

 

Zweifel auf linker Seite

Konkret gaben 49 Prozent der insgesamt 5408 Befragten an, dass die Erderwärmung ganz oder überwiegend auf menschliches Handeln zurückzuführen sei. Fünf Jahre zuvor waren noch 60 Prozent dieser Meinung gewesen. Laut der Umfrage ist der Rückgang des Glaubens an die menschengemachte Erderwärmung vor allem bei den jüngeren Amerikanern im Alter von 18 bis 29 Jahren ausgeprägt: minus 17 Prozentpunkte.

Bezeichnenderweise wachsen in den USA die Klimazweifel vor allem bei den linken Wählern: 2018 waren 72 Prozent der Wähler der Demokratischen Partei vom menschengemachten Klimawandel überzeugt. Jetzt sind es nur noch 60 Prozent. Derweil stagnierte der Anteil der Wähler der Republikanischen Partei, die den Menschen die Hauptschuld an der Erderwärmung geben, bei tiefen 33 Prozent.Leider sind keine entsprechenden Umfragen aus der Schweiz bekannt. Es wäre gerade mit Blick auf das soeben angenommene Klimaschutzgesetz interessant zu wissen, wie gross hierzulande der Anteil der Bevölkerung ist, der am menschengemachten Klimawandel zweifelt.

=================================================================

)*  Anmerkung der EIKE-Redaktion  :

Dieser Artikel ist zuerst erschienen in der WELTWOCHE Zürich : | Die Weltwoche Grün, Nr.3 / 2023, S.9 ;  EIKE dankt der Redaktion der WELTWOCHE und dem Autor Alex Reichmuth für die Gestattung der ungekürzten Übernahme des Beitrages, wie schon bei früheren Beiträgen :  http://www.weltwoche.ch/Hervorhebungen und Markierungen v.d. EIKE-Redaktion.

==================================================================