Der gemeine Küchenherd als Beispiel für die Anwendung des Stefan-Boltzmann-Gesetzes – Teil 2

von Uli Weber

In Teil 1 (hier) hatte ich zunächst in Kapitel (A) meine Motivation für diesen Artikel erläutert. In Kapitel (B) wurden dann die verständnisfördernden physikalischen Einheiten und deren Zusammenhang beschrieben. Darauf folgte in Kapitel (C) das sagenumwobene Stefan-Boltzmann-Gesetz und in Kapitel (D) die zeitlichen und geometrischen Bedingungen, unter denen dieses physikalische Gesetz anzuwenden ist. Und schließlich wurde in Kapitel (E) der sogenannte „natürliche atmosphärische Treibhauseffekt“ vorgestellt.

Hier in Teil 2 beginnen wir nun mit der Fortsetzung von Kapitel (E) aus Teil 1:

Schau‘n wir mit dem, was wir bisher gelernt haben, also einmal auf diese eigenartige Stefan-Boltzmann-Berechnung der Klimawissenschaft, an deren Ende ein „natürlicher atmosphärischer Treibhauseffekt“ stehen soll:

  • Die Sonne scheint nur auf der Tagseite der Erde und die andere Hälfte der Erde ist dunkel, aber man mittelt die Sonneneinstrahlung einfach über Tag und Nacht.
  • Aus dem Beispiel mit der Glühbirne haben wir gelernt, dass wir über Dunkelzeiten keinen Durchschnitt bilden dürfen, weil das zu physikalisch falschen Ergebnissen führt.
  • Und aus dem Beispiel mit dem Herd haben wir gelernt, dass eine Pizza nicht aufgebacken wird, wenn der Herd nicht angeschaltet ist. Folglich kann also auch die Sonne keine Temperatur auf der Erde erzeugen, wenn sie nachts gar nicht scheint.
  • Die Klimawissenschaft rechnet also einfach über 24 Stunden, weil man weiß, dass der Tag nun mal so lang ist, und nicht über 12 Stunden, obwohl nur da die Sonne scheint. Vielmehr weist man dann der dunklen Nachtseite der Erde dieselbe Temperatur zu wie der sonnenbeschienenen Tagseite. Und nun wundert man sich, dass diese „theoretische Temperatur“ nicht mit der „gemessenen“ globalen Durchschnittstemperatur übereinstimmt, sondern sich eine Differenz von 33°C zugunsten der „gemessenen“ Temperatur ergibt.
  • Als Erklärung für diese Temperaturdifferenz von 33°C konstruiert die Klimawissenschaft dann ihren „natürlichen atmosphärischen Treibhauseffekt“, der durch eine sogenannte „atmosphärische Gegenstrahlung“ der IR-aktiven „Klimagase“ erzeugt werden soll.

(F) Gegenprobe mit der physikalischen Wärmelehre und Richtungsvektoren: Wir müssen jetzt noch etwas in die physikalische Wärmelehre einsteigen. Die Hauptsätze der Thermodynamik beschäftigen sich mit der Umwandlung und Änderung von Energie innerhalb eines oder mehrerer Systeme. Das klingt zunächst einmal sehr abstrakt, ist aber ganz einfach zu verstehen:

  1. Energieerhaltungssatz: Energie kann weder erschaffen noch vernichtet, sondern nur umgewandelt werden.

Beispiel: Wenn Sie mit Holzkohle grillen, dann entziehen Sie damit der Holzkohle die dort gespeicherte Energie, und diese Energie heizt wiederum den Grill, die Wurst und die umgebende Luft – und wenn Sie zu nah ‘rangehen, verbrennen Sie Sich die Finger…

  1. Richtung von Prozessen: Es gibt keine Zustandsänderung, deren einziges Ergebnis die Übertragung von Wärme von einem Körper niederer auf einen Körper höherer Temperatur ist.

Beispiel: Es kann kein Perpetuum Mobile geben. Ein Perpetuum Mobile wäre ein Prozess, der ohne Zufuhr von Energie selbständig Energie erzeugen kann. Stellen Sie sich dazu einfach mal ein Auto vor, mit dem Sie ohne zu tanken beliebig herumfahren könnten, weil es die erforderliche Energie selber erzeugt – schön wär’s…

Und mit diesem Wissen schauen wir uns jetzt noch einmal den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ an. Mit dem „Energieerhaltungssatz“ müssen wir fordern, dass die Erde im Mittel genauso viel Energie abstrahlt, wie sie im Mittel von der Sonne erhält. Denn würde sie mehr abstrahlen, dann würde die Erde kontinuierlich kälter; würde sie dagegen weniger abstrahlen, würde sie kontinuierlich wärmer. Mit der „Richtung von Prozessen“ müssen wir in erster Näherung schließen, dass der „natürliche atmosphärische Treibhauseffekt“ eine zusätzliche eigene Energiequelle besitzt, nämlich die sogenannte „atmosphärische Gegenstrahlung“ der IR-aktiven „Klimagase“. Der vorgebliche Weg ist folgender:

Solare Einstrahlung (primär): Die hochfrequente (HF) solare Einstrahlung heizt die Erdoberfläche auf.

Terrestrische Abstrahlung (sekundär): Die erhitzte Erdoberfläche strahlt infrarote (IR) Strahlung ab.

(?) Atmosphärische „Gegenstrahlung“ (tertiär): Die sogenannten „Klimagase“ nehmen angeblich die IR-Strahlung der Erde auf und strahlen sie vorgeblich je zur Hälfte ins Weltall und zur Erde zurück, und zwar als sogenannte „Gegenstrahlung“. Durch diesen „Treibhauseffekt“ soll die Erde sich um 33°C erwärmen.

Wir stellen also fest:

(1.) Mit einem Gleichstand zwischen der primären Einstrahlung und der sekundären Abstrahlung wäre der Energieerhaltungssatz erfüllt.

(2.) Die „Wiederverwendung“ der sekundären Abstrahlung als zusätzliche Heizquelle für die Erdoberfläche wäre dagegen ein Perpetuum Mobile, denn die Erdoberfläche würde sich dann durch ihre eigene Abstrahlung zusätzlich weiter erwärmen. Dieser „Münchhauseneffekt“ ist aber physikalisch unmöglich.

Beweis durch Widerspruch: Gäbe es eine wie immer geartete IR-Heizung, durch deren IR-Bestrahlung von „Klimagasen“ eine „Gegenstrahlung“ erzeugt werden könnte, die einen Temperaturanstieg von 33°C gegenüber der ursprünglichen Quelle erzeugen würde, dann hätten wir alle jetzt und in alle Zukunft keinerlei Heizungsprobleme mehr.

Ergebnis: Gibt es eine solche Gegenstrahlungsheizung?

Nein: Es ist also schon sehr eigenartig, was die sogenannte „Klimawissenschaft“ auf Basis „glaubensgerechter Physik“ so daherzurechnen beliebt!

Richtungsvektoren: Es gibt noch einen weiteren physikalischen Nachweis für die Unsinnigkeit einer platten Faktor4-Mittelung der solaren Sonneneinstrahlung zur Ermittlung einer „natürlichen“ Temperatur unserer Erde. Dazu müssen wir wissen, was ein „Vektor“ und was ein „Skalar“ ist, Zitat von ingenieurkurse.de:

Ein Vektor ist eine physikalische Größe, die durch Angabe eines Zahlenwertes, ihrer Einheit und zusätzlich durch eine Richtung charakterisiert ist. Beispiele für Vektoren sind: Die Geschwindigkeit ist ein Vektor. Bei der Geschwindigkeit wird zusätzlich zur Angabe eines Zahlenwertes plus Einheit eine Richtung angegeben.

Ein Skalar ist eine physikalische Größe, die durch die Angabe eines Zahlenwertes und ihrer Einheit charakterisiert ist.

Also: Ein Vektor ist eine gerichtete physikalische Größe, die eine Maßzahl, eine eindeutige Richtung und eine physikalische Einheit besitzt. Stellen Sie Sich einfach einen Pfeil vor, dessen Spitze die Richtung anzeigt und die Länge des Schaftes den Betrag angibt. Ein Skalar ist dagegen eine ungerichtete Größe, die nur eine Maßzahl (Betrag) und eine physikalische Einheit besitzt, ein Richtungsbezug fehlt hier völlig. Und jetzt schauen wir uns noch einmal die Situation bei der Sonnenbestrahlung der Erde genauer an:

Abbildung: Die solare Bestrahlung der Erde und die terrestrische Abstrahlung
Quelle: Prof. Dr. Dr. h. c. Gerhard G. Paulus: Erderwärmung zum Nachrechnen

Die gelbe solare HF-Einstrahlung in dieser Abbildung ist mit parallelen (alle Strahlen sind gerader Richtung nebeneinander auf die Erde gerichtet) Strahlenvektoren auf die Erde gerichtet, während die rote IR-Abstrahlung radial (senkrecht zur Erdoberfläche) von der Erdoberfläche wegführt. Die Stärke der terrestrischen IR-Abstrahlung ergibt sich bei der klimaalarmistischen THE-Berechnung jetzt aus der Viertelung der solaren HF-Einstrahlung minus Albedo. Dabei kommt es aber zu einer Kollision der gerichteten Vektoren von HF-Ein- und IR-Abstrahlung, denn ein Vektor ändert nicht ohne Grund seine Richtung. Man hat bei dieser konventionellen Berechnung der Klimawissenschaft also ganz offensichtlich die unterschiedlichen vektoriellen Richtungen ignoriert und die Strahlungswerte lediglich als ungerichtete Skalare behandelt.

Frage: Auf welche Weise kann nun der Vektor der parallel einfallenden HF-Sonneneinstrahlung auf die radiale Richtung der IR-Abstrahlung der Erde „umgebogen“ werden?

Antwort: Gar nicht – eine Änderung des Richtungsvektors kann nur erfolgen, wenn zwischen HF-Einstrahlung und IR-Abstrahlung ein eigenständiger physikalischer Prozess stattfindet. Dieser Prozess ist die Erwärmung der Erdoberfläche durch die solare HF-Einstrahlung. Dann, und nur dann, strahlt die Erdoberfläche ihre IR-Wärmestrahlung radial ab. Und nur dann strahlt die Erdoberfläche auf der Nachtseite ebenfalls radial ab, weil durch die Drehung der Erde die erwärmte Oberfläche einfach auf die Nachtseite „mitgenommen“ wird.

(G) Und nun kommt endlich mein hemisphärisches Stefan-Boltzmann-Modell: Versuchen wir einfach mal eine Temperaturberechnung allein für die Tagseite der Erde. Dazu nehmen wir an, die Sonne stünde genau über dem Äquator, also auf dem Frühlings- oder Herbstpunkt (Tag-und-Nacht-Gleiche). Dann teilen wir die gekrümmte Tagseite der Erde (Halbkugelfläche) in konzentrische Ringe um diesen Fußpunkt der Sonne auf, wobei auf jeder Ringfläche die spezifische Strahlungsleistung der Sonne konstant ist:

Abbildung: Die Tagseite der Erde, aufgeteilt in konzentrische Ringe von jeweils 1 Grad um den Fußpunkt der Sonne auf dem Äquator, also 0°-1°, 1°-2°, 2°-3°,….., 89°-90°.

Wegen der Erdkrümmung erhält nämlich jeder dieser konzentrischen Ringe einen ganz individuellen Anteil der Sonneneinstrahlung. Im Zentrum, am Fußpunkt der Sonne auf dem Äquator (=0°), treffen die Sonnenstrahlen senkrecht auf die Erdoberfläche. Der Boden dort erhält also die gesamten 940 /m² (=1.367 W/m² – 30%) von der Sonne. Zur Mitte und zum Rand hin vermindert sich dieser Wert aufgrund der immer schräger werdenden Auftreffwinkel der Sonnenstrahlen kontinuierlich, bis schließlich die Sonneneinstrahlung ganz am Rand (=90°) auf 0 W/m² zurückgeht. Der Richtungsabhängigkeit der solaren HF-Einstrahlung ist somit also Genüge getan. Wenn wir nun für jeden Ring aus der jeweiligen Sonneneinstrahlung eine Temperatur mit dem Stefan-Boltzmann-Gesetz ableiten und dann über alle Ringe eine Mittelung durchführen, dann erhalten wir +14,03°C. Und wenn wir die Ringe noch schmaler machen, dann werden es sogar +15,15°C, also ziemlich genau die sogenannte „global gemessene Durchschnittstemperatur“. Und die IR-Strahlung der erwärmten Erdoberfläche strahlt nun überall auf der Erde radial von der Erdoberfläche ab, wie es das Stefan-Boltzmann-Gesetz befiehlt.

Wir sehen also, wenn wir mit dem Stefan-Boltzmann-Gesetz physikalisch richtig rechnen, bleibt gar kein Platz mehr für einen „natürlichen atmosphärischen Treibhauseffekt“ und damit auch keine Notwendigkeit, unsere technische Zivilisation aus Angst vor einer globalen Klimakatastrophe zu zerstören. Denn gegenüber der vorstehend berechneten Durchschnittstemperatur von ca. 15°C für die Tagseite der Erde müsste die „theoretische“ Nachttemperatur nun um 66°C absinken, um im gemeinsamen Mittel eine globale „theoretische“ Durchschnittstemperatur von -18°C zu ergeben. Aber haben Sie einen solchen nächtlichen Temperatursturz von mehr als 60°C schon jemals erlebt? – Nein? – Und auch der sogenannte „natürliche atmosphärische Treibhauseffekt“ von 33°C hilft hier wenig, denn dann würden immer noch 33°C fehlen.

ERGEBNIS: Es gibt auf unserer Erde gar keinen „natürlichen atmosphärischen Treibhauseffekt“!

Und auf der immer als „leuchtendes“ THE-Beispiel herangezogenen Venus übrigens auch nicht!

(H) Noch ein paar abschließende Bemerkungen zum globalen Wärmetransport und zur Wärmespeicherung auf der Erde: Es ist offensichtlich, dass auf der Erdoberfläche die rein rechnerische Temperatur nach dem Stefan-Boltzmann-Gesetz aus der solaren Einstrahlung nirgendwo erreicht wird. Andererseits wissen wir aber aus dem Energieerhaltungssatz der Wärmelehre, dass Energie nicht einfach so verschwinden kann. Vielmehr vermindert der ständige Abfluss von Wärme durch Konvektion und Verdunstung den durch die Sonneneinstrahlung bedingten örtlichen Temperaturanstieg. Dabei spielt der Energietransport durch Atmosphäre und Ozeane aus Tropen und Subtropen in die Polarzonen hinein eine ganz wesentliche Rolle für unser Klima. Die nachfolgende Abbildung hatte ich schon in vielen Artikeln als Beweisführung für meinen hemisphärischen S-B-Ansatz herangezogen, und zwar zuletzt in dem Artikel, „Die dunkle Seite unserer Erde und der meridionale Energietransport“ (2022):

Abbildung: „Jahresmittel des Energiehaushaltes der Atmosphäre und seiner Komponenten in Abhängigkeit von der geographischen Breite“ nach HÄCKEL, H. (1990): Meteorologie. – 8. Aufl. 2016; Stuttgart (Verlag Eugen Ulmer), ISBN 978-3-8252-4603-7)

Hinweis: Die X-Achse (90° Nord bis 90° Süd) ist als „Draufsicht“ auf die Erde eingeteilt, d.h. die Abstände zwischen 0° und 90° werden jenseits von 30° sichtbar kürzer.

In dieser Abbildung bedeutet die „0 [W/m²]“-Linie die „durchschnittliche“ Ortstemperatur, die sich im Gleichgewicht von solarer Einstrahlung und örtlichem Energie-zu-/ab-fluss einstellt. Die (unterschiedlich schraffierten) Linien oberhalb der „0“-Linie stellen einen Energieüberschuss dar, die Linien unterhalb der „0“-Linie einen Energieverlust. Nehmen wir zum Beispiel einmal das Maximum links von 0° (=Äquator). Aus der Strahlungsbilanz und der latenten Energie (die Energie, die durch Verdunstung im Wasserdampf gebunden ist) sind jeweils ca. 45 [W/m²] vorhanden und ergeben zusammen 90 [W/m²] Überschuss. Gleichzeitig tritt durch Advektion (Verfrachtung) ein Wärmeverlust von ca. 60 [W/m²] durch Luftströmungen und ca. 30 [W/m²] durch Wasserströmungen ein, also insgesamt ebenfalls 90 [W/m²]. Für jeden Punkt auf der X-Achse von 90° Nord bis 90° Süd halten sich bei einer individuellen örtlichen Durchschnittstemperatur Energieüberschuss und Energieverlust also genau die Waage.

Dieser polwärts gerichtete Energietransport auf unserer Erde bewirkt, dass die Ortstemperatur in den Tropen und Subtropen bis in die sommerlichen mittleren Breiten hinein niedriger ausfällt als mit dem Stefan-Boltzmann-Gesetz berechnet. In höheren geografischen Breiten sowie winterlichen mittleren Breiten dagegen wird die Ortstemperatur durch den Zufluss von Energie gestützt:

Abbildung: Maximale theoretische Stefan-Boltzmann-Ortstemperatur im Äquinoktium (= Tag- und Nacht-Gleiche) vom Äquator (=0°) bis zu den Polen (90° Nord/Süd)

Die maximale Stefan-Boltzmann-Ortstemperatur sinkt vom Äquator (940 [W/m²] entsprechend ca. 86 [°C] oder 359 [Kelvin]) zu den Polen auf (0 [W/m²] entsprechend ca. -273 [°C] oder 0 [Kelvin]) ab. Bei etwa 70° nördlicher und südlicher Breite unterschreitet diese maximale Stefan-Boltzmann-Ortstemperatur die 0°C-Linie, und zwar ausdrücklich zur Tag- und Nacht-Gleiche. Dort befinden sich in etwa das Nordkapp (71° 1′ N, 25° 7′ O) und die Polarkreise (Nord und Süd) auf 66° 34′ N / S. Der Sonnenstand schwankt im Jahresverlauf zwischen den beiden Wendekreisen auf 23° 26‘ Nord (Nordsommer=Südwinter) und 23° 26‘ Süd (Südsommer=Nordwinter) um den Äquator. Insbesondere auf der jeweiligen Winterhalbkugel ist die Ortstemperatur in mittleren und höheren Breiten daher von der Energie-Verfrachtung aus niederen geografischen Breiten abhängig, denn sonst würde am Pol der Winterhemisphäre die Temperatur in die Nähe des absoluten Nullpunktes absinken. Dieser globale Wärmetransport in Atmosphäre und Ozeanen kostet natürlich Zeit. Bei den großen ozeanischen Strömungen spricht man von 100 Jahren und mehr.

Wenn also Energie in diesen Strömungen gespeichert wird und für ein Jahrhundert „unter Wasser verschwindet“, warum wird es dann auf der Erde nicht kälter? – Nun, die Antwort ist eigentlich ganz einfach: Unsere Erde ist ein „eingeschwungenes“ System.

Die 100 Jahre, die ein Umlauf in den großen ozeanischen Strömungen dauert, sind bereits bei deren Entstehung abgelaufen. Das bedeutet, gleichzeitig mit dem „Verschwinden“ von Energie in diesen ozeanischen Strömungen taucht im Mittel eine gleich große, vor 100 Jahren gespeicherte Energiemenge aus diesen Strömungen an anderer Stelle wieder auf. Und gleichzeitig mit der Verdunstung von Wasser kondensiert der vorher bereits entstandene Wasserdampf unter Abgabe von Energie an ganz anderer Stelle und regnet wieder ab.

Wir leben also in einer globalen energetischen „Durchschnittsbetrachtung“, wo all das vorstehend Beschriebene gleichzeitig passiert, wenn auch an ganz unterschiedlichen Orten.

Weiterführende Links zu meinem hemisphärischen Stefan-Boltzmann-Modell:

Eine noch einfachere Beschreibung: https://eike-klima-energie.eu/2017/01/23/ueber-einen-vergeblichen-versuch-unsere-welt-vor-der-dekarbonisierung-zu-retten/

Ein Modellvergleich mit der Temperatur auf dem Mond: https://eike-klima-energie.eu/2017/07/02/beweist-die-temperatur-des-mondes-den-hemisphaerischen-stefan-boltzmann-ansatz/

Zur Energiespeicherung in Atmosphäre und Ozeanen: https://eike-klima-energie.eu/2019/07/29/safety-first-zum-besseren-verstaendnis-meiner-hemisphaerischen-energiebilanz/

Die genaue S-B-Berechnung für die Tagseite der Erde: https://www.eike-klima-energie.eu/2019/09/11/anmerkungen-zur-hemisphaerischen-mittelwertbildung-mit-dem-stefan-boltzmann-gesetz/

Vergleich der Treibhaustheorien, Teil 1 Gegenüberstellung: https://www.eike-klima-energie.eu/2019/12/02/eine-analyse-der-thesen-antithesen-fuer-einen-natuerlichen-atmosphaerischen-treibhauseffekt-teil-1-gegenueberstellung-der-thesen-antithesen/

Vergleich der Treibhaustheorien, Teil 2 Diskussion: https://www.eike-klima-energie.eu/2019/12/03/eine-analyse-der-thesen-antithesen-fuer-einen-natuerlichen-atmosphaerischen-treibhauseffekt-teil-2-diskussion-der-thesen-antithesen/

Vergleich der Treibhaustheorien, Teil 3 Erkenntnisse: https://www.eike-klima-energie.eu/2019/12/04/eine-analyse-der-thesen-antithesen-fuer-einen-natuerlichen-atmosphaerischen-treibhauseffekt-teil-3-erkenntnisse-zu-den-thesen-antithesen-und-das-ergebn/


Bücher

Allgemeine Kritik am Klimawahn: Klimahysterie gefährdet die Freiheit – ISBN-13: 9783744835602

Zusammenstellung von Artikeln gegen den Klimawahn: Klima-Mord – Der atmosphärische Treibhauseffekt hat ein Alibi – ISBN-13: 9783744837279

Mein hemisphärisches S-B-Modell: Die hemisphärische Stefan-Boltzmann Temperatur unserer Erde – ISBN-13: 9783752870343

Wissenschaftliche Veröffentlichungen: Mehr geht nicht – Ein klimawissenschaftliches Vermächtnis – ISBN-13: 9783744818513

Hier der Link für den gesamten Beitrag als pdf.

https://eike-klima-energie.eu/wp-content/uploads/2023/06/2023-06-28-TEIL12-Der-Kuechenherd-und-die-Anwendung-von-S-B-uw.pdf




Michael Limburg zum Klima-Schwindel: „Trockenstes Gebiet der Erde ist die Antarktis“

Journalisten und Klimaforscher behaupten seit Jahren eine spürbare Klimaerwärmung aufgrund steigenden CO2-Ausstoßes festzustellen zu können. Und für diese Entwicklung wird der Mensch verantwortlich gemacht – man spricht vom angeblich „menschengemachten Klimawandel.

Wissenschaftler, die das aufgrund naturwissenschaftlicher Daten bestreiten, werden totgeschwiegen oder als sogenannte Klimaleugner verunglimpft. Davon betroffen ist auch der studierte Elektrotechniker, Dipl. Ing. Michael Limburg. Thomas Eglinski hat sich mit ihm über die vermeintliche menschengemachte Erderwärmung unterhalten.

Die Originalsendung finden Sie hier




Wieviel Wasserstoff erfordert die Klimaneutralität in 2045 auf dem Wege über 2030 und welcher Energieverbrauch ist damit verknüpft

Eine für ein Industrieland wie Deutschland hoffnungslose Wasserstoff-Illusion

von Dr.-Ing. Erhard Beppler

Fazit
Bis 2030 soll der Anteil der „Zufallsenergien“ Wind und Sone auf 80% angehoben werden über die Installation von 115 GW über Windanlagen (davon 30 GW offshore) und 215 GW über Solarenergie.
Bei hoch angesetzten Nutzungsgraden für die Wind- und Solarkraftwerke können dann rechnerisch in 2030 im Mittel 53 GWeff erzeugt werden einschließlich der Bioenergie von 11 GW  dann 64 GW.
Aber diese Regierung hat trotz aller Denkfabriken noch nicht verstanden, dass diese „Zufallsenergien“ Wind und Sonne von im Mittel 53 GWeff viel Energie für die H2-Technologie benötigen, um die Stromschwankungen auszugleichen, z.B. nachts bei Windstille.
Dafür sind in 2030 40 GW erforderlich, so dass sich eine Stromleistung von insgesamt 53 + 40 + 11 = 104 GW ergibt.
Nun sollen bis 2030 auch noch 15 Mio. E-Fahrzeuge hinzukommen mit 33 GW, zusätzlich sollen die Heizungen auf Wärmepumpen umgestellt werden mit 35 GW, zusammen dann 172 GW und schon ist die jetzige Stromleistung verdreifacht. Bereits dieser Wert übersteigt die Aufnahmefähigkeit des Stromnetztes. (Täglich müssen dann 2800 GWh gespeichert werden können, da nicht davon auszugehen ist, dass die H2-Elektrolyse sofort komplett vorgenommen werden kann – in Dunkelflauten entsprechend mehr).
Um 1 kg Wasserstoff zu erzeugen, sind über die H2-Elektrolyse, H2-Speicherung und Verstromung 87 KWh erforderlich. (Die Produktionskosten alleine für die H2-Elektrolyse liegen z.Z. bei 7 Euro/kg H2)
Über die zitierten 172 GW bis 2030 müssten dann täglich im Mittel 32 000 t H2 oder 12 Mio. H2 jährlich erzeugt werden, die bei nicht sofortiger Verstromung auch gespeichert werden müssten. Vorgesehen sind von der Bundesregierung nur 1 Mio. t H2/a (10 GW).
Spezialschiffe für den Transport von flüssigem Wasserstoff müssen noch gebaut werden – das einzige verfügbare Schiff hat ein Fassungsvermögen von 87 Tonnen – und können in 2030 nicht ausreichend zur Verfügung stehen. (Da 1 m3 Wasserstoff nur 70 kg wiegt, wird auch der Transport über Ammoniak wegen der höheren volumetrischen Energiedichte diskutiert).
Die Umrüstung von Gasturbinen auf Wasserstoff werden z.Z. noch geprüft, womit ein beträchtlicher Rückgriff auf Kohlekraftwerke in 2030 unausweichlich ist.
Eine Hochrechnung dieser Verhältnisse auf die Klimaneutralität in 2045 einschließlich der Umstellung aller Sektoren auf die H2-Technologie führt dann in die hoffnungslose Wasserstoff-Illusion:
– die Stromerzeugung müsste auf 340 GW einschließlich einem energetischen Aufwand für die H2-Technologie von 260 GW auf insgesamt

340 + 260 = 600 GW
angehoben werden, also eine Verzehnfachung der jetzigen Stromleistung von etwa 60 GW.
– der H2-Bedarf läge täglich bei 119 000 t, jährlich bei 43 Mio. t – wo auch immer der Wasserstoff hergestellt wird und wie er auch immer transportiert werden kann.

1.Einleitung

Da die Folgen für den Energieverbrauch, die Stromleistung sowie der Wasserstoffverbrauch bei der Anwendung der H2-Technologie auf dem Wege  bis zur Klimaneutralität in 2045 von der Bundesregierung einschließlich ihrer Denkfabriken wie Ökoinstitut, Fraunhofer Institut, Agora, etc. immer noch nicht verstanden wird, sollen hier die Einzelschritte der Umstellung auf Wasserstoff zunächst noch einmal detailliert beschrieben werden.
Bekanntlich schwanken die „Zufallsenergien“ aus Wind und Sonne in weiten Grenzen, zudem schwankt der Energiebedarf beträchtlich.
Die ständige Anpassung der Stromerzeugung im System Wind, Sonne und Wasserstoff an die Stromnachfrage ist komplex und soll im Folgenden vereinfacht dargestellt werden.

2.Das Problem der Umsetzung von Wind – und Sonnenenergie in elektrische Energie auf dem Wege über die H2-Erzeugung, H2-Speicherung und die H2-Verstromung

Aus der Darstellung der Entwicklung der installierten Windmenge (on- und offshore) in Bild 1 nach 2010 wird der Begriff der „Zufallsenergie“ mit kurzzeitigen Schwankungen zwischen praktisch null Gigawatt (GW) und die teilweise Annäherung an die installierte Leistung sichtbar.

Bild 1: Entwicklung der „Zufallsenergie Wind onshore und offshore“ sowie ihre installierten Leistungen von 2010 bis 2022

 

Bild 2: Entwicklung der „Zufallsenergien Wind und Sonne“, ihre installierten Leistungen sowie der monatliche Strombedarf

Die Addition von Wind- und Solarleistung von 2010- 2021 zeigt Bild 2

Hier ist zusätzlich die Stromnachfrage („Verbrauch“) auf der Basis von Jahresdurchschnittswerten dargestellt.

Nun schwankt der Energiebedarf meist zwischen etwa 40 GW (Wochenende) und über 70 GW (Bild 3 ; „Last“), d.h. bereits bei der z.Z. installierten Wind- und Sonnenleistung wird insbesondere an den Wochenenden der Energiebedarf nahezu erreicht, teilweise auch überschritten. (2)

Bild 3: Tägliche Schwankungsbreiten der Stromleistungen über Wind und Sonne im Juni 2021 sowie die Strombedarfsentwicklung

Der Strom muss dann unter finanziellem Verlust an das Ausland abgegeben werden. Andererseits müssen die „erneuerbaren“ Energien immer vorrangig eingespeist und müssen sogar bei Nachfragemangel oder Netzengpässen bezahlt werden.
Leider kommt weiterhin hinzu, dass die stündlichen Positiv-Änderungen (Stromüberschuss) wie die Negativ-Änderungen (Stromunterschuss) mit steigenden Wind- und Solarleistungen (von 45 auf 123 GW – Bild 2) von 3 GW/h in 2011 auf 10 GW/h in 2021 zunehmen. (Bild 4) (3) (1 GW entspricht der Leistung eines großen Kraftwerkes).


Bild 4: Entwicklung der stündlichen Änderungen des Stromüberschusses wie des Stromunterschusses von 2011 bis 2021

Eine z. B. Verdreifachung der Wind- und Solarleistung (vgl. Kapitel 3) lässt dann stündliche Stromunter -wie -überschüsse von etwa 30 GW erwarten. Das ist eine respektable Aufgabe für die ständige unabdingbare Anpassung der Wind-, Solar- und H2-Leistung an die Stromnachfrage.
Nun muss die installierte Stromleistung über Wind und Sonne über die Zwischenstufe in 2030 nach Habecks „Osterpaket“ bis zur Klimaneutralität in 2045 vervielfacht werden (z.B. in 2030 von 125 GW auf 330 GW – fast eine Verdreifachung), d. h. die Stromleistung aus Wind und Sonne muss ständig weit über den Strombedarf angehoben werden (vgl. Bild 3), wobei die über den Strombedarf hinausgehende Leistung über die Erzeugung, Speicherung und Verstromung von Wasserstoff beigestellt werden muss.

Bild 5: Schematische Darstellung der durchzuführenden Stromspeicherung

Der komplette Vorgang soll an einem Beispiel deutlich gemacht werden (Bild 5):
Der über dem in Bild 5 dargestellte Mittelwert von 40 GW anfallende Strom muss über Speicher gesammelt und unterhalb der mittleren Leistung von 40 GW wieder eingespeist werden – in Bild 5 anstelle von Gas:
Erforderliches Speichervolumen über Mittelwert (40 GW):
GW = GW aus Wind+Sonne/2 (Gleichung 1)
hier GW = 40/2 = 20 GW
Aber dieser Vorgang ist nicht umsonst zu haben.
Da der Strom bereits in 2030 praktisch ausschließlich über Wind und Sonne hergestellt werden soll (vgl. Kapitel 3), muss der über der mittleren Leistung von 40 GW anfallende Strom nach einem 4-Stufenverfahren wie folgt behandelt werden:

– Stufe 1: Stromerzeugung über Wind und Sonne (aus Strom oberhalb Mittelwert) mit Speicherung
– Stufe 2: H2-Elektrolyse mit Wirkungsgrad 70%
– Stufe 3: H2-Speicherung mit Verlusten von 10%
– Stufe 4: H2-Verstromung mit Wirkungsgrad 60%

Der sich daraus ergebende gesamte Wirkungsgrad von 40% wurde bewusst hoch angesetzt.

Im Einzelnen errechnen sich die Wirkungsgrade wie folgt:

– Stufe 2: H2O = H2 + ½ O2 -57 810 kcal/kmol
33/0,7 = 47 KWh/kg H2 (aktuelle Angaben: 40 bis 53 KWh/kg H2 – FAZ, 14.06.2023)
– Stufe 3: 1 X 0,9 = 0,9 kg H2 oder 47/0,9 = 52 KWh/kg H2
– Stufe 4: 52 KWh/kg H2/0,6 = 87 KWh/kg H2 (6)

Damit setzt sich die aufzubringende Stromleistung über Wind und Sonne am Beispiel Bild 5 wie folgt zusammen:

Gleichung 1: GW = GW aus Wind+Sonne unterhalb Mittelwert 40 GW/2 = 20 GW
Gleichung 2: GW = GW aus Wind+Sonne oberhalb Mittelwert 40 GW/2/0,4 = 50 GW
zusammen 70 GW,

d.h. der Energieaufwand über Wind und Sonne nur für die H2-Technik liegt bei 30 GW.

Vereinfacht dargestellt gilt für den Gesamtenergiebedarf über Wind und Sonne:

GW = 40 GW (Mittelwert) X 1,75 = 70 GW (Gesamtenergieverbrauch über Wind und Sonne) (Gleichung 3)

Stromspeicherung

Der nach Gleichung 2 oberhalb des Mittelwertes anfallende Strom bei einer Stromleistung von 50 GW über Wind und Sonne bzw. 1.200 GWh/Tag muss wegen des sporadischen Anfalles vor der Anwendung der H2-Elektrolyse gespeichert werden. (Für eine 10-tägige Windflaute 12 000 GWh).

Berechnung der H2-Menge und H2-Speicherung

Die genannte Leistung von 50 GW oder 1200 GWh/Tag wird bei der H2-Elektrolyse für folgende Verfahrensschritte benötigt:

Für die H2-Elektrolyse errechnet sich dann aus 648 GWh/Tag über 47 KWh/kg H2 eine H2– Menge von 13.800 t H2/Tag, die gespeichert werden müssen, da nicht davon auszugehen ist, dass der Wasserstoff sofort komplett verstromt werden kann. (Für eine 10-tägige Dunkelflaute ergeben sich 138 000 t H2).
Für die Berechnung der anfallenden H2-Menge aus der über dem Mittelwert
aufzubringenden Stromleistung gilt dann allgemein:
H2-Menge = GW aus Wind+Sonne (oberhalb Mittelwert) x1000 x 24 x 0,54/47 (Gleichung 4)
hier: H2-Menge = 50 x 1000 x 24 x 0,54/47 = 13 800 t/Tag oder jährlich 5 Mio. t H2

3. Erforderliche H2-Menge einschließlich der damit zwingend verknüpften Leistungserhöhung für die Stromerzeugung in 2030 auf der Basis von Habecks „Osterpaket“ vom 06.04.2022 (nur für die Stromerzeugung)

Am 12.05.2021 beschloss das Bundeskabinett nach einem nicht nachvollziehbaren Urteil des Bundesverfassungsgerichtes – wegen der angeblich nicht präzise genug festgelegten CO2-Maßnahmen zur Absenkung des CO2-Ausstoßes nach 2030 – einen schnelleren Umbau der Stromerzeugung: Klimaneutralität 2045, Minderung der CO2-Emissionen bis 2030 auf 65% gemessen an 1990.
Durch den Druck der Ereignisse (Ukraine- Krieg) und einer nicht gesicherten Gasversorgung wurde am 06.04.2022 eine weitere Energiewende beschlossen: Habecks „Osterpaket“ 2022 mit dem Ziel eines schnelleren Ausbaus der alternativen Energien bei der Stromerzeugung bis zunächst 2030 auf 80% über Wind und Sonne.
Im Einzelnen sollen Windanlagen mit einer installierten Leistung von 115 GW ans Netz, davon 30 GW über Wind offshore, und 215 GW über Solaranlagen – inzwischen werden auch höhere Leistungen gehandelt.
Stromleistungsbetrachtung für 2030 und Stromspeicherung
Werden die im „Osterpaket“ genannten, für 2030 vorgesehenen Anteile der erneuerbaren Energien in die Stromerzeugung eingerechnet, so ergeben sich unter Berücksichtigung der hier hoch angesetzten Nutzungsgrade für Wind offshore (35%), Wind onshore (25%) und Solar (10%) effektive mittlere Stromleistungen von 53,3 GW.(4)
Wird die für 2030 aus den alternativen Energien errechnete Stromerzeugung ergänzt durch die Stromerzeugung aus Biomasse von 10,8 GW (4), so ergibt sich eine mittlere Stromleistung von 53,3+10,8 = 64,1 GW.
Nun gelten die in Kapitel 2 dargestellten Regeln:
Der zwischen 330 GW und 53,3 GW (oberhalb Mittelwert) anfallende Strom aus Wind und Sonne nach Gleichung 1
GW = 64,1-10,8 (Bioenergie)/2 = 26,7 GW
muss nach dem 4-Stufenverfahren abgearbeitet werden nach Gleichung 2:
GW = (64,1-10,8)/2/0,4 = 66,7 GW .
Diese 66,7 GW bzw. 1600 GWh/Tag müssen nun für die Stromherstellung gespeichert werden – vgl. Kapitel 2.
Einschließlich der Leistung unterhalb des Mittelwertes von 53,3 GW
GW = 53,3 /2 = 26,7 GW
ergibt dann eine Gesamtleistung von 66,7 + 26,7 = 93,4 GW.
Der Energiebedarf nur für die H2-Technologie liegt dann bei
93,4 – 53,3 = 40 GW,
d.h. die aufzubringende Leistung für Wind und Sonne ist nicht mehr für 53,3 GW sondern für 93,4 GW zu haben.
Damit erhöht sich die Stromleistung in 2030 auf
93,4 GW aus Wind +Sonne +Wasserstoff
10,8 GW aus Bioenergie
104,2 GW
Nun wird der Kauf von E-Autos gepriesen, möglichst 15 Mio. bis 2030, was einer zusätzlichen Leistung einschließlich für die H2-Technologie von 33 GW bedarf. (6)
Auch der Aufwand für die Raumwärme bei Umstellung auf die H2-Technologie ist nicht unbeträchtlich: 105 GW.(6) (im Jahresmittel, ohne Berücksichtigung der Verhältnisse im Winter)
Wird bei dem Einsatz von Wärmepumpen von einer hoch angesetzten Leistungszahl von 3 ausgegangen, so würde die aufzubringende Leistung bei 35 GW liegen.
Damit läge dann in 2030 die aufzubringende Stromleistung insgesamt bei
104,2 + 33 + 35 = 172 GW, ein Wert, der die Aufnahmefähigkeit des Stromnetzes weit übersteigt.
Gemessen an der im „Osterpaket“ ausgegangenen Leistung von 64,1 GW ist das fast eine Verdreifachung.
Der Energiebedarf für die H2-Technologie für die Umstellung auf E-Autos und Wärmepumpen liegt dann bei
(33 + 35)/1,75 = 39 GW Aufwand über Wind und Sonne (Mittelwert)

68 – 39 = 29 GW Aufwand über Wind und Sonne für H2-Technologie (vgl. Kapitel 2)

Die zu speichernde Leistung über Wind und Sonne für die E-Autos und die Wärmeversorgung liegt dann bei 39/2 + 29 = 49 GW oder 1.180 GWh/Tag.
Damit liegt die insgesamt zu speichernde Strommenge für die Stromherstellung wie für die Umstellung auf E-Autos und die Wärmepumpe bei 1600 + 1180 = 2780 GWh/Tag

Berechnung der erforderlichen H2-Menge für 2030 und der H2-Speicherung

Der Aufwand für die H2-Erzeugung liegt in Summe nach Gleichung 4:
a) für die Stromerzeugung in 2030:
66,7 x 1000 x 24 x 0,54/47 = 18.400 t H2/Tag
b) für die Umstellung auf E-Autos und Wärmepumpen in 2030
(39/2 + 29) x 1000 x 24 x 0,54/47 = 13.500 t H2
Damit liegt die Summe bei 31 900 t/Tag oder jährlich bei 12 Mio. t H2

Die weltweit geplanten Elektrolyseprojekte werden für diese H2-Mengen in 2030 nicht ausreichen. (Die Produktionskosten alleine für die H2-Elektrolyse liegen z.Z. bei 7 Euro/kg H2 – FAZ, 14.06.2023)

Nach Aussage der Regierung soll bis 2030 eine H2-Leistung von 10 GW zur Verfügung gestellt werden, was aber nach

10 X 24 = 240 GWh/Tag oder 2.759 t H2/Tag (1 Mio. t /a)

nicht einmal 10 % des erforderlichen Verbrauches ausmacht.

Die Frage des Transportes von flüssigem Wasserstoff (-253°C) in speziellen Wasserstofftankern war bisher von untergeordnetem Interesse.
Der erste Tanker für flüssigen Wasserstoff wurde jüngst von Kawasaki Heavy Industrie entwickelt mit einem Fassungsvermögen von 1.250 m3. (Wikipedia)

Aber 1 m3 flüssiger Wasserstoff wiegt nur 70 kg. Das Fassungsvermögen dieses Tankers beträgt somit nur 87 t. (Der Energieaufwand für die Verflüssigung von Wasserstoff ist nicht unbeträchtlich: 45 MJ/kg H2 (8) bzw. 12,5 KWh/kg H2, was dann insgesamt einen Energieaufwand von insgesamt 87 + 12,5 = 100 KWh/kg H2 ausmacht).
Bei einem Jahresbedarf Deutschlands von flüssigen 12 Mio.t H2/a kann von einem merklichen H2-Transport über Tanker nicht ausgegangen werden – benötigt würden nämlich 138.000 Tanker.

Flüssiger Wasserstoff kann auch über grünes Ammoniak transportiert werden. Ammoniak hat eine höhere volumetrische Energiedichte und so kann über Ammoniak bei gleichem Volumen mehr Energie transportiert werden als in Form von flüssigem Wasserstoff.
In Afrika – von Marokko bis Südafrika – werden z.Z. eine Reihe von Kraftwerken, auch mit deutscher Hilfe, zur Erzeugung von flüssigem Wasserstoff gestartet.
Wie schrieb kürzlich die FAZ (17.05.2023): „Die Sonne scheint unermüdlich über Afrika, doch die Photovoltaik kommt nur schleppend voran.“
Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) prüft z. Z. die Umrüstung von Gasturbinen in Kraftwerke für den Betrieb mit klimaneutralem H2.
Das Steinkohlekraftwerk Gelsenkirchen-Scholven des Versorgers Uniper SE sollten bis Herbst 2022 durch den Bau einer Gas- und Dampf-Anlage (GuD) umgestaltet werden. Diese wird dann bis 2030 von der Befeuerung mit Erdgas auf die Nutzung von grünem H2 umgestellt werden.
Es sind also weder ausreichende Stromspeicher, noch ausreichende H2-Kraftwerke, noch H2-Speicher, noch H2-Transportmöglichkeiten für 2030 in Sicht – der umfangreiche Rückgriff auf Kohlekraftwerke ist unausweichlich, ohne die Stromleistungsschwankungen über Wind und Sonne von bis zu 30 GW/stündlich vertiefen zu wollen. (Bild 4)
Bei diesem Stand der Technik macht eine Kostenbetrachtung keinen Sinn. BloomNEF erwähnt Kosten bis 2030 für die Umstellung auf die H2-Technologie von etwa 1 Billion Dollar.

4. Erforderliche H2-Menge für die Einstellung der Klimaneutralität in 2045 nach Umstellung aller Sektoren auf die H2-Technologie

Aus der Berechnung der erforderlichen H2-Menge für die Umstellung der Stromerzeugung auf die H2-Technologie in 2030 lassen sich nun die unermesslichen H2-Mengen für die Umstellung aller Sektoren erahnen.
Im Wesentlichen zählen zu den Sektoren die Energiewirtschaft, Verarbeitendes Gewerbe, Verkehr, Haushalte und Kleinbetriebe, Militär und weitere kleine Quellen.
Klimaneutralität bedeutet den Abbau aller z.Z. erzeugten CO2-Emissionen in den einzelnen Sektoren von insgesamt 675 Mio. t/a (2021) auf null.
In 2021 lag der Anteil der erneuerbaren Energien im Primärenergieverbrauch gerade einmal bei 16% (61 GW), davon über Wind und Sonne 17,5 + 7,6 = 25,1 GW, der Anteil der übrigen auf Wind und Sonne umzustellenden Energieträger (Sektoren) bei 319 GW. (5) In Summe müssen dann in 2045 319 + 17,5 + 7,6 = 344 GW über Wind und Sonne erzeugt werden.
Stromleistungsbetrachtung für 2045 und Stromspeicherung
Analog zu den Ausführungen in Kapitel 2 müssen dann für die H2-Technologie
GW = GW aus Wind und Sonne/2 (Gleichung 1)
GW = 344/2 = 172 GW (oberhalb des Mittelwertes) und schließlich nach Gleichung 2
GW = 344/2/0,4 = 430 GW herhalten.
Es müssen also 430 GW oder 10 320 GWh täglich gespeichert werden (ohne Dunkelflauten).
Der Leistungsaufwand nur für die H2-Technologie liegt dann bei
430 – 172 = 258 GW
Damit werden aus den 344 GW durch die aufwendige H2-Technologie
172 (unterhalb Mittelwert) +430 = 602 GW.
Gemessen an der Stromleistung von z.B. etwa 60 GW bedeutet die aufzubringende Stromleistung für alle Sektoren eine Verzehnfachung.
(In einer früheren Ausarbeitung waren diese Berechnungen bei dem Stand der Energiewende in der ersten Hälfte 2021 schon einmal für die wichtigsten Sektoren mit dem Ergebnis eines erforderlichen Strombedarfes von 455 GW errechnet worden). (6)
Berechnung der erforderlichen H2-Menge und der H2-Speicherung
Für die Berechnung der H2-Menge wie der Speicherung gilt Gleichung 4:
430 x 1000 x 24 x 0,54/47 = 118 570 t H2/Tag bzw. jährlich 43,3 Mio. t H2.
Es ist ein Rätsel, wo diese H2-Mengen herkommen sollen, von Tausenden Elektrolyse-Geräten abgesehen. Das Gleiche gilt für die notwendigen Schiffe für den Transport von flüssigem Wasserstoff von jährlich 43 Mio. t H2, wenn der neueste Tanker ein Fassungsvermögen von 87 t H2 aufweist, nämlich 138.000 Tanker.

5. Schlussbetrachtung

Die Ökoideologen werden entgegen aller Realitäten ihre seit Jahren propagierte Weltuntergangsszenarien weiter predigen, obwohl alle vom IPCC publizierten Modellbetrachtungen zum Einfluss von CO2 in der Atmosphäre auf die Temperaturentwicklung auf der Erde auf dem Gesamt-CO2-Gehalt der Atmosphäre beruhen und nicht auf dem geringen anthropogenen CO2-Eintrag. Alle Modellaussagen zum Einfluss des menschlichen CO2-Beitrages zur Atmosphäre und dessen Einfluss auf die Temperatur entbehren damit einfachster Grundlagen. (7)
Das IPCC wird diese Fakten nicht zur Kenntnis nehmen, wohlwissend, dass die Kenntnis anderer natürlicher Einflussgrüßen auf das Klima die notwendige Panik für das Fließen der Gelder für die Tausenden Klimaforscher, all die von der Klimaangst profitierenden Einrichtungen und nicht zuletzt für die Medien beenden würde.
Die Folge ist eine religiös verblendete Jugend, die sich ahnungslos dieser CO2-Angstvorstellung hingibt und noch nicht kapiert hat, dass sie bald Opfer ihrer eigenen Umtriebe sein wird. („60% der Wähler der USA glauben, dass der Klimawandel zu einer Religion geworden ist“ (9))
Diese Angst führte bereits zu einem Rückbau der Kraftwerke auf der Basis von C-Trägern zugunsten einer ständigen Zunahme der Stromerzeugung über Wind und Sonne (die Kernkraftwerke wurden inzwischen auch geschlossen).
Da aber die Zufallsenergien Wind und Sonne vermehrt Stromspeicher erfordern, musste zunächst Erdgas her, um die Lücken zu schließen, was zu erhöhten Strompreisen führte (Merit-Order), später auch bedingt durch den Ukraine -Krieg.
Auch die Preise für Gas sind damit erwartungsgemäß stark angestiegen. Eine massive Abwanderung der deutschen Industrien und eine Verarmung der Menschen mit allen Konsequenzen hat begonnen. Jeder 6. Industriebetrieb wandert in Teilen aus Deutschland ab. (FAZ, 06.06.2023)
Da Erdgas im Sinne der Klimaneutralität in 2045 keine Lösung bietet, muss nun die H2-Technologie her.
Die hier ermittelten Zahlen für die Umsetzung auf die H2-Technologie sind nur noch peinlich und es stellt sich die Frage nach der Beschäftigung all dieser Denkfabriken in Deutschland wie Ökoinstitut, Fraunhofer Institut, Agora, etc. einschließlich der vielen Staatssekretäre.
In einer Interessen-geleiteten Klimawissenschaft und einer abhängigen Medienlandschaft haben unabhängige Darstellungen kaum keine Chance. Stattdessen leben wir nicht nur in einer gepriesenen geschönten Wirklichkeit sondern auch in einer ausgemachten Interessenpolitik bzw. in einem hausgemachten Chaos.

6. Quellen

1. Schuster, R.: Mitteilung vom 04.01.2022
2. Schuster, R.: Mitteilung vom 02.07.2021
3. Schuster, R.: Mitteilung vom 19.05.2022
4. Beppler, E.: „Eine technische Analyse von Habecks „Osterpaket“ zum schnelleren Ökostromausbau“; EIKE, 04.06. 2022
5. Beppler, E.: „Ein hoffnungsloser Aufwand für die Klimaneutralität in 2045 für eine nicht messbare CO2-Konzentration (Teil 1)“, EIKE, 12.09.2022
6. Beppler, E.: „Die Anwendung der H2-Technologie in allen Sektoren verschlingt unlösbare Mengen an Energie und Flächen“, EIKE, 14.07.2021
7. Beppler, E.: „Eine Widerlegung der zur Rechtfertigung der Klimaneutralität (Zero Carbon) erhobenen Forderungen des „Weltklimarates“; EIKE, 23.04.2023
8. Bossel, U.: European Fuel Cell Forum, Karlsruher Institut für Technologie, 01.04.2006; abgerufen am 31.05.2022
9. May, A.: „Ist AR6 der schlechteste und verzerrteste IPCC-bericht“, EIKE, 19.05.2023

 




Das nicht passende Klimapanikpuzzle – von Markus Fiedler, Teil 2

CO2–Steigerung von 1850 bis heute, gibt es die?

von Markus Fiedler, auf Apolut.net

Ernst Georg Beck, ein inzwischen verstorbener Diplombiologe und Lehrer hat in einer zusammenfassenden wissenschaftlichen Arbeit über chemische Konzentrationsmessungen im 19. und 20. Jahrhundert ein aufsehenerregendes Ergebnis zusammengetragen.

Die Arbeit trägt den Titel „180 Years of Atmospheric CO2 – Measurement By Chemical Methods“, ist als Veröffentlichung in der Zeitschrift „Energy & Enviroment“ im Jahr 2007 erschienen und hat damit den Peer-Review-Prozeß erfolgreich durchlaufen. Das heißt, daß in dieser Arbeit von Fachleuten keine gravierenden Fehler gefunden wurden.

Teils 1 der Reihe hier.




Climategate geht weiter

Dr. Andreas Müller

Der ClimateGate-Skandal erschütterte 2009 kurzzeitig die Klimawissenschaft.
Die Absenkung und Entfernung alter Hitzerekorde geht aber weiter und neue Rekorde sind in Deutschland leichter geworden.

Im Jahr 2009 begann der sogenannte ClimateGate-Skandal, als die eMails eines englischen Klimaforschungsinstituts gehackt und veröffentlicht wurden:

Die veröffentlichten eMails legten nahe, dass Temperatur- und andere Klimadaten nicht nur in Einzelfällen, sondern mit gängigen „Tricks“ routinemäßig manipuliert wurden. Außerdem diskutierten die hochrangigen „Forscher“ Möglichkeiten, wie sie die Herausgabe ihrer Rohdaten an die Öffentlichkeit vermeiden konnten. Eine schöne Sammlung und Bewertung ausgewählter eMails findet sich in diesem PDF. Ein Beispiel:
„Ich habe gerade Mikes Nature-Trick genutzt, indem ich die tatsächlichen Temperaturen bei jeder Serie der letzten 20 Jahre (also ab 1981) und bei den Daten von Keith ab 1961 mit berücksichtigt habe, um den Rückgang zu verbergen“

Der Veröffentlichung der E-Mails folgte unmittelbar die Relativierung:

Die „peinlichen“ E-Mails seien „ungeschickt“, aber kein Game Changer.
Ungeschickt war vielleicht, dass sie so geschrieben wurden – ohne Vorsicht für den Fall, dass sie bekannt werden könnten. Gerade deshalb konnten sie aber die Geisteshaltung in der Arbeit der Klimaforscher zeigen.
Und so ging dann auch die offizielle „Untersuchung“ der Vorgänge weiter:
„Den Forschern sei wissenschaftlich wenig vorzuwerfen, auch der seit Aufkommen der Affäre im November immer wieder kritisierte Umgang mit Temperaturrekonstruktionen aus Baumjahresringen sei angemessen gewesen. Allerdings wurde die statistische Auswertung moniert“

Der Vorwurf, dass die Untersuchung den Umgang mit den Daten reingewaschen (whitewashed) habe, wurde selbst in kritischeren Artikeln zurückgewiesen:

Dort war dann etwa zu lesen, dass diese führenden Klimaforscher den wissenschaftlichen Diskurs behindert hätten, indem sie sich absprachen, kritische Arbeiten in Peer Reviews zu blockieren und Journale, die diese Arbeiten veröffentlichen, auf eine schwarze Liste zu setzen!

Faktenchecks und Wikipedia stellen heute jedenfalls fest, den Wissenschaftlern sei nichts vorzuwerfen gewesen. Es sei nur ein kleiner Hackerzwischenfall gewesen, die eMails falsch interpretiert, von bösen Klimaleugnern natürlich.

Überarbeitung von alten Messdaten ist Realität

BEISPIEL 1: Messdaten von Hohenpeißenberg

Hohenpeißenberg, 60 Kliometer südwestlich von München, ist das Bergobservatorium mit der längsten Temperaturhistorie der Welt. In einer Veröffentlichung von 1997 veröffentlichte der spätere Leiter des Observatoriums Wolfgang Fricke, diese Grafik der in Hohenpeißenberg gemessenen Temperatur von 1781-1995:

Was diese Grafik zeigt, ist für die Klimadebatte einigermaßen spektakulär:
Zwar stieg die Jahresdurchschnittstemperatur in Hohenpeißenberg von 1890 bis 1995 von ca. 5,7 auf 6,7°C, also um etwa ein Grad. Aber um etwa 1790 war sie etwa ebenso hoch gewesen wie 1995. Der Erwärmung der letzten 100 Jahre hatte also nur die Abkühlung der 100 Jahre davor wieder ausgeglichen.

Der Deutsche Wetterdienst veröffentlichte vor einiger Zeit diesen Temperaturverlauf für Hohenpeißenberg:

Temperaturhistorie Hohenpeißenberg heute: sehr nahe am Hockey-Stick

Eine Montage beider Grafiken in eine wurde von Katharina Münz erstellt:

Die Bearbeitung der Daten wird vom DWD bestätigt und in dieser Veröffentlichung (ausgerechnet aus dem ClimateGate-Jahr 2009) erläutert. Die Originaldaten wurden in dieser Weise modifiziert:

Begründung sei ein Fehler in den 1781-1850 verwendeten Thermometern, der schon im 19. Jahrhundert entdeckt, aber nicht angemessen behandelt worden sei. Für die Korrekturen von 1879-1900 ist eine andere Fehlerquelle verantwortlich. Gleichzeitig wurden die Temperaturdaten aller DWD-Stationen, die baugleiche Thermometer verwendeten entsprechend abgesenkt, mehr als 150 Jahre, nachdem die Messungen durchgeführt und ins Protokoll geschrieben wurden.

Beispiel 2: Der Rekord im Death Valley

Das Death Valley in der Mojave-Wüste im US-Bundestaat Kalifornien ist der trockenste Nationalpark der USA und ein Hitzepol der Welt. Im Jahr 1913 wurde dort die höchste bisher gemessene Temperatur auf der Erdoberfläche gemessen. An dieses Ereignis hat die Süddeutsche Zeitung 100 Jahre später erinnert:

2013: Süddeutsche Zeitung erinnert an den Temperaturrekord von 1913

Im Jahr 2020 hat dieselbe Süddeutsche jedoch einen neuen Temperaturrekord verkündet:

Wie kann das sein, dass eine 2,3°C niedrigere Temperatur einen neuen Rekord bedeutet? Die Süddeutsche Zeitung schreibt:

„Im Juli 1913 sollen im Death Valley 56,7 Grad Celsius gemessen worden sein. Doch an diesem Wert gibt es Zweifel; das damalige Messgerät ist mit den viel präziseren, heutigen Messinstrumenten nicht zu vergleichen. Auch der offiziell zweithöchste Wert, 55 Grad in Tunesien im Jahr 1931, wird von Meteorologen seit einiger Zeit kritisch gesehen. Der vergangene Sonntag könnte also als heißester Tag seit Beginn der Messungen in die Geschichtsbücher eingehen, sollte die WMO die alten Messungen für ungültig erklären – was sie bei anderen vermeintlichen historischen Rekordmessungen bereits getan hat“

Wie man dem Wikipedia-Eintrag entnimmt, ist der alte Rekord bis heute wohl noch nicht für „ungültig“ erklärt. Dort heißt es:
„Jedoch führen einige Meteorologen dieses Ergebnis, gestützt durch neuere Untersuchungen, auf einen Beobachtungsfehler zurück“
Dafür wird nur eine Veröffentlichung angegeben, die auch formuliert, dass 2020 ein neuer Rekord gemessen worden sein könnte. Die beiden Zweifler heißen Burt (er schrieb es in einem Blog) und Herrera. Sie zweifeln sowohl am alten als auch am neuen Rekord, und genau Burt bezweifelt auch den tunesischen Zweitplatzierten. Mehr ist da nicht. Im Artikel heißt es noch, dass es „kein Interesse“ gebe, die alten Rekorde in Frage zu stellen und dass so ein Verfahren lange dauere. Alles in allem ist es nicht viel mehr als eine Einzelbehauptung in einem Blog, die die Süddeutsche Zeitung veranlasst hat, einen neuen Rekord groß zu verkünden und nur im Kleingedruckten zu erwähnen, dass er stark im Konjunktiv steht. Der Autor tat so, als seien die alten Rekorde aus dem Death Valley und Tunesien schon so gut wie gestrichen: Wunschdenken?

Zweifel an neuen Messungen

Im Jahr 2015 erschien in der Augsburger Allgemeinen ein lesenswertes Interview mit dem Meteorologen Klaus Hager (Sicherungskopie hier). In diesem Interview behauptet der Meteorologe:

Über dem Artikel hat die Augsburger Allgemeine einen „Hinweis“ hinzugefügt:
„Hinweis: Dieser Artikel wird aktuell einmal mehr massiv in sozialen Netzwerken verbreitet. Wir weisen deshalb darauf hin, dass dieser Bericht aus dem Jahr 2015 stammtund möglicherweise veraltet ist bzw. nicht den aktuellen Stand der Dinge widerspiegelt. Der Deutsche Wetterdienst hat in der Zwischenzeit eine Stellungnahme zu dem Text veröffentlicht

Als ob das Alter von einigen Jahren etwas an der Brisanz der Aussagen ändern würde!
Man Vergleiche das mit dem Eichfehler, den der Meteorologe in Hohenpeißenberg im Jahr 1850 entdeckt hat und den der DWD dann fast 160 Jahre später in zahlreiche Messreihen eingearbeitet hat. Was Haager beschreibt, ist nichts anderes als eine Eichmessung, die einen Eichfehler zeigen würde. Diese Messungen wurden im Rahmen einer Diplomarbeit durchgeführt, die er selbst betreut hat. War die Eichmessung von 1850 mehr wert? Immerhin beschreibt die Arbeit von Peter Winkler eine komplexe Serie nachträglicher und theoretischer Überlegungen zur damaligen Eichmessung, an deren Ende dann die Korrektur vieler Temperaturdaten stand.

In der Stellungnahme zu Haagers Interview macht der DWD aber folgendes Zugeständnis:
„Der Vergleich der Extremwerte zeigte, dass die automatischen Messungen bei hohen Maxima etwas größere Werte liefern als die manuellen Messungen und bei niedrigen Minima etwas niedrigere Messwerte„

Einerseits ist daran zu kritisieren, dass keine Angabe gemacht wird, wie groß denn diese Unterschiede bei Extremwerten ausfallen (können). Das wäre eine wichtige Angabe im Vergleich zu den 0,9°C von Haager aber auch zu den 0,6°C von 1850 in Hohenpeißenberg. Die Angabe „etwas“ ist verdächtig vage gehalten.
Andererseits kompensieren die erniedrigten Minima nicht die erhöhten Maxima in einer Zeit, in der Medien (wie die Süddeutsche Zeitung, siehe oben) vor allem darauf scharf sind, Hitze-Maxima der Gegenwart zu verkünden und solche der Vergangenheit in Frage zu stellen.
Die Chance, Temperaturrekorde für Deutschland zu verkünden, ist durch die Umstellung der Messtechnik also objektiv erhöht worden. Man wüsste schon gerne um wieviel!

Fazit

Es wird in der Klimaforschung und Meteorologie auch daran gearbeitet, alte Temperatur-Messungen abzusenken, nicht heimlich als Trick, über den nur in eMails „ungeschickt“ gesprochen wird wie bei ClimateGate, sondern ganz offiziell. Ich habe hier ausreichend dokumentiert, dass im Ergebnis alte Hitzerekorde abgesenkt oder wegdiskutiert und neue Hitzerekorde leichter möglich werden.
Und insbesondere manche Medien verraten ein großes strukturelles Bedürfnis danach, alte Temperatur-Rekorde zu streichen und neue zu verkünden.
Der Grund ist naheliegend: beides stärkt das Narrativ, dass es heute so heiß sei wie noch zuvor, nicht nur im Death Valley, sondern auf der ganzen Welt. Langfristig sind das schlechte Karten für die Hitzerekorde von 1913 im Death Valley und von 1931 in Tunesien.

„Wer die Vergangenheit beherrscht, beherrscht die Zukunft. Wer die Gegenwart beherrscht, beherrscht die Vergangenheit“ George Orwell

Nachtrag 8.5.2023
Ich hatte versucht, die Original-Veröffentlichung im Promet-Magazin zu finden, in der Wolfgang Fricke, die Grafik zur Temperaturhistorie von Hohenpeißenberg veröffentlicht hatte. Diese Veröffentlichung aus einer Zeit, in der der Kampfbegriff der „Klimaleugnung“ noch gar nicht erfunden war, ist sehr wertvoll. Katharina Münz hat das Promet-Heft jetzt gefunden! Vielen Dank! Ich stelle das gute Stück jetzt auch hier bereit.

Dieses Dokument aus einer Zeit, als der Begriff ‚Klimaleugner‘ noch gar nicht erfunden war, konnte ich deshalb jetzt auch oben im Beitrag verlinken.
Die fachliche Redaktion des Heftes hatte im Jahr 1997 offensichtlich derselbe Peter Winkler, der 12 Jahre später die Arbeit zur Überarbeitung der Messdaten veröffentlicht hat. Und über Teile dieser Arbeit, z.B. die veränderten Ablesezeiten, schrieb Wolfgang Fricke ebenfalls schon etwas 1997 in dieser Veröffentlichung. Das sollte ein etwas genaueres Studium wert sein.

Nachtrag 9.5.2023
Hintergrund zur Temperaturhistorie

Tweet

Nachtrag 12.5.2023
Hier ein interessantes Video zum Thema.

Die Ergebnisse aus den Eisbohrkernen von Grönland und andere würden also sehr gut zur alten, unbearbeiteten Messreihe von Hohenpeißenberg passen.

Dieser Beitrag erschien zuerst auf dem Blog des Autors hier.

Von Prof. Ganteför gibt es dazu dieses Video sowie ein weiteres von vor drei Jahren.