Moderne historische Temperaturen

Beginnen möchte ich mit der Erläuterung, wo Colle Gnifetti überhaupt liegt. Das Ungewöhnliche an diesem Eisbohrkern ist nämlich, dass er aus Europa stammt, genauer aus den Alpen auf der Grenze zwischen Italien und der Schweiz.

Abbildung1: Orte, aus denen die in der Studie untersuchten Eisbohrkerne stammen.

Das ist gut, weil es in Europa einige der längsten Temperaturreihen aufgrund von Thermometermessungen gibt.

Interessant an diesem Standort ist, dass Eiskernbohrungen normalerweise an den buchstäblichen Enden der Erde, in der Antarktis und in Grönland und so weiter, erfolgen. Aber diese Stätte liegt nicht weit von der Margherita-Hütte entfernt in einer Höhe von über 4500 Metern.

Abbildung 2. Die beste Werbung aller Zeiten für den Beruf des Glaziologen.

Nun wollte ich sehen, wie gut die Eiskernaufzeichnungen mit den Temperaturaufzeichnungen übereinstimmen. Also berechnete ich drei Datensätze aus dem Berkeley Earth Festlands-Datensatz. (Ich habe den Festlands-Datensatz verwendet, weil ich mit einer Stelle an Land vergleiche. Es besteht jedoch nur ein minimaler Unterschied zur Verwendung ihres „Land- und Ozean“-Datensatzes).

Der erste von mir berechnete Datensatz ist die globale Temperaturanomalie. Der nächste Datensatz ist die Temperaturanomalie der nördlichen Hemisphäre. Schließlich betrachtete ich eine ungefähr quadratische Gitterbox von 6° Länge und 4° Breite um Colle Gnifetti selbst.

Merkwürdigerweise passen von diesen drei am besten die Daten der Nordhalbkugel zu den Aufzeichnungen von Colle Gnifetti. Abbildung 3 unten zeigt den Vergleich. Ich habe die Eiskerndaten linear angepasst, um die beste Übereinstimmung mit den Daten Berkeley Earth zu erzielen.

Warum die lineare Anpassung? Weil die Varianz einer einzelnen Eiskernaufzeichnung an einem Ort hoch oben auf einem Berg anders ist als z.B. die Varianz der durchschnittlichen Festlands-Temperatur auf der Nordhalbkugel. Dies erlaubt es uns, die Aufzeichnungen auf der gleichen Skala zu vergleichen.

Hier ist also der Vergleich zwischen Thermometerdaten und dem jüngstenen Ende der Colle Gnifetti Eiskerndaten. Die Datenquellen sind in der Grafik aufgeführt.

Abbildung 3. Temperaturen von Berkeley Earth nur auf dem Festland und Eiskerntemperaturen von Colle Gnifetti. Die Eiskerntemperaturen wurden linear angepasst, um die beste Anpassung an die modernen Daten zu erzielen, indem sie mit etwa 1,6 multipliziert und etwa 0,2°C abgezogen wurden. Im Hintergrund erkennt man die Bohrhütte am Colle Gnifetti.

Ich liebe es, wenn sich zwei völlig unterschiedliche Datensätze auf so hervorragende Weise aneinanderreihen. Meine Einschätzung ist, dass der Eiskern von Colle Gnifetti die Temperatur auf der Nordhalbkugel sehr gut reflektiert. Die einzige wirkliche Anomalie ist neueren Datums, wenn die beiden divergieren. Keine Ahnung, woran das liegt. Die Antwort kann in beiden Datensätzen liegen. Aber man beachte die ausgezeichnete Übereinstimmung der großen Spitzen und Schwingungen im früheren Teil des Datensatzes an.

Jetzt, da wir den Paläodatensatz mit dem modernen Datensatz und der Varianz abgeglichen haben, können wir einen Blick auf die Aufzeichnung der Temperaturschwankungen im Eiskern über die gesamte Zeitspanne der Daten werfen.

Abbildung 4. Colle Gnifetti Eiskerntemperatur, linear angepasst an das Best Fit aktueller Daten, wie in Abbildung 3 dargestellt. Der Hintergrund ist das Bohrgebiet, unten rechts ist die Bohrhütte bei Colle Gnifetti.

Dies ist ein äußerst faszinierender Temperaturdatensatz. Man erkennt die langsame Abkühlung von etwa 1400-1500 an in die Kleine Eiszeit sehen, die um 1700 ihre Talsohle erreicht hat.

Interessant ist auch der Gesamtbereich der schnellen Temperaturschwankungen. Zum Beispiel fiel die Temperatur in den fünfzig Jahren von 1190 bis 1240 um 2,3°C.

Und die Steilheit der natürlichen Erwärmungstrends ist aufschlussreich. In 35 Jahren, von 850 bis 885, stieg die Temperatur um 2,3°C.

Um einen weiteren Blick auf Erwärmung und Abkühlung zu werfen folgt hier ist eine Grafik der dreißigjährigen Abfolge der Trends in den Daten.

Abbildung 5. 30-jährige Abfolge der Temperaturaufzeichnung des Eiskerns von Colle Gnifetti.

Die aktuelle 30-jährige Abfolge der Temperaturtrends bewegen sich in der Größenordnung von 0,1 – 0,2°C/Dekade. Aber wie man sieht, ist diese Erwärmungsrate in der Aufzeichnung kaum ungewöhnlich. Tatsächlich war der Trend in der Aufzeichnungsperiode zweimal viermal so groß wie in der Neuzeit. Und die aktuelle Erwärmungsrate wurde in der Vergangenheit schon viele Male überschritten.

Also … welche Art von Schlussfolgerungen und Fragen können wir aus den Daten ziehen? Hierzu noch einmal Abbildung 4 von oben:

Abbildung 4 (Wiederholung)

Erstens: Was zum Teufel hat die großen Temperaturschwankungen verursacht? Der frühere Teil dieser Paläo-Aufzeichnung zeigt Schwingungen, die sowohl viel größer als auch viel schneller erfolgten als alles, was es in der heutigen Zeit gibt. Nennen Sie mich verrückt, aber auf einem Planeten mit natürlich auftretenden Erwärmungen von z.B. über zwei Grad C innerhalb von 35 Jahren von 850 auf 885 sehe ich nicht, wie man solche natürlichen Schwankungen ausschließen kann, wenn man sich die relativ unscheinbare und sicherlich in keiner Weise anomale moderne Aufzeichnung ansieht.

Damit komme ich zu meiner Empfehlung für den Bereich der Klimawissenschaft – man höre endlich auf, die Zukunft zu projizieren, und beginne über die Vergangenheit nachzudenken. Solange wir nicht erklären können, warum die Temperaturen um das Jahr 1200 herum abstürzten, in nur fünfzig Jahren um 2,3°C sank, um dann genauso wieder zu steigen, haben wir KEINE GRUNDLAGE FÜR IRGENDWELCHE PROJEKTIONEN!

Aber ich schweife ab … als nächstes sehen wir in den Daten eine Erwärmung ab dem Ende der Kleinen Eiszeit, also etwa ab dem Jahr 1700. Sie tritt in zwei Wellen auf. Der erste Temperaturanstieg, von etwa 1700 bis 1790, ist sowohl schneller als auch stärker als der nachfolgende Anstieg von etwa 1820 bis zur Gegenwart.

Tatsächlich ist der derzeitige Temperaturanstieg, angeblich durch CO2 angeheizt, der langsamste Anstieg der verschiedenen längerfristigen Temperaturanstiege in dieser Paläo-Aufzeichnung. Jeder andere Temperaturanstieg ist steiler. Ich dachte, dass CO2 angeblich für eine schnellere Erwärmung verantwortlich sein sollte, aber hier draußen in der realen Welt gibt es eine langsamere Erwärmung.

Weiter. In diesem Eiskernrekord herrschte zum Höhepunkt der späteren „Mittelalterlichen Warmzeit“ um 1190 ungefähr die gleiche Temperatur wie heute. Die frühere Wärmespitze um das Jahr 920 ist jedoch etwa ein halbes Grad wärmer ausgefallen. Es scheint, dass die gegenwärtigen Temperaturen nicht so ungewöhnlich sind, wie oft behauptet wird.

Zum Schluss noch die Vorbehalte. Der wichtigste Vorbehalt ist die zugrunde liegende Annahme der Invariabilität – dass ceteris paribus die Vergangenheit nach den gleichen Regeln funktioniert wie die Gegenwart.

Um zum Beispiel das jüngere Ende der Eiskerndaten linear so anzupassen, dass es am besten zu den modernen Temperaturdaten passt, multipliziert man es mit etwa 1,6 und subtrahiert etwa 0,2. Die obige Abbildung geht davon aus, dass Gleiches auch in der Vergangenheit zutrifft. Dies ist eine sehr vernünftige Annahme, wir kennen keinen Grund, warum es nicht so sein sollte … und doch …

Nächster Vorbehalt? Es ist nur eine einzelne Studie. Ich würde mich freuen, wenn die eine Auflösung von zwei Jahren ermöglichenden verbesserten Verfahren mehr genutzt würden.

Angesichts dieser Vorbehalte finde ich den Datensatz jedoch sehr aufschlussreich.

Hier an der nordkalifornischen Küste ist der Sommer in vollem Gange. An vielen Tagen heizen sich die Täler im Landesinneren auf. Die erwärmte Luft steigt auf und zieht kühle, feuchte Luft aus dem kalten, nahen Ozean an. Dies kühlt die gesamte, dem Meer zugewandte Seite des Küstengebirges ab, einschließlich unserer paar Hektar … so dass es heute hier kühl und neblig ist.

Die lokale Symmetrie gefällt mir sehr gut. An einem Ort wird es wärmer … und an einem anderen kälter. Wunderbar.

Ergänzung: Es ist sehr instruktiv, die gelisteten Temperaturen mit den Daten hier zu vergleichen: A Chronological Listing of Early Weather Events.

Link: https://wattsupwiththat.com/2020/07/24/ancient-temperatures/
Übersetzt von Chris Frey EIKE




Strom-Wasserstoff­umwandlung macht u.a. dann Sinn, wenn es darum geht, sehr teuren Strom zu erzeugen …

Nach 20 Jahren EEG fällt unserer Politik eine Lösung ein, die allerdings erst noch entwickelt werden muss

Deutschland fährt mit dem EEG sein Stromversorgungssystem erkennbar konsequent an die Wand. Die Abschaltung der Grundlastkraftwerke ist beschlossen, wie solche dann aber bereitgestellt werden soll, ist nicht bekannt. Man erkennt, dass die von der (angeblichen) „Energiefachfrau“ C. Kemfert propagierte Lösung: Wir brauchen gar keine Grundlast, denn „intelligente Netze“ lösen das Problem, zwar hilft, die „Intelligenz“ aber darin besteht: Ist kein Strom da, gibt es eben auch keinen. Und wer dann doch einen will, hat dafür hohe Kosten zu bezahlen, besser, den benötigten vorsorglich selbst zu speichern. Richtig „intelligent“ wird dann nur die konsequente Auflistung und Abrechnung der Zusatzkosten.
Irgendwie scheint man das den Bürgern (noch) nicht als die grandiose Lösung (un)intelligenter Politik zumuten zu wollen. Dafür gibt es doch noch zu viele nicht-GRÜN Wähler.
Obwohl unsere Versorger kein Problem damit haben, diese „intelligente“ Mangelverwaltung ihren Kunden als Zukunftslösung bereits anzupreisen und Vertriebsfirmen dazu gründen:
EIKE 18.05.2017: [13]Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

Könnte die ehemalige DDR das Strategie-Vorbild sein?

Nun haben solche, auf stetigem Mangel basierenden Versorgungsmodelle in der ehemaligen DDR gut funktioniert, zumindest bis zu dem Zeitpunkt, als es zu vielen Bürgern dann doch „auf den Keks“ ging. Das lag aber nach heutiger Lesart nicht am Lösungssystem, sondern an der damals noch fehlenden „Intelligenz“. „Intelligent“ Mangel zu haben, ist deshalb die politisch gewollte Zukunftslösung.
Unsere unfehlbare Kanzlerin wurde in und mit einem solchen System sozialisiert. Ein Gedanke drängt sich deshalb auf: Hat sie das Ziel, nun ganz Deutschland in solche – für sie aufgrund ihrer dortigen Sozialisierung „heimelige“ – Verhältnisse zu bringen?
Herr Thomas Kreuzer von der CSU erzählte es etwas höflicher ausgedrückt im BR24 Sonntagsgespräch [8] [9]. „Kompetent“, wie unsere Politiker heutzutage durchgängig sind, konnte er allerdings einige der gelisteten Probleme verneinen, weil er die sicher greifende Lösung wusste: Man muss nur noch die erforderliche Technik entwickeln:
Thomas Kreuzer: [8]Wir müssen also … die Maßnahmen so wählen, dass wir Erfolg haben, und dies ist meines Erachtens nur durch einen Durchbruch in der Technik möglich. Und wenn es nicht gelingt, Energie zu speichern, was wir im Moment nicht können … zum Beispiel mit Wasserstoff, dann wird es ganz, ganz schwierig, die Ziele zu erreichen …

Eine seit über 30 Jahren nicht in die Gänge gekommene Technologie wird es nun richten

Nun ist die Wasserstofftechnologie schon „uralt“ und an der Brennstoffzellentechnologie wird seit mindestens 30 Jahren entwickelt. Und diese letzten Dreißig Jahre hat es erkennbar keinen Durchbruch gegeben.
Geradezu ein Veteran ist dieser Technologie ist die Firma Ballard Power. Auch damals geschah etwas Ähnliches – und scheiterte gnadenlos. Der Aktienkurs erzählt lückenlos diese Geschichte, deren Wiederholung nun ansteht:

Bild 1 Kurs Ballard Power seit Beginn des ersten Brennstoffzellenbooms Ende des letzten Jahrhunderts


Aber Politiker wissen inzwischen: Probleme liegen grundsätzlich nur daran, dass nicht genügend Geld ausgegeben wurde.
Also wurde der sichere Kardinalfehler behoben und den Versprechern der endlich richtigen Lösung Geld in Hülle und Fülle locker gemacht.
Damit soll die doch plausible Rechnung gelingen: Wenn eine weibliche Person 9 Monate benötigt, um ein Kind zu gebären, brauchen 9 weibliche Personen nur noch einen Monat (genau das umzusetzen, probiert die EU schon mal unter der Ärztin v. d. Leyen mit ihrer Corona-Impfstoffkampagne). Bei der Wasserstoffstrategie hat diese einfache Divisionsrechnung noch einen zusätzlichen Haken: Das verfügbare (Technologie-)„Sperma“ weist unglaubliche Mängel auf, die – um es mit einem Vergleich zu sagen – mit Sicherheit zu einer Problemschwangerschaft und Geburt eines*r stark bis schwerst-Behinderten führen.

Aiwanger präsentiert eierlegende Wollmilchsau [6]

In einem Video informierte Wirtschaftsminister Aiwanger in seiner unnachahmlichen Art und niederbayerischen Präzision über die neue, bayerische Wasserstoffstrategie:
H. Aiwanger ab 00:44: Russland würde uns Wasserstoff in beliebigen Mengen zu günstigen Preisen liefern können. Wir denken an Nordafrika. Es kann Marokko sein. Und es sind große, internationale Herkünfte von Australien bis Chile in der Debatte.

Bild 2 BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie. YouTube Link


Während sonst alles Mögliche nun verstärkt lokal erzeugt werden soll, bis herunter zur Virus-Schutzmaske, ist es nun besonders strategisch, mit das Wichtigste, was ein Technologieland benötigt: Seine Energie, auszulagern und rund um die Welt – mit Schwerpunkt Afrika (lt. Entwicklungsminister Müller) – einzukaufen und dazu über weiteste Strecken zu transportieren.
Natürlich macht Bayern eine solch geradezu idiotische Strategie (rein persönliche, unbelegte Meinung des Autors, die niemand teilen muss) nicht alleine.
Im Kern ist es ein Strategiethema des Bundes. Und dort sind diesmal nicht nur die Vorreiter (besonders höflich ausgedrückt) an selten(st) erkennbarer Kompetenz aber absoluter, bedingungsloser Merkelhörigkeit, Frau S. Schulze und P. Altmaier beteiligt, auch unser sonst eher glücklose CSU-Entwicklungsminister ist dabei. Und wenn Herr Dr. Müller eine seiner ausgefeilten Strategien angekündigt hat, kommt immer irgendwann in irgendeiner Zukunft der sichere Durchbruch. Zumindest das Geld dafür ist mit Sicherheit ausgegeben (und oft in erheblichem Maß auf speziellen Konten gelandet).
IWR.de 10.06.2020: [10] Bundesregierung verabschiedet Nationale Wasserstoffstrategie
Berlin – Das Bundeskabinett hat heute (10.06.2020) die lange erwartete Nationale Wasserstoffstrategie beschlossen. Wasserstoff soll künftig entscheidend zur Dekarbonisierung wichtiger deutscher Industriebranchen sowie des Verkehrssektors beitragen.
… Die jetzt verabschiedete Wasserstoffstrategie soll nach dem Wunsch der Bundesregierung die Weichen dafür stellen, dass Deutschland bei Wasserstofftechnologien die Nummer 1 in der Welt wird. Dazu sollen die Potenziale für Wertschöpfung, Beschäftigung und den Klimaschutz möglichst schnell erschlossen und genutzt werden. „Denn Wasserstoff wird ein Schlüsselrohstoff für eine erfolgreiche Energiewende sein“, so Bundeswirtschaftsminister Peter Altmaier nach dem Kabinettsbeschluss. Er werde als Energieträger der Zukunft sowohl in Deutschland als auch weltweit einen wichtigen Beitrag zur Erreichung der Klimaziele leisten. Dabei wolle Deutschland eine Vorreiterrolle einnehmen, wie vor 20 Jahren bei erneuerbarer Energien.
… „Grüner Wasserstoff und seine Folgeprodukte wie Methanol können das saubere Öl von morgen werden“, so die Einschätzung von Bundesentwicklungsminister Dr. Gerd Müller. Müller betont, dass in diesem Zusammenhang vor allem Länder in Nordafrika aufgrund des hohen Solarpotenzials als geeignete Produktionsstandorte für grünen Wasserstoff in Frage kommen. Gemeinsam mit Marokko werde jetzt die erste industrielle Anlage für Grünen Wasserstoff in Afrika entwickelt. „Damit schaffen wir dort Arbeitsplätze für die vielen jungen Menschen, stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele wirksam zu erreichen“, so Müller weiter.

Tritt Wirtschaftsminister Aiwanger in die Fußstapfen von F. J. Strauß und Bayern wird ein weltweiter Technologieführer?

Manche können sich noch erinnern: Der ehemalige, Bayerische Ministerpräsident F. J. Strauß machte aus einem bettelarmen Agrarstaat durch Konzentration auf die damals völlig neuen Technologien Elektronik (und moderne Militärtechnik) ein Erfolgsmodell, das man heute (noch) sehen und auch (noch) vorzeigen kann. Dies gelang ihm damals auch, weil die reichen Montanländer viel zu „satt“ und stolz waren, sich für solche Technologie zu interessieren.
Scheinbar besteht eine solche Konstellation heute wieder im Land. Tesla baut seine alles andere vernichtende Innovation Elektroauto im Osten und die parallel laufende Solarstrategie wird bald flächendeckend viele Handwerksbetriebe und Installateure beschäftigen … Da hat niemand mehr Zeit und Ressourcen für Wasserstoff.
Eine geradezu ideale – in der Geschichte so seltene Gelegenheit – für Wirtschaftsminister Aiwanger, in einem zum Beispiel wegen der Autokrise derzeit und vielleicht noch viel länger stark unterbeschäftigtem Land das Steuer herumzureißen und damit in die Fußstapfen des geradezu legendären F. J. Strauß zu treten, also Bayerns Geschichte „mit zu schreiben“ …

Made in Bavaria soll zum Wasserstoff-Gütesiegel werden

Wenn Aiwanger informiert, ist „Kompetenz“ spürbar, zumindest, so lange er buchstabengetreu vom Blatt abliest, was er allerdings oft vergisst. Erkennbar hat er Redenschreiber*innen, die gut fabulieren können:
[5] Bayerns Wirtschafts- und Energieminister Hubert Aiwanger hat die Bayerische Wasserstoffstrategie vorgestellt. Danach will sich der Freistaat zu einem weltweiten H2-Technologieführer entwickeln.
Aiwanger: „Made in Bavaria soll zum Wasserstoff-Gütesiegel werden. Mit unseren hervorragenden Forschern und den innovativen Tech-Unternehmen werden wir eine Wasserstoffwirtschaft entwickeln, die den Hightech-Standort Bayern stärkt, Arbeitsplätze schafft und nicht zuletzt auch den Transformationsprozess der bayerischen Fahrzeug- und Zulieferindustrie unterstützt.“
Wasserstoff (H2) und bayerische Innovationskraft sollen im Verbund Wohlstand sichern und zugleich den Ausstieg aus der Nutzung fossiler Energieträger voranbringen. Angestrebt werde dabei eine Arbeitsteilung zwischen dem Technologieland Bayern und Regionen, die grünen Wasserstoff produzieren. „Wir wollen die weltweit führenden Wasserstofftechnologien entwickeln. Unsere künftigen Partner nutzen dann unsere Innovationen dank nahezu unbegrenzt verfügbarer erneuerbarer Energien wie Sonne und Wind für die Erzeugung, den Transport sowie die Verwendung von grünem Wasserstoff“, erläuterte Aiwanger.
Zur Marktaktivierung wird die Staatsregierung zudem kombiniert Elektrolyseanlagen und Brennstoffzellenfahrzeuge wie Busse und Nutzfahrzeuge/Lkw fördern. Damit sollen vor allem neue Wertschöpfungsmöglichkeiten für Tankstellen-Standorte in der breiten Fläche geschaffen werden: an kommunalen Betriebshöfen, bei Stadtwerken, für Fuhrpark- und Omnibusunternehmen. Zudem soll 2021 die weltweit erste LOHC-Tankstelle in Erlangen den Betrieb aufnehmen. Noch in diesem Jahr wird erstmals innovative bayerische Brennstoffzellen-Technologie in einem umgebauten Lkw-Prototypen auf Bayerns Straßen fahren.

Wasserstoff aus Elektrolyse: Was schrieben Fachpersonen, bevor unsere Politik die Lösung vorschrieb?

Es lohnt, Publikationen zu lesen, die verfasst wurden, als Fachpersonen noch Fachwissen und nicht politische Vorgabenerfüllungen publizierten:
Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Karlsruher Institut für Technologie: [7] Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung
Wasserstoff ist ein höchst flüchtiges Gas mit einer geringen volumetrischen Energiedichte. Daher muss man zum Transport und zur Lagerung entweder auf extrem tiefe Temperaturen (-255 °C – fast wie im Weltraum) oder auf extrem hohe Drücke (700 bis 1000 bar – wie am Meeresgrund des Marianen Grabens) ausweichen. Die dazu erforderliche Anlagentechnik ist unvermeidlich aufwändig und somit teuer. Außerdem sind die Wirkungsgrade grundsätzlich schlecht, weil viel Energie zur Erzeugung dieser extremen Bedingungen benötigt wird. Da diese Zusammenhänge physikalisch bedingt sind, ändert sich daran auch in ferner Zukunft und auch mit beliebig hohem Forschungsaufwand gar nichts.
Das bedeutet ganz konkret: Für eine Umstellung des Pkw-Verkehrs auf Wasserstoff müssten wir die gesamte heutige Infrastruktur für Lagerung, Verteilung und Verkauf komplett neu bauen. Und zwar wegen der geringeren Energiedichte nahezu doppelt so groß, also doppelt so viele Tankschiffe, doppelt so große Zwischenlager, doppelt so viele Tank-Lkws und doppelt so viele Bodentanks in den Tankstellen. Außerdem müssen wir alles in Kryotechnik für Temperaturen nahe am absoluten Nullpunkt bauen, wodurch die Kosten noch einmal in etwa verdoppelt.
Und dann brauchen wir auch noch die Produktionsanlagen: Für die Erzeugung des Stroms, für die Elektrolyse und für die Verflüssigung.
Eine gasförmige Verteilung von Wasserstoff im Großmaßstab, das heißt für hunderttausende oder gar Millionen von Pkws, ist vollkommen unmöglich. Die technisch erreichbare volumetrische Energiedichte von gasförmigem Wasserstoff ist nochmals um knapp eine Größenordnung (Faktor 10) niedriger als die von flüssigem Wasserstoff. Dementsprechend würden die Aufwendungen für die Infrastruktur ins Unermessliche steigen.
Bedingt durch die schlechte Wirkungsgradkette, ausgehend vom Off-Shore Windpark bis zum Elektromotor im Auto einschließlich flüssiger Verteilung und Hochdruckbetankung, ist der Bedarf an Primärenergie für die Erzeugung von Wasserstoff für Brennstoffzellen in Pkws rund 5- bis 6-fach höher als bei Batteriefahrzeugen.

… Es ist leicht abzuschätzen, dass der Strombedarf für den Wasserstoffbetrieb aller 47 Mio. Pkws in Deutschland rund 1,5-fach größer ist als die gesamte heutige Stromproduktion. Daher müssten wir die derzeitig erzeugte Menge an Strom also mehr als verdoppeln. Gleichzeitig wollen wir auch noch alle Kern- und Kohlekraftwerke abschalten und durch regenerative Stromerzeugung ersetzen – wie soll das gehen? Die Kosten für den Aufbau einer Infrastruktur für die Erzeugung und Verteilung von flüssigem Wasserstoff sind schier unvorstellbar und betragen alleine für Deutschland über hundert Milliarden Euros. Genaue Zahlen sind unbekannt und nicht seriös anzugeben, da die erforderlichen Einrichtungen noch niemals in einer entsprechenden Größe und Menge gebaut wurden.
… Die Ladegeschwindigkeit von FCEVs (Wasserstoffautos) ist unbestritten schneller als die von BEVs (Elektroautos) – rund 10 Minuten für einen vollen Tank mit 400 bis 600 km WLTP Reichweite, je nach Fahrzeug. Das bedeutet aber, dass man wie früher neben dem Fahrzeug wartet und keine Zeit für eine Pause hat. Anschließend muss die Tankstelle einen internen Höchstdruckspeicher mit 900 bis 1000 bar nachfüllen, so dass für rund eine halbe Stunde kein weiteres Fahrzeug bedient werden kann (oder nur mit wesentlich langsamerer Füllgeschwindigkeit). Die Kosten einer Wasserstofftankstelle sind übrigens astronomisch hoch und übertreffen die Kosten einer Schnellladesäule um mehr als eine Größenordnung.
Herstellungsaufwand und Preise Die Herstellung von Brennstoffzellen-Pkws ist gegenüber heutigen Verbrennerfahrzeugen (ICE = Internal Combustion Engine) deutlich aufwändiger. Das resultiert zum einen aus den größeren Fahrzeugabmessungen und zum zweiten aus den vielfältigen Nebenaggregaten, die zum Betrieb eines Brennstoffzellenstacks erforderlich sind.44 Daraus ergeben sich nicht nur höhere Anschaffungspreise, sondern auch höhere Wartungs- und Reparaturkosten sowie eine kürzere Lebensdauer
Um es einmal ganz deutlich zu sagen: Brennstoffzellen-Pkws sind technisch, ökonomisch und letztlich auch ökologisch ein Unsinn. Ebenso unsinnig ist der Aufbau einer Pkw-Tankstelleninfrastruktur für Wasserstoff. Das alles dient einzig den kommerziellen Interessen einiger großer Wasserstoff- und Erdölkonzerne und ist eine Verschwendung von Steuergeldern. Ich gebe dem Thema Wasserstoff für die Zukunft von Pkws keinerlei Chancen gegenüber Batteriespeichern. Wir täten gut daran, nicht auf eine veraltete und aus grundsätzlichen physikalisch/chemischen Gründen unterlegene Technik zu setzen, denn das bringt den Industriestandort Deutschland in Gefahr.
Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium (Auszüge): [2] Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg
Wasserstoff aus Strom oder „power to gas“ also die Umwandlung von hochwertigem Strom in die einfachen Brennstoffe Wasserstoff und/oder Methan führt aus prinzipiellen naturwissenschaftlichen Gründen, die mit dem 2. Hauptsatz der Thermodynamik zusammenhängen (Wertigkeit der Energie und Energieentwertung) immer zu Verlusten von in der Praxis 2/3 bis 3/4 des Energiegehalts des Stroms. Bei der Rückverstromung werden also in der Regel nur 1/4 bis maximal 1/3 des eingesetzten Stroms, also des gleichen Produkts, zurückgewonnen….
In einem konkreten Versuch der Universität Kiel in Büsum im Jahr 2003 gingen sogar zwischen 85 % bis 87 %, also mehr als 5/6 des eingesetzten Stroms ungenutzt verloren, nur 13 % bzw. 15 % des eingesetzten Stroms konnten wiedergewonnen werden [1]. Die Energieverluste von 2/3 bis 3/4 bleiben auch dann bestehen, wenn nicht rückverstromt wird. Auch in anderen Anwendungsbereichen wie im Verkehr ergibt sich, dass eine Strom-Wasserstofflokomotive 3-5 mal mehr Energie verbrauchen würde, als eine Elektro oder Diesellokomotive, Strom-Wasserstoffautos benötigen 3-4 mal mehr Energie als Elektroautos und „normale“ Autos. Beim Einsatz in der Industrie verhalten sich die Relationen in der Regel nicht anders.
Betrachtet man die Verluste isoliert, so sind diese Verluste beim Strom-Wasserstoffweg mehr als 30 mal höher als bei effizienten Speichern. Diese Verluste müssen durch zusätzlichen Strom und durch zusätzliche Stromerzeugungsanlagen ausgeglichen werden. Dieser zumeist nicht betrachtete Aspekt macht den „Wasserstoff aus Strom“- Weg nicht nur extrem verlustreich, sondern auch extrem teuer.
Aus all diesen Gründen trägt in einer der „Leituntersuchungen“ zur Energiewende der Bundesregierung, der Studie „Wege zu 100 % erneuerbarer Stromversorgung“ des Sachverständigenrats für Umweltfragen, Wasserstoff als Speicher überhaupt nicht, nicht in einer Stunde des Jahres zur Systemoptimierung bei. Strom-Wasserstoff und „power to gas“ spielt also in dem wissenschaftlich begründeten Konzept der Energiewende als Problemlösung gar keine Rolle
Ein Wasserstoff – Feldversuch mit allem dazu gehörigem Equipment – vom Elektrolyseur bis zum Wasserstoffmotor – wurde vor 10 (Anmerkung: Beendet ungefähr im Jahr 2003) Jahren vom schleswig-holsteinischen Wirtschaftsministerium in einem Projekt beim Forschungs- und Technologiezentrum Westküste der Universität Kiel in Büsum gefördert.
Im zusammenfassenden Bericht heißt es:
„Man kann aus den Werten nun den Wirkungsgrad aus unseren Versuchen berechnen. Betrachtet man die Wasserstoffgasspeicherung bei 15 bar, kommt man auf einen Wert von 15 %, geht man über die Speicherung bei 200 bar, so ergeben unsere Versuche 13 % Stromausbeute des ursprünglich in den Elektrolyseur eingespeisten Stromes“ (Anmerkung:[1]) 13 – 15 % des dem Netz entnommenen Stroms konnten zurückgespeist werden; 85 % bzw. 87 % des Stroms gingen bei der Umwandlung von Strom in Wasserstoff und Rückumwandlung in Strom in dem konkreten Versuch zu Wind-Wasserstoff 2003 am FTZ in Büsum verloren. An dem Versuch waren immerhin bedeutende Fachfirmen wie Norsk Hydro und Jenbacher beteiligt.
Seit 2012 existiert eine Skizze für ein konkretes Wasserstoff-Speicher-Projekt in Schleswig-Holstein, das mit positiven Argumenten „klimaschonend und effizient“ begleitet wurde. Bei Licht betrachtet ist jedoch das Gegenteil der Fall.
Folgende Daten: Es wird unter Einsatz von einer Beladeenergie von 35 GWh Strom aus dem Stromnetz (hier sei 100 % Windenergie unterstellt) in eine vorhandene Kaverne gepresst, was bei Berücksichtigung der Verluste in die Ein-/und Ausspeisung aus der Kaverne 17 GWh ausspeicherbaren Energiegehalt in Form von Wasserstoff ergibt. (GWh Gigawattstunde = 1 Mio. kWh) Eine überschlägige Rechnung ergibt hieraus folgende Bilanz: a. Speicherwirkungsgrad: die angegebene Beladeenergie von 35 GWh Strom entspricht dem Jahresertrag von etwa 5 Windkraftanlagen mit 3 MW bei 2300 Vollbenutzungsstunden – wird in 17 GWh ausspeicherbarem Energiegehalt in Form von Wasserstoff umgewandelt (Wirkungsgrad wegen der Einpressverluste in die Erde nur ca. 50 % statt der oben angegebenen 80 %) Hieraus kann man mit einem Motor / einer Brennstoffzelle bei realistischen 40 % Wirkungsgrad etwa 6,7 GWh, (ca. 1/5 der Ausgangsmenge) bei sehr optimistischen 50 % etwa 8,5 GWh Strom (ca. 1/4 der Ausgangsmenge) wiedergewinnen.
Der Strom von etwa 4 der 5 Windkraftanlagen geht ungenutzt, vollständig und unwiederbringlich verloren; die Anlagen kosten aber Geld und benötigen Fläche.

Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!

steht in der folgenden Stellungnahme [4] Dr. Geisenheiner at al. 25.03.2020 (Auszüge): Fachliche Stellungnahme Wasserstoffwirtschaft
Energieverschwendung pur!
Die Wasserstoffwirtschaft schafft dabei mehr Probleme als sie löst. Die Energieeffizienz für die Nutzung bei Fahrzeugen und bei Wärme ist katastrophal schlecht. Das würde exorbitante Stromerzeugung erfordern. Die Energiewende im Sektor Verkehr ist schon nicht mit der Batterie-basierten E-Mobilität zu schaffen. Mit der Wasserstoffwirtschaft, die sehr viel schlechtere Wirkungsgrade aufweist,
Der rechnerisch nötige Ausbau der VEE für die Dekarbonisierung mit Sektorkopplung auf mehr als das 15-fache ist wegen des Flächenbedarfs, der Umweltschäden und der gewaltigen Kosten nicht möglich. Die Bürgerinitiativen, unterstützt vom Groll der Betroffenen, werden sich zusätzlich dagegenstellen.

Das kann keiner bezahlen
Die Kostendimension einer Wasserstoffwirtschaft führt nach einer groben Abschätzung zu 0,22€/kWh für die Anwendung Heizen 2. Das ist rund 5-fach teurer als der heutige Erdgaspreis.
Eine ähnliche Situation ergibt sich im Transportsektor. Hier sind die H 2-Treibstoffkosten auch 5-fach teurer, als mit heutigen Kraftstoffen. Eine Steuerbefreiung kann für den Endkunden die Kosten etwas mildern, es bleiben dann aber die Einnahmeverluste der Steuer, die auf anderem Wege zu kompensieren sind. Der Ansatz Wasserstoff über VEE zu erzeugen und so CO2-Ausstoß einzusparen, ist
Technischer und ökonomischer Unsinn. Konzeptloser Aktionismus
Dauernd gibt es neue Ideen, die grundsätzliche Mängel der Energiewende beheben sollen, ohne dass dies mit ihren Folgeauswirkungen im Rahmen eines ganzheitlichen Konzepts durchdacht und quantifiziert wurde. Die erneute Idee einer großkalibrigen Wasserstoffwirtschaft als Komponente der Energiewende wird der Industrienation Deutschland schwersten Schaden zufügen.
Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!
Das Öko-Institut e.V. schrieb dazu: [3] … Falls sich die Stromkosten auf 0 € / MWh reduzieren sollten, verringern sich die Erzeugungskosten für Wasserstoff auf 29 € / MWh und die Kosten für synthetisches Methan auf 70 € / MWh.
Bedingt durch die hohen Wirkungsgradverluste und die hohen Kapitalkosten sind die Kosten für Elektrolysewasserstoff fast dreimal höher als der aktuelle Preis für Erdgas. Die Kosten für synthetisches Methan liegen nahezu um den Faktor 4,5 höher als die aktuellen Kosten von Erdgas
… In den nächsten zwanzig Jahren zeichnen sich also keine sinnvollen Anwendungsmöglichkeiten für synthetisches Methan als Flexibilitätsoption für den Stromsektor ab, die über einige wenige Demonstrationsprojekte hinausgehen …

Wirkungsgrad der Power to Gas Technologie mit Rückverstromung

Die vorhergehenden, etwas unübersichtlichen Darlegungen finden sich in einem ganz aktuellen Paper zusammengefasst:
Dr. Geisenheiner at al. 25.03.2020: [4] Fachliche Stellungnahme Wasserstoffwirtschaft
Daraus die Wasserstoff-Prozess-Verlustgrafik:

Bild 3 [4] Wirkungsgrad der Prozesskette Strom – Wasserstoff – Rückverstromung (die Transportverluste werden bei längeren Transortzeiten bedeutend größer als in dieser Grafik angegeben)

Keinen Schreck bekommen: So viel kostet mit Wasserstoff zwischengespeicherter Strom

In einer Artikelserie wurden damals die Kosten von Speichertechnologien grob dargestellt:
EIKE 18.06.2015: [11] Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Für Powert to Gas mit Rückverstromung wurde der Netto-Ausspeisepreis damals mit 20 €ct/kWh bei einem Strombezug von 4,8 €ct/kWh abgeschätzt (mit damals erheblich besser angenommenen Wirkungsgraden und ohne Transportverluste).
Beispiel: Der Ökolieferant bekommt für seinen Strom – ob er ihn einspeist oder abregeln muss – beispielsweise 4 €ct/kWh bezahlt. Der private Endkunde bezahlt dafür aufgrund der Steuern und Zusatzkosten ca. 30 €ct/kWh an seiner Steckdose
Über Powert to Gas zwischengespeicherter Strom kostet netto an der Kostenstelle, so er, mit 4 €ct/kWh entnommen wurde nun mindestens 20 €ct/kWh. Darauf kommt nun die Kostentreppe, wodurch der private Verbraucher dafür linear hochgerechnet 1,5 €/kWh bezahlt.
Das erscheint hoch. Allerdings kam der Autor beim damaligen Nachrechnen einer neueren Pilotanlage auf noch erheblich höhere Kostenwerte mit geschätzten 33,6 ct / kWh für den am Entnahmeknoten zurückgespeisten Strom [12]. Ein „Verbilligungseffekt“ ist bisher also nicht erkennbar. Sicher ein Grund, warum bei der Power to Gas Technologie immer nur Erfolge, aber nie die vollständigen Kosten ausgewiesen werden.
Selbstverständlich kann die Politik die Nebenkosten beeinflussen. Dann fehlt ihm aber dieses Geld für die vielen Maßnahmen zu Weltrettungen, Pandemie-Ausfallzahlungen und EU-Transferzahlungen an unsere privat reicheren – aber immer geldhungrigen – EU-Nachbarn. Es ist deshalb unwahrscheinlich, dass größere Abstriche bei den Steueraufschlägen gemacht werden (können). An den erheblichen Fixkostenaufschlägen kann die Politik sowieso nichts drehen, sondern nur subventionieren.
Man mache sich also die neue, politische Vorgabe klar: Strom im Wert von ca. 4 €ct/kWh wird dank dieser grandiosen Strategie mit „umgewandeltem“ Strom zu mindestens 20 … 33 €ct/kWh „gemischt“. Damit liegt der künftige Strompreis für Privatverbraucher je nach erforderlichem Speicherstromanteil (können im Winter für bis zu 14 Tage fast 100 % sein), irgendwo zwischen 30 €ct … 1,5 (2,5) €/kWh.
Nach heutigem Stand. Kommt der Wasserstoff weit weg aus dem Ausland, sind nochmals Kostenerhöhungen von 10 … 20 % zuzufügen und das wird bestimmt nicht das Ende darstellen.

Wie hoch muss die Sturheit des Festhaltens an der Abschaltung der Grundlastkraftwerke und panische Angst vor dem technischen Scheitern des EEG in den politischen Köpfen schon sein, um trotzdem die Wasserstoffstrategie zu starten

Beim Vergleich der Darstellungen der Fachpersonen mit den euphorischen Strategieankündigungen unserer Politiker:
[6] «Wir wollen bei den neuen Wasserstofftechnologien hin zu grünem Wasserstoff weltweit führend sein.» – Nicht weniger strebt die deutsche Regierung nach den Worten von Wirtschaftsminister Peter Altmaier (CDU) mit einer am Mittwoch verabschiedeten Nationalen Wasserstoffstrategie an. Diese sei die größte Innovation im Bereich Klimaschutz und Energiewende seit dem Entscheid, mit dem Erneuerbare-Energien-Gesetz (EEG) in großem Ausmaß Energie aus Sonne, Wind und Biomasse zu fördern, fügte Altmaier an, als er die Strategie zusammen mit Vertretern weiterer Ministerien den Medien vorstellte …
… kommen unweigerlich (aber nicht neu) Fragen zum geistigen Zustand unserer Politikkaste auf. Es zeigt jedoch nur, dass das vergleichbare (Pseudo-)Problem Klimawandel bezüglich der „Lösungsstrategie“ kein Einzelfall, sondern seit „Merkel“ ganz einfach Methode ist, die an ein Land erinnert, in dem unsere unfehlbare Kanzlerin sozialisiert wurde: (Stur) Vorwärts immer – rückwärts nimmer.
Im Klartext: Wenn etwas angeordnet ist, darf auf keinen Fall über den Sinn nachgedacht und schon gar nicht korrigiert werden. Es ist immer geradlinig bis zum (bitteren) Ende durchzuführen.
Ein in der Deutschen Geschichte seit dem letzten Kaiser bekanntes Verhalten „unfehlbarer Führungspersonen“. Allerdings ist auch das vollkommene Versagen der Opposition in Deutschlands Geschichte symptomatisch. Das (wieder) erreicht zu haben, ist für Merkel also nicht einzigartig.
Nun ist es allerdings nicht mehr nur ein „Problem Merkel“, sondern auch ein „Problem Söder“, der den GRÜNEN ebenfalls bedingungslos in den Hintern kriecht.

Neben dem EEG wird es das nächste Subventionsgrab werden

NZZ: [6]Allerdings hat er mindestens zwei Pferdefüße: Noch ist er meist zu teuer, um konkurrenzfähig zu sein, und in Deutschland gibt es viel zu wenig erneuerbare Energie für seine Herstellung. Dem versucht die Wasserstoffstrategie mit 38 Einzelmaßnahmen abzuhelfen. So stellt das Papier unter anderem Investitionskosten-Zuschüsse für den Betrieb von Elektrolyseanlagen und den Aufbau eines Wasserstoff-Tankstellennetzes in Aussicht.
Und ausgehen wird es wie bei Solar und teilweise Windkraftanlagen, nun allerdings gleich von vornherein als besondere Strategie ausgegeben: Produziert wird das wichtige Gut Energie im Ausland:
[6] … Gleichwohl wird Deutschland laut dem Papier mittel- und langfristig in erheblichen Ausmaß Wasserstoff importieren müssen. Deshalb will die Regierung Partnerschaften mit Ländern eingehen, in denen aufgrund der geografischen Lage Wasserstoff effizient produziert werden kann. Dies gilt namentlich für das sonnenverwöhnte Afrika.

Und wie beim Klimawandel sind Forschung und Industrie nach anfänglichem Zögern wieder begeistert

10.06.2020 BDEW zur Nationalen Wasserstoffstrategie
… „Es ist gut, dass die lange erwartete Nationale Wasserstoffstrategie der Bundesregierung nun endlich vorliegt. Sie formuliert wichtige Grundlagen für die Dekarbonisierung von Industrie, Verkehr und Wärmesektor mit gasförmigen Energieträgern. Darauf müssen wir aufbauen und in der Umsetzung Tempo machen. Mit der Strategie zeigt die Bundesregierung, dass leitungsgebundene, gasförmige Energieträger ein zentraler Baustein der Energiewende und für das Erreichen der Klimaschutzziele sind“, sagt Kerstin Andreae, Vorsitzende der BDEW-Hauptgeschäftsführung.
BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie:
00:22 Peter Wasserscheid, Zentrum Wasserstoff Bayern: Also ich glaube, technologisch hinken wir nicht hinterher … der Aufbruch, diese Technologie wirklich zu industrialisieren und eine Wasserstoffwirtschaft zu schaffen, der war bisher nötig.

Bezüglich der Kosten ist unseren Politikern längst eine Lösung eingefallen: Den CO2-Preis so hoch zu schrauben, dass die bisher „viel zu billigen Energien“ so teuer wie durch Elektrolyse erzeugter Wasserstoff werden

Wenn etwas nicht zu konkurrenzfähigen Preisen hergestellt werden kann, gibt es einen Lösungsweg: Die Wettbewerbsprodukte auf das vergleichbare Niveau verteuern. In einer vom Staat ausgehebelten Wirtschaft ist das machbar, und dank dem Klimak(r)ampf inzwischen auch problemlos umzusetzen.
Es geschieht, indem der CO2-Preis einfach auf die von den GRÜNEN (und Freitagshüpfer, und Umweltbundesamt) geforderten 180 EUR/Tonne und dann weit darüber hinaus angehoben wird.
Es wird so kommen. Denn unsere Politiker benötigen viel, viel Geld, die EU benötigt viel viel Geld, die Klimawandel-Reparationszahlungen an sich „betroffen“ meldende Länder kosten viel viel Geld, die bedingungslose Sozialleistungsversorgung des laufend einreisenden, vorwiegend afrikanischen, aufgrund deren Reproduktionsrate nie endenden Jugendüberschusses kostet viel, viel Geld; weitere Aufzählungen fast beliebig möglich.
Wenn man es nicht schon hätte, spätestens jetzt müsste man die CO2-Bepreisung als Einnahmequelle erfinden.
Für die Bayerische GRÜNEN-Vorsitzende, Katharine Schulze ist es ein undenkbares Gräuel [8]. Es gibt aber auch Personen, die etwas anders als diese hochbesoldete Lachpuppe denken.

Bild 4 Catharina Schulze. Video-Screenshot [9]

Es wird nicht mehr allzu lange dauern, bis auch bei uns ein Wunsch umgeht: Oh du Land, welches einen Trump vorzuweisen hat: Wie bist du zu beneiden …
Bevor es allerdings so weit kommen könnte, wird das Wählen nicht genehmer Parteien vielleicht verboten und nicht nur die EU-Präsident*in vollkommen unabhängig von Wahlergebnissen in Hinterzimmern von Parteigrößen*innen ausgeknobelt …
Quellen
[1] Christians-Albrechts Universität zu Kiel, Jahresbericht 2002/2003 Forschungs- und Technologiezentrum Westküste, Büsum, Vanselow, Klaus; Voigt, Wolfgang; Bojens, Gero; Hein, Burger: „Fortschritt des FEEDWings-Projektes zur Windenergiespeicherung
[2] Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium: Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg
[3] Öko-Institut e.v., Studie März 2014: Prüfung der klimapolitischen Konsistenz und der Kosten von Methanisierungsstrategien
[4] Dr. Geisenheiner at al. 25.03.2020: Fachliche Stellungnahme Wasserstoffwirtschaft
[5] pv magazine 29. MAI 2020: BAYERISCHES STAATSMINISTERIUM FÜR WIRTSCHAFT, LANDESENTWICKLUNG UND ENERGIE Aiwanger: „Made in Bavaria wird zum Wasserstoff-Gütesiegel“
[6] NZZ 11.06.2020: Deutschland steckt Milliarden in eine Wasserstoffstrategie
[7] Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Professur für Hybridelektrische Fahrzeuge, Karlsruher Institut für Technologie: Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung (V1.5)
[8] EIKE 25, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 2
[9] EIKE 24, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 1
[10] IWR.de 10.06.2020: Bundesregierung verabschiedet Nationale Wasserstoffstrategie
[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
[12] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
[13] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern




Umgebungs­gleichung (Stefan-Boltzmann-Gesetz) / ungerecht­fertigte Kritik an Ulrich O. Weber / Strahlungs­gleichgewicht / Mittelwert­bildung

Die Verfechter des natürlichen Treibhauseffektes benötigen diesen, um zu erklären, warum die Abstrahlung der Erde um soviel geringer ist als die mittlere Temperatur an der Erdoberfläche an Strahlungsleistung nach dem S-B-Gesetz erzeugen würde. Um trotzdem ein Gleichgewicht mit der Einstrahlung zu erreichen, benötigt sie jedoch ein kompliziertes rückgekoppeltes und vor allem lückenhaftes Gegenstrahlungsmodell. Das alles hat seine Ursache in der Mittelung der einfallenden solaren Strahlung durch den Teiler 4 für die gesamte Kugel. Es ist aber unbestreitbare Tatsache, dass nachts die Sonne nirgendwo scheint. Physikalisch ausgedrückt bedeutet dies, dass jeweils nur eine Halbkugel die solare Strahlung aufnimmt, während zeitgleich die gesamte Kugel Strahlungsleistung wieder abgibt, um auf diese Weise zu einem Gleichgewicht zwischen Ein- und Ausstrahlung zu gelangen. Unser Autor A. Agerius (Pseudonym, der wirkliche Name ist der Redaktion bekannt) hat nun in seinem Modell auf andere Weise als U. Weber nachgewiesen, dass sich sämtliche Messwerte der ERBS-Satellitenreihe auf einfache Weise abbilden und vor allem reproduzieren lassen, wenn man die Halbkugel-Ein- und Ganzkugel-Abstrahlung konsequent und Schicht für Schicht anwendet. Eine Gegenstrahlung wird dafür nicht mehr benötigt. Um dem Prinzip von Occam´s Razor zu genügen, nachdem die einfachste Erklärung für Naturerscheinungen fast immer die Richtige ist, stellen wir diese, für viele überraschende Herleitung, hier zur Diskussion.

A. Agerius26.07.2020

In 4 Themenblöcken werden die Stichworte im Titel betrachtet. Sie sind inhaltlich verbunden:
A. Umgebungsgleichung (Stefan-Boltzmann-Gesetz)

„Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ (von Ulrich O. Weber,veröffentlicht am 11. September 2019 durch EIKE, Europäisches Institut für Klima & Energie)

Der Ansatz von Herrn Weber ist in Beiträgen auf EIKE und in seinen Büchern ausführlich dargestellt. Diese Modellierung berücksichtigt keine atmosphärischen, horizontalen und vertikalen Umschichtungen. Ihr perspektivischer Bezugspunkt ist die Kugeloberfläche. Zwei unabhängige Vergleichsrechnungen durch einen Bekannten, Diplomingenieur der Elektrotechnik, und mir wurden mit diesem Modell über Mantelringe mit 1 Grad Schritten bei solarer Einstrahlung von 1367 W/m², auch als Total Solar Irradiance TSI bezeichnet, und mit einer Albedo a = 0,30 berechnet. Wir erhielten als Global Mean Temperature für die Erde T = 15,3°Celsius. Dieser Ansatz ist ein in sich komplett unabhängiger Beweis, dass es für die Herleitung dieser Mitteltemperatur keines Treibhauseffektes von 33 K bedarf.

Herr Weber schrieb in diesem Artikel: „In der üblicherweise dargestellten Form lautet das Stefan-Boltzmann-Gesetz: P/A = σ T4. Diese Form stellt den astronomischen Spezialfall für eine Umgebungstemperatur T0 von 0 Kelvin dar.“ Und „Die allgemeine Form des Stefan Boltzmann-Gesetzes wird auch als Umgebungsgleichung bezeichnet: P/A = σ (T4 – T04).“ Einer der Kommentatoren auf der EIKE-Blogseite beanstandete, dass die Formulierung als Umgebungsgleichung so nicht in der originalen Veröffentlichung von Boltzmann steht. Auch im nächsten Artikel, „Safety First“, spricht Herr Weber die Umgebungsgleichung an.

„Safety First: Zum besseren Verständnis meiner hemisphärischen Energiebilanz“ (von Ulrich O. Weber, veröffentlicht am 29. Juli 2019 durch EIKE)

Herr Weber entgegnet: „Offenbar konnten die geschätzten Kommentatoren mit der Umgebungsgleichung des Stefan-Boltzmann-Gesetzes in der Form ´P/A =  * (T4-T04)´, die dieser Betrachtung zugrunde liegt, aber recht wenig anfangen,…“ Dem Leser des EIKE-Blogs, stellt sich die Frage: Ist die Kritik der Kommentatoren gerechtfertigt?

B. Ungerechtfertigte Kritik an Ulrich O. Weber

Hierzu verweise ich auf „Physik für Ingenieure“, ein seit 50 Jahren gültiges Standardwerk abertausender deutscher Maschinenbauer und Bauingenieure, Zitatanfang: „So ist die effektiv abgestrahlte Leistung eines „schwarzen“ Körpers ΔPs = σ A (T14 – T24) für einen „grauen“ Körper gilt ΔPs = ε σ A (T14 – T24)

Beispiel 7. Ein schwarzer Körper hat die Oberfläche A = 1 cm² und die Temperatur T1 = 373 K. Bei der Umgebungstemperatur ϑ = 20 °C strahlt er 6,76 10-2 W ab. Ist er jedoch nicht „schwarz“, sondern reflektiert er 20%, so kann er nur 80% absorbieren. Da sich das Absorptionsvermögen wie das Emissionsvermögen verhält, emittiert er – wenn er strahlt – auch nur 80% der Leistung, das ist 5,41 10-2 W.“ 1 Zitatende, [Hervorhebungen verändert]

ΔPs = 5,41 10-2 W = σ A (T14 – T24) = 5,6704 10-8 Wm -2 K-4 1.0 10-4 m² 0.80 (3734 K4 – 293,154 K4)

Hieraus folgt: Das Emissionsvermögen kann nicht größer als das Absorptionsvermögen sein. Dies gilt explizit für Strahlung, sonst würde der 1. Hauptsatz der Thermodynamik verletzt werden. Die obige Darstellung gehorcht auch dem 2. HS, Wärme fließt immer (ohne äußere Einwirkung) von warm nach kalt. Diese Hauptsätze der Physik gelten selbstverständlich auch für ihre Unterdisziplinen wie Klimawissenschaft, Atmosphärenphysik, Meteorologie und Ozeanografie.

Um die Bedeutung „Umgebungsgleichung“ für den EIKE-Blogleser besser zu veranschaulichen, folgt ein Beispiel aus dem Alltag:

Ein ca. 2.5 m² großer Flur eines denkmalgeschützten Altbaus benötigt einen neuen Heizkörper. Für den Flur seien +18°C Raumtemperatur ausreichend, bei -10°C Außentemperatur. Dies führt zu einem dem Alter des Gebäudes angepassten Dimensionswert von 100 W/m² Raumfläche. Die notwendige Heizleistung für den Flur erfordert somit zu 250 W. Die Vorlauftemperatur der Gaszentralheizung beträgt am Einlassventil 70°C, die Rücklauftemperatur 55°C. Die mittlere Oberflächentemperatur der Heizfläche weist damit 62.5°C auf. Der hierzu gehörige Anpassungsfaktor von mittlerer Heizflächentemperatur und Raumlufttemperatur beträgt in dieser Kombination f >= 1,37. Die Mindestauslegung wird somit zu 1,37 x 250 W = 343 W bestimmt. Gewählt wird ein Plattenheizkörper Typ 22 der Länge 1 m, Bauhöhe 400 mm mit einer Norm- Wärmeleistung von 970 W/m. 388 W = 970 W/m x 0,4 m. Mit T1 = 62,5 °C = 335,65 K und T2 = 18°C = 291,15 folgt:

Ein 1. Thermometer misst auf der Mitte des Plattenheizkörpers T = 62,5 °C, das 2. Thermometer misst im Raum T = 18°C.

ΔPs / A = 312 W/m² = σ (T14 – T24) = 5.6704 10-8 Wm -2 K-4 (335.654 K4 – 291.154 K4)

Ludwig Eduard Boltzmann (1844 – 1906) hatte bei seiner wissenschaftlichen Veröffentlichung noch nicht die praktischen Anwendungen ΔPs = σ A (T14 – T24), siehe Physik für Ingenieure2 im Blick. Die Kritik an Herrn Ulrich O. Weber ist somit nicht gerechtfertigt.

Übertragen der Umgebungsgleichung auf die Erde:
a Ein erstes Thermometer sei in 2m Höhe ein zweites Thermometer befände sich in ca. 70km Höhe.
T1 = 15,2 °C = 288,35 K und T2 = -18,89 °C= 254,26 K
ΔPs / A = σ (T14 – T24) = 5,6704 10-8 Wm -2 K-4 (288.354 K4 – 254,264 K4) = 155,02 W/m²
b Ein erstes Thermometer sei in 70km Höhe ein zweites befände sich in ca. 200km Höhe
T1 = -18,89 °C= 254,26 K und T2 = -273,15 °C= 0 K
ΔPs / A = σ (T14 – T24) = 5.6704 10-8 Wm -2 K-4 (254.264 K4 – 0 K4) = 236.99 W/m² ~ -18.88 °C
c Ein erstes Thermometer sei in 2m Höhe ein zweites befände sich nun in ca. 200km Höhe
T1 = 15,2 °C = 288,35 K und T2 = -273,15 °C= 0 K
ΔPs / A = σ (T14 – T24) oder 5,6704 10-8 Wm -2 K-4 (288,354 K4 – 04 K4) = 392,01 W/m² ~ 15,20 °C
Oder 155,02 W/m² + 236,99 W/m² = 392,01 W/m²

Die Darstellung als Umgebungstemperatur – ich verwende jetzt bewusst die Formulierung von Herrn Ulrich O. Weber – zeigt die Wärmeleistung pro m² der Erde, hier 392,00 W/m² ~ 15,20°C fließt mit (288,354 K4 – 04 K4) von warm nach kalt und nicht umgekehrt. Lässt dies noch hypothetischen Raum für eine Gegenstrahlung in der Unterwissenschaft Atmosphärenphysik zu? Hotspots3 in der Atmosphäre als eigenständige Wärmequellen werden nicht gemessen, auch nicht mit Wetterballonen.

C. Strahlungsgleichgewicht

Die Hypothese der Gegenstrahlung (Back Radiation mit 324 W/m²) in der Strahlungsbilanz als Strahlungsgleichgewicht der Erde modellierten Kiehl und Trenberth 1997 in Earth´s Annual Global Mean Energy Budget. Die unten dargestellte FIG.7. wurde dreimal in IPCC Berichten, zuletzt 2007, an prominenter Stelle dargestellt. Ihr Gegenstrahlungsansatz ist die theoretische Basis der IPCC Klimamodelle. Im Modell mit Gegenstrahlung absorbieren IR-aktive Gase wie z. B. CO2. Diese würden im Anschluss bei ihrer Re-Emission eine Gegenstrahlung von 324 W/m² verursachen.

Bildnachweis: J. T. Kiehl and Kevin E. Trenberth, 1997, Earth´s Annual Global Mean Energy Budget, FIG.7. S.206 IPCC, Climate Change 2007, Cambridge University Press 2007 abgebildet auch in den IPCC Reporten 2007, 2001 und 1995

Bildnachweis:erstellt von A. Agerius, 2020
In der Darstellung oben sind römischen Zahlen eingetragen.Sie markieren horizontale Schnittebenen durch die Atmos-phäre. Ihre Strahlungsflüsse entsprechen dem Bild 1.
 

Kiehl und Trenberth verwenden Pfeile zur Darstellung von Strahlungsflüssen (W/m²). Diese Art der Darstellung erinnert an Kraftvektoren der technischen Mechanik.4 Wenn man diesen Gedanken zu Grunde legt, drängt es sich auf, das Schnittkraftprinzip anzuwenden. Ein unter Spannung – Kraft geteilt durch Fläche – stehendes Bauteil wird hierbei virtuell, wie mit einem Messer, durchtrennt. Alle an der Schnittfläche auftretenden Größen werden sichtbar und müssen Gleichgewichtsbedingungen gehorchen. Bei einem Bauteil wären dies Schub- Druck-, Zugkräfte, bzw. Biegespannungen, Momente, Torsion etc. In der diesem Textblock folgenden Anordnung von Zahlen in 8 Zahlenzeilen ist dies in Analogie zur Mechanik für den Strahlungsfluss aufbereitet. Auch hier muss sich ebenfalls ein horizontales und vertikales Gleichgewicht als Strahlungsgleichgewicht ausbilden.

Zur besseren Veranschaulichung für FIG.7. werden 8 Ebenen (I bis VIII) eingeführt und die horizontale Betrachtung mit „= 0“ am Zeilenende berücksichtigt. Mit dem Minus Zeichen (-) zeigt der Strahlungspfeil (in der Analogie dem Kraftvektor vergleichbar) in Richtung Erde, mit Plus Zeichen (+) in Richtung Orbit, vertikales Gleichgewicht. Die Zahlenwerte in W/m² sind aus FIG.7. KT97 entnommen: Zwischen Ebene II und III wurde virtuell nach dem Schnittkraftprinzip (gelb markiert) durchgeschnitten und die Strahlungsflüsse anschließend angetragen. Hierbei wird sichtbar, dass bei Kiehl und Trenberth in FIG.7. +67 in der zeichnerischen Darstellung fehlen. Ohne +67 gibt es einen Sprung im Strahlungsfluss.

Blau, Vergleich mit Satellitenmesswerten, zuzüglich 2 Albedos a = 0,3129 bzw. 0.088

Erläuterung: Zeile I bis III ohne „gleichzeitig“ ↑+67 bildet sich vertikal ein Sprung im Strahlungsfluss aus. Die Energiebilanz von Kiehl und Trenberth kann somit das Gleichgewichtskriterium „∑ H = 0“ in Zeile III nicht erfüllen. Dies verlangt aber eine Bilanz. Bsp. Geschäftsbilanz: Einer Ausbuchung -67.000 Euro in Unterkonto A „Verkauf“ ist „gleichzeitig“ eine Einbuchung von +67.000 Euro in Unterkonto B „Umsatz“ zugeordnet.

Zeile IV bis VIII wie zuvor.

Kiehl und Trenberth berufen sich auf Satellitenmessungen: „The ERBE [Earth Radiation Budget Experiment] (see Ramanathan et al. 1989) provided nearly 5 yr of continuous data from the mid.1980s.

The global annual mean of these data (Kiehl et al. 1994) indicate that the outgoing longwave radiation is 235 Wm-2 ,…”5 [Ergänzungen vom Autor hinzugefügt] Hinter „see Ramanathan et al. 19896” steht u.a. Bruce Barkstorm. Er war der Chefingenieur beim Bau der ERBS Satelliten (Teil des ERBE Programms der NASA). Um ein Modell zu entwickeln, das seine eigenen Satelliten Messwerte erklärte, zeichnete Barkstorm die Strahlungsflüsse in seiner eigenen Darstellung als Pfeile. Er formulierte damit als Erster die Hypothese der Gegenstrahlung in Verbindung mit Satellitendaten. Kiehl und Trenberth übernahmen sein Prinzip -Strahlungen wie Kraftvektoren darzustellen – und verfeinerten nur sein Modell.

In FIG.7. KT97 weisen die obigen 5 Werte einen direkten Bezug zu den ERBS Messwerten auf und haben folgende Bedeutung:

Reflected Solar Radiation, ins Orbit zurück geworfene Strahlung, kurzwellige Strahlung 107 W/m²

Outgoing Longwave Radiation, von der Atmosphäre abgestrahlte langwellige Strahlung 235 W/m²

Longwave cloud forcing, langwellige Strahlung beim Vorhandensein von Bewölkung 30 W/m²

Albedo, Anteil der ins Orbit reflektierten Strahlung, 107 W/m² / (107 W/m² + 235 W/m²) 0.3129

Clear Sky Albedo, der Bodenanteil der Albedo 30 W/m² / 342 W/m² 0.0877

Satellitenmesswerte des ERBS Satelliten in einem Modellvergleich:

KT97 schafft es 5 von 11 Messreihen im Modell KT97 abzubilden. Bezüglich longwave radiation tritt eine Differenz von rund 8 W/m² (242.9 – 235) auf. Das cloud forcing von 30.8 W/m² ist zwar mit 31 W/m² gut modelliert, aber in den 235 W/m² nach FIG.7. enthalten. „The longwave cloud forcing, clear minus cloudy sky flux, is 30 W/m-2, which agrees closley with the annual mean ERBE value, as it should because both clear and cloudy sky top-of atmosphere fluxes are tuned to the ERBE data.”7 Die von Satelliten gemessene CLEAR-SKY LONGWAVE RADIATION von 276.3 W/m² kann in FIG.7. nicht dargestellt werden. Im Modell fehlen so 41.3 W/m² (276.3-235). Lange Zeit waren die oben aufgelisteten Messwerte einer breiten Öffentlichkeit nicht zugänglich. Bei 15°C als globale Durchschnitts Temperatur macht eine Strahlungsdifferenz von 5 W/m² zwischen Messwert und Modellwert fast 1C° aus (Pariser Klimaakkord?). Beim Betrachten von roter und blauer Spalte drängen sich damit zwei Fragen auf:

  • Kann man ein Modell entwickeln, das alle Messwerte abbildet?
  • Kann ein solches Modell eine möglichst geringe Abweichung zwischen Messwert und Modellwert aufweisen und welche Aussagen lässt ein solches Modell dann zu?

An dieser Stelle möchte ich überleiten zu D. Mittelwertbildung, denn man kann ein anderes Modell entwickeln und dazu spielt der Faktor 2 eine entscheidende Rolle.
D. Mittelwertbildung
„Nachdem sich der Rauch verzogen hat: Stefan-Boltzmann auf den Punkt gebracht“ (von Ulrich O. Weber, veröffentlicht am 16. Februar 2017 durch EIKE)

Herr Weber formuliert hierin: „Die alternative Herleitung berechnet sich mit dem Strahlungsgleichgewicht des S-B Gesetzes für eine Halbkugelbetrachtung in einem Zweischichtfall für Atmosphäre und Erdoberfläche: (Solarkonstante/2) => netto 390 W/m² => +14,8°Celsius.Mit der Solarkonstante von 1368 W/m² /2 = 684 W/m² schreibt Herr Weber in einer anderen Schrift:

684 [W/m²] – 214 [W/m²] – 80 [W/m²] = 390 [W/m²] 8

Hierin sind 80 W/m² 2 mal 40 W/m² des atmosphärischen Fensters von KT97 und 214 W/m² 2 mal 107 W/m² reflektierter Strahlungsanteil durch eine Albedo von 0.3129 verglichen mit KT97.

Herr Limburg, der Vizepräsident von EIKE, 2019 auf der 13. EIKE im Vortrag „Was Sie schon immer über den Treibhauseffekt wissen wollten…“ Zum Modell mit 1368 W/m²/ 2 Einstrahlung: „Ohne jetzt den Breitengrad […] mit zu berücksichtigen, kann man ganz grob annehmen, dass auf die Halbkugel rund 684 W/m², also die Hälfte, pro m² fällt. Das würde die ganz erste Näherung sein, für jeden, der sich mit der Frage beschäftigt, stellt sich die Frage: wo kommt denn die Energie her? Die Treibhausforscher, die dem IPCC zuarbeiten, sehen das aber ganz anders. Die erfinden plötzlich eine Rundumsonne. Plötzlich ist die Sonne von beiden Seiten da und bestrahlt beide Seiten gleichmäßig. Zwar nicht mit der vollen Leistung, sie wird gedimmt. Die 684 W/m² werden nochmal halbiert. Das geht dann auf die Kugeloberfläche. Wir haben statt 684 W/m² plötzlich von beiden Seiten, jeweils auf die Halbkugel bezogen, gleich große 342 W/m². Das ist zumindest eine Überlegung, die man an anstellen kann.“9

Bildnachweis: EIKE

Die Satellitenmesswerte des ERBS Satelliten könnte man mit einem Halbkugelmodell in Beziehung setzen. Der Satellit ERBS hatte 15-Umläufe um die Erde am Tag. Die ERBS-Messwerte der Scanner, die auf die Erde gerichtet sind, sind aus einer Mittelwertbildung entstanden, einer Mittelung aus Tag- und Nachtmessung.

Die Erdkugel als beleuchtete Halbkugel grafisch im Augenblick der Einstrahlung 0 bis 180 Grad und 180 bis 360 Grad so dargestellt:

        X

X               X

         X

Der Standort des Satelliten ist von der solaren Einstrahlung auf die Erde unabhängig.

Fall 1: 0 bis 180 Grad:

15 Mal in 24 h für ERBS ist die halbe Erdkugel beleuchtet

+

Fall 2: 180 bis 360 Grad:

15 Mal in 24 h für ERBE ist eine halbe Erdkugel unbeleuchtet, aber in dieser Zeit strahlt die Sonne auf die beleuchtete Seite. Um auf die Satellitenwerte verweisen zu können, muss der Standpunkt der Messung berücksichtigt werden, die Perspektive des Satelliten während des Messvorganges. Steht der Satellit im Erdschatten, ist die TSI = 0 W/m². ISRModel = Incoming Solar Radiation auf Modellebene:

In der Messung:

Daraus folgt:

In der Perspektive des Satelliten: TSI im Mittel = (1368 W/m² + 0) / 2 = 684 W/m²

Übertragen auf ein Modell, das auf Mittelwerten beruht:

Der Faktor 2 lässt sich deshalb auch aus der Mittelwertbildung ableiten.

Werden Satellitenmesswerte als Strahlungsbeträge wie folgt umgruppiert, weisen sie eine horizontale und vertikale Gleichgewichtsbeziehung bzw. einzelne Symmetrieachsen auf. Dies gilt bis in den einzelnen ermittelten Datensatz und ist dem 1. HS der Thermodynamik, der Energieerhaltung, geschuldet.

(Mit clear sky albedo = 0.1345 = 92 W/m² /684 W/m² und a = 0.269 = 184 W/m² / 684 W/m²)

Modell 5: rot Abgleich mit Satellitenmesswerten, albedo a = 0.2690, bzw. 0.1345

Bildnachweis, A. Agerius FIG8 b Modell 5 clear sky11
 
 

Wenn die Strahlungsbilanz als Modell aus der Perspektive des Satelliten gerechnet wird, dann erscheinen alle vom ERBS Satelliten gemessenen 11 Datenreihen als Mittelwerte der 5- jährigen Messung gleichzeitig.

Grafische Darstellung der Strahlungsbilanz mit Satellitenmesswerten des Satelliten ERBS im 5- jährigen Mittel nach CEDA als Gegenmodell zu KT97, getrennt nach cloudy sky FIG8a und clear sky FIG8b:

Bezüglich shortwave cloud forcing gelingt die Trennung nicht ganz. Der Abweichung beträgt 11.5% (11.5% = 48/416 x100). Dies wird in Kauf genommen. Die gesamte Modellabweichung macht nur weniger als fünf Tausendstel der „top of“ gemessenen Gesamtstrahlung aus (4.8 = 2.0 W/m² /414.5 x 1000) oder ist damit < = 2 Watt/m² zum Messwert. Ich nenne es Modell 5. In KT97 werden die Messwerte, auf die sich Kiehl und Trenberth berufen, unzureichend abgebildet. Darüber hinaus gibt es zusätzliche Kritikpunkte an KT97, die in diesem kleinen Artikel nicht angesprochen werden können. Die exakte Ableitung von Modell 5, Werte für Konvektion, Wärmeleitung, atmosphärisches Fenster, weitere 14 Kritikpunkte an KT97, ein Vergleich mit Messwerten der Satelliten TERRA und AQUA des NASA CERES Programms siehe Quellenangabe12.

Zusammenfassung:

Der Strahlungs- und der Temperaturverlauf von der Erdoberfläche in Richtung Orbit entsprechen der Umgebungsgleichung siehe Abschnitt B. Die Formulierung einer Umgebungsgleichung P/A = σ (T4 – T04) aus dem Boltzmann Gesetz von Herrn Weber ist daher richtig. Die Umgebungsgleichung bildet ab, dass Wärme von warm nach kalt fließt, gemäß den Regeln der Thermodynamik. Das Modell von Kiehl und Trenberth, Abschnitt C, zeigt die Erde in der treffenden Beschreibung von Herrn Limburg als „eine Rundum-Sonne [allseitige Einstrahlung] bei gedimmter Einstrahlleistung“. KT97 beruft sich einerseits auf Satellitenmesswerte, kann aber andererseits nur sehr wenige davon abbilden und diese zeigen dann eine große Abweichung zwischen Modell und Messwertmittel.

Die durchschnittliche Oberflächentemperatur der Erde von ca. 15°C kann in KT97 nur mit der Modellhypothese von hoher Gegenstrahlung (324 W/m²) erklärt werden. Aber auch langwellige Strahlungsaussendung gemäß Stefan-Boltzmann benötigt eine Ursprungs-Temperatur als Ursache. In KT97 würde aber Wärme von kalt nach warm fließen. Weber`s Ansatz, Abschnitt A, betrachtet die Einstrahlung auf eine Halbkugel, aber die Abstrahlung von der Gesamtkugel aus der Perspektive der Kugeloberfläche. Dies führt ebenfalls zu einer Durchschnittstemperatur von 15°C, aber die Einführung der Idee einer Gegenstrahlung ist hierzu nicht erforderlich.

Der Ansatz Agerius (Modell 5), Abschnitt D, wurde aus der Perspektive des Satelliten entwickelt. Die Sonneneinstrahlung auf der Halbkugel reicht aus, um die Erde mit einer Durchschnittstemperatur von ca.15°C zu erwärmen. Die Abstrahlung erfolgt auch hier über die Oberfläche der Gesamtkugel. Alle Satellitenmesswerte lassen sich im Modell Agerius dann ebenfalls darstellen und dies mit einer Abweichung von <= 2 W/m² zwischen Modell und Messwertmittel. Beide Strahlungsverläufe clear und cloudy sky, Abschnitt D, benötigen keine Gegenstrahlung von 324 W/m² und schließen sie damit aus. Mit 714 W/m² (390 + 324) würde die Erde zu heiß werden. Mit den voneinander unabhängigen Modellen, Weber und Agerius, aus unterschiedlichen Perspektiven bzw. Bezugspunkten entwickelt, ist eine Gegenstrahlungshypothese und damit auch ein natürlicher Treibhauseffekt von 33 K für die Erklärung und Herleitung der realen Temperaturwerte nicht erforderlich.

1 Dobrinski, Krakau, Vogel., Physik für Ingenieure, 7. überarbeitete Auflage, Stuttgart, Teubner Verlag, ISBN 3-519-16501-5, Kap. 2.6.3 Strahlung S.195
2 Dobrinski, Krakau, Vogel., Physik für Ingenieure, 7. überarbeitete Auflage, Stuttgart, Teubner Verlag, ISBN 3-519-16501-5, Kap. 2.6.3 Strahlung S.195.

3 Physiker Dr. Rainer Link „Dieser Hot Spot wird nicht gemessen!“ in: Warum die Klimamodelle des IPCC fundamental falsch sind! Der Aufsatz ist im Web als pdf abrufbar.

4 A. Agerius, 2019, Kritische Analyse zur globalen Klimatheorie, zu B. Barkstorm und Culmann Verfahren, S.78.
5 KT97, S.198.
6 Barkstorm, Ramanathan and Harrison (1989), CLIMATE AND THE EARTH’S RADIATION BUDGET, in PHYSICS TODAY, American Institute of Physics.
7 KT97, S. 201, linke Spalte, 2 Satz.
8 Weber, 2017, Klima-Revolution, Ein atmosphärischer Treibhauseffekt ist nicht erkennbar, BoD, Norderstedt, ISBN:978-3-74483-562-6.
9 Herr Michael Limburg, Vizepräsident von EIKE, im Vortrag auf der 13. Internationalen EIKE- Klima und Energiekonferenz in München am 23. November 2019, https://youtu.be/-x5sgNfKvto
10 A. Agerius, 2019, Kritischen Analyse zur globalen Klimatheorie, ISBN 978-3-7497-1977-8, S.52.
11 A. Agerius, 2019, Kritischen Analyse zur globalen Klimatheorie, S.53.

12 A.Agerius, 2019, Kritische Analyse zur globalen Klimatheorie, Widerlegung der Basisstudie KT97 des IPCC mit den Messwerten des ERBS Satelliten an einem neuen Modell, Tredition, (Deutsch) ISBN 978-3-7497-1977-8.

A.Agerius,2019, Critical analysis of the global climate theory,Disproof of basic study of IPCC CO2 greenhouse effect, KT97, with measure values of ERBS satellite on a new model, Tredition (English) ISBN 978-3-7497-2137-5.




Ist Begutachtung [peer review] schlecht für Wissenschaft?

Schauen wir uns zunächst einmal an, was Peer Review zu tun versucht. Es liegt auf der Hand, die Veröffentlichung von gefälschter Wissenschaft zu blockieren. Dies scheint jedoch in den meisten Wissenschaften ein seltenes Ereignis zu sein. Es werden jedes Jahr mehrere Millionen Zeitschriftenartikel veröffentlicht, die alle begutachtet wurden, in der Regel von zwei oder drei Gutachtern. Offensichtlich waren diese vielen Millionen Begutachtungen kein Hindernis hinsichtlich der Veröffentlichung dieser unzähligen Artikel.

Paradoxerweise wurden jedoch die meisten dieser Artikel tatsächlich auf der Grundlage von Peer-Review-Verfahren abgelehnt; viele wurden mehrmals abgelehnt. Spitzenzeitschriften rühmen sich oft mit hohen Ablehnungsquoten, etwa 80% oder so. Wenn dies die allgemeine Praxis ist, muss ein durchschnittlicher Artikel bei etwa fünf Zeitschriften eingereicht werden, bevor er akzeptiert und veröffentlicht wird. Wenn jede Einreichung einem Peer-Review-Verfahren unterzogen wird, dann sind das eine Menge Überprüfungen pro Artikel, vielleicht zehn bis fünfzehn im Durchschnitt.

Angesichts der Tatsache, dass all diese mehrfach abgelehnten Artikel schließlich veröffentlicht werden, muss etwas anderes als einfache Bewertung betrieben werden. Dieses Etwas scheint ein äußerst mühsamer Sortierprozess zu sein, bei dem jeder Artikel schließlich die „richtige“ Zeitschrift findet. Es ist schwer vorstellbar, dass durch diese vielen Millionen von Begutachtungen eine Aufwertung der Beiträge stattfindet. In welcher Zeitschrift ein Artikel schließlich erscheint, scheint angesichts moderner Suchtechnologien nicht mehr sehr wichtig zu sein.

Ein negativer Aspekt der Peer Review ist bekannt. Hier verhindert die Bewertung, dass großartige neue Ideen veröffentlicht werden. Max Planck, der die Quantennatur der Energie entdeckte, drückte es sehr schön aus und sagte so etwas wie: „Ihre Ideen werden (nur) dann akzeptiert, wenn Ihre Studenten Zeitschriftenredakteure werden. Das ist die dunkle Seite der Peer-Review, die die Wissenschaft blockiert, die neuartigen guten Ideen werden als schlechte Ideen blockiert.

Aber es gibt noch einige andere Nachteile, die sich aus dem Peer-Review ergeben, die ich nicht erwähnt gesehen habe. Diese Schattenseiten sind Merkmale der unglaublich zeit- und arbeitsintensiven Natur dieser Praxis.

Da ist zunächst die enorme Zeitverzögerung zwischen dem Zeitpunkt, an dem eine Arbeit geschrieben wird, und dem Zeitpunkt, an dem sie schließlich veröffentlicht wird. Nehmen wir an, dass die Begutachtung durch Fachkollegen vier Monate dauert, was wahrscheinlich ziemlich schnell ist. Wenn eine durchschnittliche Studie fünf Mal begutachtet wird, dann sind das fast zwei Jahre an Begutachtungen, bevor sie schließlich angenommen wird. (Außerdem liegen zwischen diesen Begutachtungen noch viele andere Schritte, so dass der Durchschnitt eher bei vier Jahren von der ersten Einreichung bis zur endgültigen Veröffentlichung liegen dürfte).

Wenn jedes Jahr zwei Millionen Arbeiten mit einer durchschnittlichen Verzögerung von etwa zwei Jahren aufgrund von Peer-Review-Verfahren veröffentlicht werden, bedeutet dies eine Anhäufung von vier Millionen Jahren Verzögerung pro Jahr. Man kann davon ausgehen, dass die Beseitigung dieser gewaltigen Flut von Verzögerungen den Fortschritt der Wissenschaft dramatisch beschleunigen würde.

Dann sind da noch die Kosten. Die Organisation und Verwaltung des Peer-Review-Verfahrens ist wahrscheinlich der größte Kostenfaktor für Zeitschriftenverlage. Man beachte, dass bei einer Ablehnungsquote von 80 % etwa fünf Artikel für jeden veröffentlichten Artikel begutachtet werden. Bei drei Begutachtungen bedeutet das jeweils fünfzehn Begutachtungen pro veröffentlichten Artikel.

Die hohen Kosten für Zeitschriften und Artikel sind ein großes Hindernis für den Zugang aller außer den reichsten Universitäten und Forschern. Dadurch wird der Fortschritt der Wissenschaft wahrscheinlich stark behindert.

Hinzu kommt die enorme Zeit, die Forscher damit verbringen, die Artikel der anderen zu überprüfen. Es wird erwartet, dass die Rezensionen umfassend sind, so dass sie wahrscheinlich jeweils 10 bis 20 Stunden dauern, vielleicht sogar mehr. Bei fünfzehn Rezensionen pro veröffentlichten Artikel sind das 150 bis 300 Stunden Rezensionszeit.

Man multipliziere das mit 2 Millionen veröffentlichten Artikeln, und wir erhalten unglaubliche 300 bis 600 Millionen Stunden pro Jahr, die eher der Rezension als der Forschung gewidmet sind. Geht man davon aus, dass ein Arbeitsjahr 2000 Stunden beträgt, ist das so, als ob man 150.000 bis 300.000 Forscher von ihrem eigentlichen Arbeitsplatz fernhält, nur um die Arbeiten der anderen zu begutachten. Man stelle sich vor, was man stattdessen an Forschungen durchführen könnte. Auch dies ist ein großer Verlust für den Fortschritt der Wissenschaft.

Schlussfolgerung: Peer-Review fügt dem wissenschaftlichen Prozess in erheblichem Umfang Verzögerungen, Kosten und Ablenkung hinzu. Es ist nicht gut genug, um diese enormen negativen Auswirkungen auf das Tempo des wissenschaftlichen Fortschritts zu rechtfertigen. Unter dem Strich ist Peer-Review also schlecht für die Wissenschaft.

Autor: David Wojick, Ph.D. is an independent analyst working at the intersection of science, technology and policy. For origins see http://www.stemed.info/engineer_tackles_confusion.html For over 100 prior articles for CFACT see http://www.cfact.org/author/david-wojick-ph-d/ Available for confidential research and consulting.

Link: https://www.cfact.org/2020/07/18/is-peer-review-bad-for-science/

Übersetzt von Chris Frey EIKE




Globaler ‚Great Reset‘* ist wie Klimapolitik zu Drogen – Sozialismus in Grün

Wie es die Befürworter des Grünen New Deal bei seiner Einführung taten, befleißigen sich diejenigen, die den Great Reset vorantreiben, der Angstmacherei und ungerechtfertigter Untergangsprophezeiungen, um die Menschen glauben zu machen, dass dies der einzige Weg sei, eine globale Apokalypse abzuwenden.

Klaus Schwab, Gründer und geschäftsführender Vorsitzender des Weltwirtschaftsforums, sagte: „Wir haben nur einen Planeten, und wir wissen, dass der Klimawandel die nächste globale Katastrophe mit noch dramatischeren Folgen für die Menschheit sein könnte. Wir müssen die Wirtschaft in dem kurzen noch verbleibenden Zeitfenster dekarbonisieren und unser Denken und Verhalten wieder in Einklang mit der Natur bringen.

Wir brauchen einen Mentalitätswandel, den Übergang vom kurzfristigen zum langfristigen Denken, den Übergang vom Aktionärskapitalismus zur Verantwortung der Aktionäre. Ökologische, soziale und gute Regierungsführung müssen ein angemessener Teil der Rechenschaftspflicht von Unternehmen und Regierungen sein“, sagte Schwab.

Dies klingt unheimlich nach der Prognose der Abgeordneten Alexandria Ocasio-Cortez (D-NY), der zufolge die Welt in 12 Jahren untergehen wird, wenn der Green New Deal nicht zum Gesetz des Landes wird.

Nicht zu übertreffen, beschrieb der Prinz von Wales die dringende Notwendigkeit des Great Reset so: „Um unsere Zukunft zu sichern und Wohlstand zu schaffen, müssen wir unser Wirtschaftsmodell weiterentwickeln und die Menschen und den Planeten in den Mittelpunkt der globalen Wertschöpfung stellen. Wenn es eine entscheidende Lektion aus dieser Krise zu lernen gibt, dann die, dass wir die Natur in den Mittelpunkt unseres Handelns stellen müssen. Wir dürfen einfach nicht noch mehr Zeit verschwenden“.

Es ist bezeichnend, dass fast alle sich für einen massiven wirtschaftlichen und sozialen Wandel als Reaktion auf den Klimawandel einsetzenden Staats- und Regierungschefs der Welt sagen, dass wir diese umfassenden Veränderungen sofort umsetzen müssen, sonst wird die Welt untergehen. Woher wissen sie das? Sie wissen es nicht.

UNO-Generalsekretär António Guterres fügte hinzu: „Der Great Reset ist eine willkommene Erkenntnis, dass diese menschliche Tragödie ein Weckruf sein muss. Wir müssen gleichberechtigtere, integrativere und nachhaltigere Volkswirtschaften und Gesellschaften aufbauen, die angesichts von Pandemien, des Klimawandels und der vielen anderen globalen Veränderungen, mit denen wir konfrontiert sind, widerstandsfähiger sind“.

Praktischerweise bieten weder Guterres noch die anderen eine spezifische Politik zur Erreichung dieser Klimaziele an. Stattdessen verlassen sie sich auf Plattitüden und Wohlfühlmechanismen, um Unterstützung für ihre Position zu gewinnen.

Die vielleicht aufschlussreichste Beschreibung der schieren Größe und des Umfangs des Great Reset stammt von Ma Jun vom China Green Finance Committee. Jun sagt, dass die im Great Reset skizzierten Veränderungen „grüner sein müssen als jede der früheren Konjunkturerholungen“.

Jun sagt, das Konjunkturpaket des Great Reset sei „sehr groß – größer als die historischen Zahlen“. Wie groß? Laut Jun etwa 20 Prozent des BIP der USA oder 8 Prozent des BIP Chinas. Das ist größer als groß.

Jun bezeichnete auch die folgenden politischen Maßnahmen als wesentlich im Rahmen des Great Reset:

1. „Stellen Sie sicher, dass der Prozentsatz grüner Projekte höher ist als jemals zuvor in der Geschichte“.

2. „Stellen Sie sicher, dass Projekte, die nicht als grün gekennzeichnet werden können, strenge Umweltstandards einhalten.

3. „Konsumanreize müssen grün sein. Regierungen könnten eine Liste grüner Konsumgüter erstellen, und diese sollten auf einer Liste von Verbrauchersubventionen und Coupons bevorzugt werden.

4. Programme zur Schaffung von Arbeitsplätzen müssen grün sein. Wanderarbeiter haben Arbeitsplätze verloren. Statt ihnen Arbeitslosengeld zu zahlen, sollten wir sie auffordern, Bäume zu pflanzen und sie dafür zu bezahlen.

5. Regierungen [müssen] grüne Anleihen so weit wie möglich in Betracht ziehen. Das erhöht die Marktteilnahme und ermutigt den Privatsektor, sich ebenfalls zu beteiligen.

6. Alle Zentralbanken, die eine quantitative Lockerung in Betracht ziehen, sollten grüne Anleihen verwenden.

Es ist ironisch, dass China auf diese übergrüne Politik drängt. China ist bei den Kohlendioxidemissionen weltweit führend und einer der weltweit führenden Verbraucher fossiler Treibstoffe, einschließlich Kohle. „Tu, was ich sage, und nicht, was ich tue“ scheint hier in höchstem Maße zu gelten.

Die Abbildung oben (Quelle Data source: EDGAR – Emissions database for Global Atmospheric Research.)

Beim Great Reset geht es nicht um die Rettung der Umwelt, ebenso wenig wie beim Green New Deal. In Wahrheit sind beide Programme Trojanische Pferde für eine massive Umverteilung des Reichtums und sozial gerechter Systeme auf einem bisher nicht gekannten Niveau. Bis heute haben viele prominente Demokraten und Organisationen der extremen Linken (insbesondere Pseudo-Umweltinstitutionen) den Green New Deal und/oder den Great Reset unterstützt.

Nächstes Jahr wird der WEF ein Gipfeltreffen ausrichten, um „wichtige globale Regierungs- und Wirtschaftsführer in Davos mit einem globalen Multistakeholder-Netzwerk in 400 Städten auf der ganzen Welt für einen zukunftsorientierten Dialog zu verbinden, der von der jüngeren Generation vorangetrieben wird“.

Das Letzte, was die Welt braucht, ist ein Haufen verirrter Eliten, die im schweizerischen Davos Urlaub machen, um die Weltwirtschaft auf der Grundlage von Junk Science und Klischees über soziale Gerechtigkeit neu zu gestalten, um der demografischen Bevölkerung von Greta Thunberg zu gefallen.

Wenn diese Eliten wirklich über den weltweiten Klimawandel besorgt sind, sollten sie ihrem Jet-Set-Lebensstil entsagen und wie wir alle leben. Leider erscheint das so unwahrscheinlich, wie wenn Greta ihre 15 Minuten Ruhm aufgeben und wieder Vollzeit zur Schule gehen würde.

Guest essayist Chris Talgo (ctalgo@heartland.org) is an editor at The Heartland Institute.
Quellen: Stopping Socialism; World Economic Forum; United States House of Representatives
Link: https://www.heartland.org/news-opinion/news/global-great-reset-is-climate-policy-on-steroids-socialism-in-green
Übersetzt von Chris Frey EIKE