Die Medien befleißigen sich jetzt der Meinungs­kontrolle!

Heute sind die Universitäten Schauplatz einer neuen, bedauerlicherweise fehlgeleiteten Bewegung, der Anti-Freie-Rede-Bewegung.  Einige bezeichnen sie als „Cancel Culture“, was unklar ist, aber im Wesentlichen ist es eine Bewegung, die von der verhängnisvollen Idee angetrieben wird, dass eine Gruppe von Menschen in der Lage sein sollte, anderen Menschen zu diktieren, was sie sagen dürfen, welche Meinungen sie ausdrücken dürfen, was sie schreiben und welche Worte sie sprechen dürfen.  Schriftsteller und Redner, die nicht in ein sehr enges Fenster dessen passen, was von den Twitter-Mobs als „akzeptabel“ erachtet wird, werden niedergeschrieen, ausgeladen, verleumdet, mit Kündigungsforderungen konfrontiert und in ihrem Leben bedroht.

Bari Weiss, die gerade nach einer dreijährigen Amtszeit als Redakteurin und Autorin über Kultur und Politik bei der New York Times zurückgetreten ist, drückte es so aus:

Twitter steht nicht auf dem Impressum der New York Times. Aber Twitter ist ihr letzter Redakteur geworden. Da die Ethik und die Sitten dieser Plattform zu denen der Zeitung geworden sind, ist die Zeitung selbst zunehmend zu einer Art Plattform für Vorstellungen geworden. Die Geschichten werden so ausgewählt und erzählt, dass sie auch das kleinste Publikum zufrieden stellen, anstatt einem neugierigen Publikum zu erlauben, über die Welt zu lesen und dann seine eigenen Schlussfolgerungen zu ziehen. Mir wurde immer beigebracht, dass Journalisten damit beauftragt werden, den ersten groben Entwurf der Geschichte zu schreiben. Nun ist die Geschichte selbst eine weitere vergängliche Sache, die so gestaltet ist, dass sie den Bedürfnissen einer vorgegebenen Erzählung entspricht“.

Und, mein persönlicher Lieblingssatz:

Das Papier der Aufzeichnungen ist mehr und mehr die Aufzeichnung derer, die in einer weit entfernten Galaxie leben, eine, deren Sorgen aus dem Leben der meisten Menschen zutiefst entfernt sind“.

(Lesen Sie das gesamte Rücktrittsschreiben auf der Website von Bari hier.  Es ist die zehn Minuten, die dafür erforderlich sind, durchaus wert.  Vielleser bei WUWT werden feststellen, dass ich auf diesen Seiten seit Jahren dasselbe über die NY Times sage).

Die Free Speech Movement führte dazu, dass die Universitäten bestimmte Bereiche benannten, in denen jeder kommen und sprechen, Broschüren und Flugblätter verteilen und die von ihm gewählten Meinungen und politischen Ansichten zum Ausdruck bringen konnte. Jede Meinung – jede Rede – alles schriftliche Material. Es spielte keine Rolle, wie beleidigend es für einige war; wie verrückt, abgedreht oder antiamerikanisch es war. Sie konnten es sagen, schreiben und verteilen. Die meisten dieser freien Reden und Pamphlete wurden einfach im Vorbeigehen angenommen und in den Papierkorb geworfen. Aber sie wurden nicht verboten und nicht aus dem Leben gerissen.

Traurigerweise ist das heute nicht mehr der Fall.

Das heutige öffentliche Forum, die heutige Free Speech Zone, ist das Internet. Persönliche und organisatorische Websites, Facebook-Seiten, Twitter-Feeds. Das Schöne am Internet war, dass man sagen konnte, was immer man wollte, und solange man nicht gegen bestimmte Gesetze (Pornographie, Morddrohungen usw.) verstieß, konnte man seine Ansichten veröffentlichen, und wenn andere Leute sich dafür entschieden, sie zu lesen, konnten sie dies frei tun.

Sie lesen gerade eine dieser Bemühungen um freie Meinungsäußerung: Watts Up With That. Es hat Versuche gegeben, diese Website zu schließen, es hat persönliche Drohungen gegen ihren Gründer und einige der Autoren hier gegeben.  Es gibt ideologische Gegner, die diese Website fälschlicherweise als Fehlinformation und Desinformation bezeichnen und diejenigen, die hier schreiben, verleumden und verleumden.  Diese Opposition hat das Recht, ihre Meinung zu äußern – genau wie wir.  Sie haben nicht das Recht, sich zu bemühen, ihre Ansichten anderen gegenüber durchzusetzen, indem sie versuchen, diese Website zu schließen oder den Verkehr von dieser Website wegzuleiten.  Google hat WUWT in seiner Suchmaschine delegitimiert und gleichzeitig verleumderische Sites legitimiert. (Einige meiner früheren Arbeiten über Google hier, hier und hier).

Jetzt ist ein neues Übel aufgetaucht, und zwar auf dem größten öffentlichen Forum der Welt, Facebook. Der Angriff von Facebook auf die Redefreiheit wird als „Faktenprüfung“ bezeichnet – und ein ähnlicher Angriff wurde in vielen Zeitungen reflektiert.

FACT-CHECKING oder OPINION-CHECKING?

Der „Vorfall“ ereignete sich im vergangenen August – die Veröffentlichung eines Meinungsbeitrags im Washington Examiner von Pat Michaels und Caleb Rossiter von der CO2-Koalition. Der Beitrag wurde anschließend auf die Facebook-Seite der Koalition kopiert.

Die Kopie der Facebook-Seite der CO2-Koalition wurde prompt als „falsch“ bezeichnet.  Hier ist die Geschichte unklar, und verschiedene Medien berichten unterschiedlich.  Eine Version besagt, dass ein aufgeklärter Facebook-Mitarbeiter (die Presse bezeichnet ihn als „konservativen“ Mitarbeiter, der noch nicht identifiziert wurde) das „falsche“ Etikett mit der Begründung entfernte, dass es sich bei der Arbeit des Washingtoner Prüfers eindeutig um eine Stellungnahme handelte. Andere Nachrichtenagenturen geben an, dass Facebook auf einen Protest der CO2-Koalition reagierte und das Etikett entfernte.

Diese Geschichte hätte damals sterben müssen – es war ein „Sturm in der Teekanne“ – aber seltsamerweise tauchte sie letzte Woche an mehreren Stellen wieder auf (hier, hier und noch überraschender hier (als PDF), als Brief von Elizabeth Warren und drei anderen US-Senatoren an Mark Zuckerberg).

Es scheint mir, dass jemand diese Geschichte an wohlwollende Medien mit einer Kopie an das Büro von Elizabeth Warren weitergeleitet hat.

Was wirklich passiert ist, wird in der Presse verschleiert, aber wenn man tief genug gräbt und die gesamte Presseberichterstattung liest, stellt man fest, dass Facebook niemanden gebeten hat, den fraglichen Artikel einem Fact-Check“ zu unterziehen. Eine private Klimaschutzgruppe initiierte die Aktion auf eigene Faust und nutzte ihre Position als „anerkannte“ Facebook-Organisation außerhalb einer dritten Organisation zur Faktenüberprüfung, um den Artikel (auf der Facebook-Seite einer privaten Organisation) als falsch zu kennzeichnen. Dazu mussten sie lediglich einen Eintrag in eine Facebook-Datenbank vornehmen.

Wer hat das getan? Climate Feedback. Sie sind nicht auf der Facebook-Liste der anerkannten Faktenprüfer aufgeführt (siehe diese Site, unten, wählen Sie, um die Liste der US-amerikanischen Faktenprüfer zu sehen), aber sie sind offenbar eine Untergruppe von Science Feedback, die aufgeführt ist.

Man erhält sofortiges „Feedback“ zu ihren Meinungen über das Klima durch dieses Bild auf der Startseite der Science Feedback-Website:


Facebook verfolgt den Grundsatz, dass Meinungsartikel in der Regel nicht auf Fakten überprüft werden, basierend auf der offensichtlichen Tatsache, dass:

und zu kontroversen Themen wie dem Klimawandel decken sie ein sehr breites Spektrum von Standpunkten ab, von „wegen der CO2-Verschmutzung sind wir alle dem Untergang geweiht und werden alle sterben“ (mit verschiedenen Zeitrahmen von 5 bis 30 Jahren) bis hin zu dem Standpunkt von Michaels, Rossiter (und Will Happer) bei der CO2-Koalition, dass höhere „Kohlendioxidwerte allen helfen werden, auch zukünftigen Generationen unserer Familien“.

Die offizielle Haltung von Facebook zu Meinungen und Fact-Checking ist Folgende:

„Meinung:
Der Inhalt von Meinungen kann im Allgemeinen nicht bewertet werden. Dazu gehören Inhalte, die für Ideen eintreten und Schlussfolgerungen auf der Grundlage der Interpretation von Fakten und Daten ziehen und der Öffentlichkeit mitteilen, was der Autor oder Beitragende über ein Ereignis oder ein Thema denkt. Meinungsbeiträge können berichtete Fakten oder Zitate enthalten, betonen jedoch die eigenen Gedanken, persönlichen Vorlieben und Schlussfolgerungen des Autors. Dazu können auch Leitartikel, Befürwortungen oder Inhalte gehören, die in der Überschrift mit „Meinung“ gekennzeichnet sind, von einem identifizierten Meinungskolumnisten verfasst wurden oder von einer Website oder Seite mit dem Hauptzweck verbreitet werden, die Meinungen oder Tagesordnungen von Persönlichkeiten des öffentlichen Lebens, Think Tanks, NGOs und Unternehmen zum Ausdruck zu bringen. Inhalte, die als Meinung präsentiert werden, aber auf zugrundeliegenden falschen Informationen basieren, können dennoch für eine Bewertung in Frage kommen“.

Facebook ist der Ansicht, dass Menschen ein Recht darauf haben, ihre Meinung frei zu äußern (und nicht irgendein fleißiger Körper, Twitter-Mob oder eine Issue-Advokat oder Advocacy-Gruppe, die ihre Meinung unabhängig voneinander als falsch, Fehlinformation, Desinformation, Falschdarstellung usw. abstempelt). Jemand – und ich vermute, es handelt sich dabei um die gleichen Personen, die an Science/Climate Feedback beteiligt sind – erzeugt wieder eine Menge neuen Lärm über die Politik von Facebook. Diese Ausgabe teleportierte sich nicht einfach durch die Zeit vom letzten August zur Abteilung Klima der NY Times, zu ClimateWire, zur Website Heated oder zum Schreibtisch von Elizabeth Warren. Offenbar hat jemand beschlossen, die laufenden Bemühungen, Facebook dazu zu bringen, Inhalte anderer sozialer und politischer Themen [Rassismus, Trump, Impfstoffe, Polizei] zu zensieren oder zu kontrollieren, auch versucht, die Plattform dazu zu bringen, auch Meinungen zum Klima zu zensieren.

Das nennt man Fact-Check?

Es ist eine interessante Lektüre, die „Anmerkungen“ zu sehen – die Details der „Fakten“-Überprüfung, die Climate Feedback dazu veranlasst hat, den Artikel der CO2-Koalition fälschlicherweise als „falsch“ zu bezeichnen – ClimateFeedback hat die „Faktenüberprüfung“ des Meinungsartikels selbst initiiert – Man denke daran, dass Facebook keine Faktenüberprüfung dieses Artikels verlangt hat.

Man schaue hier.

Das Kästchen auf der rechten Seite erscheint, wenn man auf die Überschrift der Geschichte klickt.  Wenn man auf einen anderen hervorgehobenen Text klickt, wird deutlich, dass es sich bei den „Faktenprüfern“ nicht um eine Faktenprüfung, sondern um eine Meinungsprüfung handelt. Ich empfehle den Lesern, sich die Seite anzusehen und auf die einzelnen Anmerkungen zu klicken, um die „Faktenprüfung“ für den jeweiligen Artikel zu sehen.  ALLE sind Meinungsfragen, die von der Gesamtsicht auf die Klimafrage abhängen.  Einer der „Faktenprüfer“, Stephen Po-Chedley, verlinkt gerne auf einige seiner eigenen Artikel als Beweis dafür, dass die Koalition in dem einen oder anderen Punkt falsch liegt.

E&E-News stellt fest:

„Facebook hat es einfacher gemacht, die Öffentlichkeit in die Irre zu führen, weil es ungenaue Klima-Behauptungen einem Publikum aufbürdet, das nur an parteiischen Erzählungen interessiert und nicht bereit ist, die tatsächliche Wissenschaft zu untersuchen, sagte Andrew Dessler, ein Klimawissenschaftler an der Texas A&M University und Mitglied des Teams, das den ursprünglichen Beitrag der CO2-Coalition auf Fakten überprüft hat. Er sagte, dass Facebook, wie auch andere soziale Medienunternehmen, es den Menschen erlaube, „in den Blasen zu leben, wo sie nur die Informationen hören, die sie hören wollen“.

[NB: Keine der Anmerkungen zum Artikel des Washington Examiner wurde von Andrew Dessler gepostet.  Dessler ist weder auf der Climate Feedback-Website noch auf der Science Feedback-Website als Gutachter aufgeführt].

Hier ist die Abfolge der Ereignisse:

1. Pat Michaels und Caleb Rossiter veröffentlichen am 25. August 2019 im Washington Examiner ein Op-Ed-Stück, in dem sie die Meinungen ihrer Gruppe, der CO2-Koalition, zum Thema Klimawandel und CO2 darlegen.

2. Das Climate Team, einschließlich derer, die mit dem sogenannten Klima-Feedback befasst sind, und Andrew Dessler (der nicht offiziell mit der Science/Climate Feedback Group verbunden ist), mögen diese Meinungen nicht.

3. Anscheinend können sie den Washington Examiner nicht unter Druck setzen, also gehen sie dem wiederveröffentlichten Artikel auf der Facebook-Seite der Koalition nach, führen ihre unabhängige und unaufgeforderte „Faktenprüfung“ durch und bezeichnen den Meinungsartikel auf Facebook als „irreführend, fehlerhaft argumentiert, voreingenommen, ungenau und als Rosinenpickerei“. Man beachte, dass alle ihre Einwände selbst Meinungen und ihr eigenes Verständnis komplexer Daten sind – wenn auch in Übereinstimmung mit dem, was als „Klimakonsens“ bezeichnet wird.

4. Im September 2019, etwa drei Wochen später, nach einer Beschwerde der Koalition, stimmt Facebook zu, dass die Überprüfung von Fakten eine Verletzung der eigenen Richtlinien darstellt und ent-kennzeichnet den Artikel.

5. Nun, Ende Juni 2020, beginnt jemand, der nicht bereit ist, diesen Angriff auf die Redefreiheit erfolglos bleiben zu lassen,, „Empörung“ zu schüren, nachdem er zehn Monate gewartet hat, indem er den Artikel erneut an Nachrichtenagenturen (und, wie es scheint, an Elizabeth Warren im US-Senat) herausgibt.

Diejenigen, die das nicht ganz verstehen, sollten das Rücktrittsschreiben von Bari Weiss, das weit oben verlinkt ist, noch einmal lesen. Sie sagt es über der NY Times, aber es trifft auf fast alle Massenmedien in den Vereinigten Staaten (und sicherlich auch in Großbritannien) zu:

Stattdessen hat sich in der Presse, aber vielleicht besonders bei dieser Zeitung, ein neuer Konsens herauskristallisiert: dass die Wahrheit kein Prozess der kollektiven Entdeckung ist, sondern eine Orthodoxie, die bereits einigen wenigen Aufgeklärten bekannt ist, deren Aufgabe es ist, alle anderen zu informieren“.

Wir sehen dies jetzt bei Google, Twitter, YouTube und anderen sozialen Medien und internetbasierten Plattformen. Diejenigen, die sich selbst für die „aufgeklärten Wenigen“ halten – die glauben, dass nur sie die Wahrheit kennen und dass „Wahrheit = Orthodoxie, Wahrheit = Konsens, Wahrheit = der Wille der Mafia“ ist – und die Macht ergreifen, um alle Ansichten zu blockieren, die ihren eigenen widersprechen.

Dies gilt in der Klimawissenschaft seit Jahrzehnten. Es überrascht jedoch diejenigen, die den Blick gesenkt und weggeschaut haben, froh, dass sie sich auf einem anderen Gebiet befanden. Nun, da der Konsens-Mob seine Aufmerksamkeit auf Historiker, Ärzte, Philosophen, Psychologen, Professoren und Juristen gelenkt hat, sehen wir ein paar weitere Stimmen, die sich gegen diese zerstörerische Flut stemmen. Diese Stimmen werden wiederum bösartig angegriffen, weil sie die Redefreiheit verteidigen – schließlich „passen sie nicht in das anerkannte Twitter-Narrativ“.

# # # # #

Kommentar des Autors dieses Beitrags:

Dies ist ein Meinungsartikel. Wenn Sie damit nicht einverstanden sind, hinterlassen Sie bitte Ihre gegenteilige Meinung in den Kommentaren.

Beispiele sind im Alltag so weit verbreitet, dass wir eine rekordverdächtige Anzahl von Kommentaren hätten, wenn jeder Leser einen Link zu einer lokalen Geschichte hinterlassen würde, die dieses Problem veranschaulicht.

Am 15. Juli 2020 gab Caleb Rossiter hier seine Version dieser Episode wieder.

Ich nenne in diesem Aufsatz keine Beispiele für eine reine Zweiparteienpolitik. Diejenigen Leser, die sehen möchten, wie schlimm dieses Problem ist, wenn es die Zwei-Parteien-Politik in den Vereinigten Staaten betrifft, können sich einen der folgenden Sites ansehen, einen beliebigen Link auswählen und selbst bestimmen, ob die Medien Fakten oder Meinungen prüfen. Meiner Ansicht nach prüfen sie meist anhand ihrer etablierten redaktionellen Vorgaben und nicht anhand von Fakten. (Nochmals, man lese Bari Weiss).

AP News: https://apnews.com/APFactCheck
CNN Fact-Check Politics: https://www.cnn.com/specials/politics/fact-check-politics
NPR Fact-Checks Politics: https://www.npr.org/sections/politics-fact-check
MSN Fact-Check: https://www.msn.com/en-us/news/factcheck
USA Today Fact-Check: https://www.usatoday.com/news/factcheck/
NY Times Fact-Checks: https://www.nytimes.com/spotlight/fact-checks

Dies ist ein schwerwiegendes Problem – wir alle müssen uns klarmachen, wo wir stehen. Verlangen Sie von Ihren lokalen Nachrichtenagenturen, dass sie echten Journalismus praktizieren – und dass sie nicht nur nachplappern, worum es bei den Twitter-Mobs geht. Verlangen Sie eine wirklich unvoreingenommene Berichterstattung über Themen.

Und um Himmels willen, wenn Sie sich versucht fühlen, „mitzumachen, um miteinander auszukommen“ – hören Sie auf! Hören Sie einfach auf! (h/t Bob Newhart)

Lesen Sie viel, denken Sie selbst nach und denken Sie kritisch.

Link: https://wattsupwiththat.com/2020/07/23/the-media-is-now-opinion-checking/
Übersetzt von Chris Frey EIKE




Grüne Propaganda

Das vielleicht bekannteste Beispiel für grüne Propaganda ist die hartnäckige Behauptung, dass 97% der Klimawissenschaftler darin übereinstimmen, dass der vom Menschen verursachte Klimawandel den Planeten gefährdet. Studien mit dieser 97%-Zahl wurden bereits im Jahre 2014 entlarvt. In einer solchen Studie stellten vier unabhängige Gutachter fest, dass nur 0,3 Prozent von 11.994 zitierten Abstracts tatsächlich die Aussage enthielten, dass menschliche Aktivitäten die Hauptursache für die globale Erwärmung sind.

Aber man vergesse die mickrigen 97%! Im November 2019 hat die grüne Propagandamaschine den Einsatz erhöht. Jetzt, so behaupteten sie, gebe es einen wissenschaftlichen Konsens zu 100% darüber, dass der Mensch die Haupttreiber des Klimawandels sei. 100 Prozent?!? Was ist mit den „350 [peer-reviewed] Papieren, die seit 2017 veröffentlicht wurden und die die Behauptung untergraben, dass die Erwärmung nach den 1850er Jahren ungewöhnlich gewesen sei“, und Dutzende weiterer Artikel im Jahr 2019, die zu dem Ergebnis gekommen waren, „dass an unserem Klima nichts alarmierend oder katastrophal ist“?

Eine weitere alltägliche Taktik der grünen Propaganda bestand darin, die tatsächlichen Temperaturaufzeichnungen einfach zu fälschen. Der Umweltschützer und Computermodellexperte Tony Heller hat viele dieser Schwindeleien in einer Reihe von Augen öffnenden Videos dokumentiert. (Hier ist ein weiterer Link. Und hier noch einer.) Interessanterweise war die National Oceanic and Atmospheric Administration, der offizielle Hüter der Temperaturaufzeichnungen der Vereinigten Staaten, laut The Wall Street Journal ausdrücklich vom Data Quality Act ausgenommen – dem Bundesgesetz, das eine solide wissenschaftliche Grundlage für die Politikgestaltung verlangt.

Ein weiteres fruchtbares Feld für grüne Propaganda-Lügen ist der „Peer-Review“-Prozess. Erstens glauben viele Wissenschaftler, dass er selbst gescheitert ist. Einige beschreiben ihn als „eine Form der Zensur“ – als eine Art Torwächter, um Andersdenkende fernzuhalten. Andere behaupten: „Peer-Review ist dafür bekannt, Voreingenommenheit, Inkompetenz … Ineffektivität und Korruption zu erzeugen“. Dr. John Ioannidis, der im Zusammenhang mit Covid-19 mit seiner Kritik an der Datenerfassung und Modellierung so zielgerichtet vorgegangen ist, behauptet, je „heißer“ ein Gebiet der wissenschaftlichen Forschung ist („heißer“ bedeutet beliebter und aktiver), „desto unwahrscheinlicher ist es, dass die Forschungsergebnisse wahr sind“. Und welches Gebiet der wissenschaftlichen Forschung war in den letzten 30 Jahren heißer als der Klimawandel?

Zweitens, wie wir aus E-Mails von Klimagate und anderen Quellen erfahren haben, war die Begutachtung durch Fachkollegen in der Klimawissenschaft höchst inzestuös, da die Schlüsselfiguren im Alarmisten-Lager gegenseitig ihre Arbeit überprüfen und gleichzeitig ihre Arbeit vor der Überprüfung durch andere Wissenschaftler abschirmen.

Drittens behauptete der verstorbene IPCC-Vorsitzende Rajendra Pachauri hochmütig, dass der IPCC nur von Fachkollegen begutachtete Wissenschaft verwendet. Dem war nicht so. Die viel gepriesene „Klimabibel“ des IPCC (der Bericht von 2007, der mit dem Friedensnobelpreis für den IPCC ausgezeichnet wurde) zitierte 5.587 nicht von Experten begutachtete Quellen wie „Pressemitteilungen, Zeitungs- und Zeitschriftenausschnitte, Arbeitspapiere, Studentenarbeiten, Diskussionspapiere und Literatur, die von grünen Interessengruppen veröffentlicht wurde“.

Eine gängige Propagandatechnik besteht darin, nur eine Seite der Geschichte zu erzählen. So hat die grüne Propaganda im Februar dieses Jahres in der Antarktis die rekordverdächtig warme Temperatur von 18,3 Grad Celsius gehypt. Während sie ein Rekordsommerhoch auf der Südhalbkugel hochjubelten, verschließen die grünen Propagandisten die Augen vor einem winterlichen Rekord-Minimum auf der Nordhalbkugel, das sich einen Monat zuvor ereignet hatte – genauer gesagt, vor einer Temperaturmessung von -66°C in Grönland.

Als die Temperatur in der sibirischen Stadt Werchowjansk am 20. Juni 38 Grad Celsius erreichte, drehte die grüne Propagandamaschine gewaltig auf. (Diese Temperatur lag weniger als ein Grad über dem früheren Rekord-Maximum von 1988). Sie vergaßen zu erwähnen, dass eine solche Hitze nördlich des Polarkreises nicht beispiellos war. Bereits am 27. Juni 1915 erreichte die Temperatur in Fort Yukon, Alaska, ebenfalls 38 Grad Celsius. Übrigens habe ich keine grünen Berichte darüber gesehen, dass die Menschen in Werchowjansk am 5. Juli durch Schnee am Boden erwachten. Wilde Temperaturschwankungen sind dort aufgrund der eigenartigen Topographie und anderer natürlicher Faktoren eine Tatsache.

Haben Sie den BBC-Bericht über den antarktischen Gletscher Thwaites gesehen, der rasch schmilzt? Das stimmt, aber der Bericht hat nicht erwähnt, dass aktive Vulkane unter dem Gletscher die Ursache für das Abschmelzen sind. Ein Verbot von Geländewagen wird Thwaites nicht vom Schmelzen abhalten.

Im vergangenen September proklamierten 250 Nachrichtenorganisationen auf der ganzen Welt offen eine koordinierte Kampagne, um ihre Leser und Zuschauer von der dringenden Notwendigkeit politischen Handelns zur Bewältigung des katastrophalen Klimawandels auf dem UN-Klimagipfel in jenem Monat zu überzeugen. Jeglicher Vorwand journalistischer Unparteilichkeit wurde ausdrücklich verneint. Die Medien kündigten sich offen und stolz als Fürsprecher (Propagandisten) für ihren bevorzugten Standpunkt an. Im Variety-Magazin erschien sogar ein Artikel mit dem Titel [übersetzt] „Tut Hollywood genug, um die Klimakrise zu bekämpfen“, als ob die Unterhaltungsindustrie bei der öffentlichen Gehirnwäsche an der Spitze stehen sollte.

Unterdessen bestehen einige grüne Eiferer darauf, dass die grüne Propaganda, die sich während der letzten Jahrzehnte an Kinder im In- und Ausland richtete, verstärkt werden müsse. Ein britischer Grünling schrieb: „Lehrer … werden jungen Menschen helfen müssen, tief verwurzelte Annahmen, Haltungen und Erwartungen zu kritisieren und zu überdenken, die sich durch die Geschichte ziehen und nun einen Großteil des Lebens auf der Erde gefährden“.

Ich lasse Sie mit einer Frage allein: Kennen Sie wirklich die Wahrheit über den Klimawandel, oder haben Sie so oft grüne Propaganda gehört, dass Sie einfach annehmen, was sie sagen, sei wahr?

Autor: Mark Hendrickson, Ph.D., is an economist who has analyzed the global warming story for 30 years.
Link: https://www.cfact.org/2020/07/26/green-propaganda/
Übersetzt von Chris Frey EIKE




Friedrich-Naumann-Stiftung im Propaganda-Modus gegen die „Klimaleugner“ – wissenschaftlich verbrämte Propaganda auf „liberale“ Art

Ist der Ruf erst ruiniert…

Die Friedrich-Naumann-Stiftung hatte mal den Ruf besonders kontroversen Meinungen in Politik und Wissenschaft ein Forum zu geben. War sie es doch, welche die erste größere Konferenz zur Klimafrage unter reger Beteiligung auch Klima realistischer Wissenschaftler im Jahre 2005 in Gummersbach abhielt.
Doch diese Zeiten sind vorbei. Spätestens seit dem Wechsel ihrer Führung vom erzliberalen FDP Mann Wolfgang Gerhard zum glatteren Karl-Heinz Paqué, wurde der Kurs geschmeidiger. Nicht mehr anecken wollen, scheint die neue Leitlinie zu sein, sondern für „regierungsfähig“ um jeden Preis gehalten zu werden. Die Vorgaben dazu stammen wohl vom Vorsitzenden Christian Lindner, der im Parlament nicht den Ort sieht, in dem um die besten Lösungen für das Land, wenn nötig auch heftig gestritten wird, in dem die Opposition noch ihren Job macht, sondern in dem er einer „staatlichen Verantwortungsgemeinschaft“ das Wort redet. Bei soviel Verantwortungssinn kann echte Opposition nur stören. Oder wenn der FDP Abgeordnete Marco Buschmann fordern darf: „Eine Begrenzung des CO₂-Ausstoßes gemäß wissenschaftlicher Erkenntnis ist daher eine Pflichtaufgabe des Staates.“1.
In so einem Biotop ist es auch für die Friedrich-Naumann-Stiftung angebracht tunlichst mit den Wölfen zu heulen, und auf die in ihren Augen sehr störenden „Klimaleugner“ einzudreschen. Streng wissenschaftlich natürlich, zumindest verkauft sie so Ihren Mann der Stunde, den promovierten theoretischen Chemiker Mats Simmermacher, dem dieser nette Job zufiel. Er durfte dann mit dem Jungphilosophen und für manche nette Äußerung im Parlament bekannten – ebenfalls promovierten – Lukas Köhler auf einer Vortragsveranstaltung sprechen, die Corona-zeitgeistgemäß virtuell abgehalten und zu der öffentlich eingeladen wurde.

Vorweg eine allgemeine Betrachtung des Verhaltens junger „Liberaler

Bevor wir aber auf die wesentlichen Schmankerln seines Vortrages eingehen, darf eine kleine allgemeine Beobachtung der einführenden Worte nicht fehlen. Sie zeigt – vermutlich unbeabsichtigt – wie sehr die Jungliberalen, die dort zu Wort kommen, dem grünen Zeitgeist hinterherhecheln. Denn gleich zu Anfang des Videos geht es politisch überaus korrekt zu. Alles wird sorgfältigst gegendert. Sie sprechen von „Teilnehmenden“, statt von Teilnehmern (schließen also nicht nur Männlein und Weiblein ein, sondern auch noch alle vielfältigen Diversen), sie sprechen auch von Wissenschaftlerinnen und Wissenschaftlern, von Fachkolleginnen und Fachkollegen etc. etc. Nur bei Klimawandel-„Leugnern“, wie wir schon im Titel der Veranstaltung böswillig verunglimpft werden, wird nur in der männlichen Form gesprochen. Ob das schlecht oder gut für so herausragende „Pseudowissenschaftler“ ist, wie wir auch generell von diesen Herren genannt werden, wie es z.B. die Damen und herausragenden Wissenschaftlerinnen Dr. Sally Balliunas oder Prof. Judith Curry sind, mögen diese selbst beurteilen. Vermutlich juckt es sie nicht, selbst wenn sie es wüssten. Doch zeigt es einmal mehr, wie sehr sich die FDP schon in die links-grüne Begriffswelt eingewöhnt hat.
Die potentiellen Wähler danken es ihnen. Gerade arbeitet man hart an der Unterschreitung der schon in Sichtweite befindlichen drei Prozent Schwelle, von Hürde kann man ja in diesem Bereich nicht mehr reden.
Und Mats Simmermacher legte dann auch gleich für die „Zuhörenden und Zusehenden“ richtig los.

Der Vortrag im Internet (hier abrufbar)

Leider rechnet er – wie vielfach seine berühmten Kollegen u.a. Stefan Rahmstorf auch – damit, dass sein Publikum seinen wissenschaftlich anmutenden Kurven und Behauptungen nicht im Detail folgen kann und deshalb glauben muss.
Das nutzte er ungerührt aus, bspw. wenn er Zeitachsen drastisch verkürzt, um die Graphen darin dann als Klimaänderungen zu verkaufen, oder wenn er bspw. plötzlich die Temperaturdimension bei der Erwärmung der Meere weglässt und dem staunenden Publikum eine Achse mit der Dimension Joule x 1022 vorlegt (Min. 38). Deren Trend ist natürlich positiv, sonst hätte er es nicht gebracht, um dann zu behaupten, dass sei „gemessen“ worden. Vielleicht glaubt er das ja selber, weil er sich in seinem Labor noch nie mit der Problematik der Bestimmung physikalischer Größen in globalem Maßstab beschäftigt hat.
Nur, wenn das so ist, dann ist das bestenfalls dumm, aber nicht wissenschaftlich. Wahr ist allein, dass es erst seit dem Jahr 2000 beginnend, Daten werden ab 2005 veröffentlicht, ein Forschungsprogramm existiert, bei dem autonome Schwimmkörper (ARGO Flotte) mit hochauflösenden Sensoren versuchen in einem Gebiet von 1000 x 1000 km, also 1 Mio km². das Profil bis in 2000 m Tiefe zu bestimmen versuchen. Alles andere davor ist bestenfalls klug geschätzt, bzw. aus anderen Quellen hochgerechnet. Ziel der ARGO Flotte ist den Wärmeinhalt dieser rel. riesigen Wassermenge auf 10 W/qm genau zu bestimmen. Die gesuchte Genauigkeit ist allerdings illusorisch, wie jeder Messtechniker2 sofort weiß, und auch die riesige Fläche schrumpft auf Punktgröße, wenn man sie in Beziehung zur Gesamtfläche der Ozeane von knapp 400 Mio km2 setzt.
Damit beinhalten sämtliche Daten, die Herr Simmermacher zeigt, und wir sprechen hier von wenigen Hundertstel Grad sowie deren Verläufen, im Vergleich riesige Fehlerbalken. Aber die lässt der „Wissenschaftler“ Simmermacher einfach weg. Und von vergleichbarer Güte ist auch der Rest seiner Behauptungen. Sie sind damit wirklich leicht zu widerlegen. Allein deswegen, weil sie schon hundertfach vorgetragen, und hundertfach widerlegt wurden.

Soviel als Einführung, und nun in die Sachdebatte.

Am 28. Juli 2020 wurde per Video-Schaltung eine Vortrags-Veranstaltung (https://www.youtube.com/watch?v=heI_CZtRIsM) abgehalten mit dem Titel „Klimawandelleugner auf dem wissenschaftlichen Prüfstand“.
Schaut man sich die Folien im Video durch, so wird deutlich, dass der Vortragende genau DAS macht, was er den Klima-Skeptikern vorwirft: Selektive Auswahl von passenden Behauptungen unter Auslassung von nicht passenden Fakten.
Anmerkung: Alle gezeigten Folien aus dem Vortrag sind Sreenshots aus dem YT Video zu Zitatzwecken, im Sinne des Urheberrechtes.

Unter diesen Gesichtspunkten hier in Folgendem einige Anmerkungen:

Zu Folie 3 :

Behauptungen des Referenten, wie er sie Skeptikern in den Mund legt.

  1. „Das Klima wandelt sich nicht“.

Uns ist niemand bekannt, der DAS behauptet; folglich – eine nahezu dümmliche und letztlich bösartige Unterstellung.

  1. „CO2 ist nicht die Ursache“.

In der Skeptiker-Gruppe gibt es mehrheitlich ernst zu nehmenden Wissenschaftler, welche die physikalische Wirksamkeit der Treibhausgase betonen. Einige sehen sie eher als unerheblich an, andere weisen ihnen eine genügend große Rolle zu. Daher lautet Frage auch dort n i c h t „Ist CO2 ein Treibhausgas?“, sondern „Wie groß ist die Wirkung von CO2, insbesondere von zusätzlichem CO2 ?“. Grundsätzlich unbestritten auch beim IPCC ist: Die Wirkung von zusätzlichem (anthropogenem) CO2 muss nach einem logarithmischen Gesetz abnehmen:

Genau DAS weiß auch das IPCC :

DAS bedeutet:
Die modellierte weitere Erderwärmung über 1°C hinaus beruht nicht auf der Wirksamkeit von CO2, sondern auf einer sekundären Verstärkungs-Hypothese; diese ist in den Messungen in der Atmosphäre jedoch nicht auffindbar:

Diese Zusammenhänge und Messungen scheinen dem Referenten nicht bekannt zu sein(?).

  1. „Der Klimawandel ist nicht schlimm“

Es bleibt wohl das Geheimnis des Referenten, was er wissenschaftlich unter „schlimm“ versteht: Ein schwammiger Begriff aus dem Kindergarten – oder hat uns der Referent hier eine wissenschaftliche Definition vorenthalten ?
     4. „Die Wissenschaft ist sich uneinig“
Ist dem Referenten eine Wissenschaft bekannt, wo grundsätzlich und „für alle Zeiten“ eine „Einigkeit“ besteht? Unter anderem und zum Beispiel bei der aktuellen CORONA-Debatte nicht!
Zu Folie 4 :
Die dort gezeigte Graphik (der unbestrittenen!) säkularen Erwärmung verbirgt den wichtigen Hinweis, dass die „Erwärmungs-Spitzen“ 1998 und 2015/16 nicht die Folge von anthropogenem CO2 sind, sondern verursacht wurden durch die Witterungs-Ereignisse „Super-El Nino“, mit der Folge, dass mittlerweile die Temperaturen wieder zurück gehen (Aktuell sind es 14,02 – ha,ha – °C):


Zu Folie 5 :
Die hier vom Referenten angesprochenen Erwärmungspause ist nun keine „Erfindung“ der Skeptiker, sondern eine Feststellung des IPCC :

So darf also der Referenten-Vorwurf des „Cherry Picking“ getrost an das IPCC weiter geleitet werden!
Wenn der Referent außerdem wiederholt auf die Tatsache hinweist, dass alle von ihm aufgeführten Institute zu sehr ähnlichen Verläufen kommen, um damit die Güte der Daten zu belegen, dann führt er wieder das Publikum in die Irre. Denn FAKT ist, alle Institute verwenden dieselben Rohdaten. Es gibt keine anderen. Diese sind allerdings nur auf wenige Prozent der Landmasse konzentriert, vor 1920 auf nur sehr wenige, dann bis 1965 etwas mehr und dann wieder weniger, und zudem von schlechter Qualität. Auf See sind die Messstellen noch viel weniger als auf Land, konzentrieren sich auf die Hauptschifffahrtsrouten – immerhin stellen die Ozeane 71 % der Weltoberfläche- und sind von noch schlechterer Qualität. Dieses Manko wird allerdings durch die viel höhere Wärmeträgheit des Wassers etwas gemildert.   Daher sind die Unterschiede nur den Methoden geschuldet, mit denen die qualitativ schlechten und wenigen Rohdaten aufbereitet werden. Es macht schließlich auch keinen Unterschied ob man den Mittelwert einer Zahlenmenge von links nach rechts, rechts nach links oder wie sonst immer bildet. Er bleibt immer gleich, nur wenn man andere, abweichende Zahlen (Daten) nimmt ändert er sich eventuell.
Zu Folie 6 : „Ungebrochene Erwärmung in den Ozeanen“:
Dort werden keine Temperatur-Messungen gezeigt, sondern „Wärmeanomalien mit der Dimension 1022 J“. Was darf man sich darunter vorstellen? Direkte Temperaturmessungen sind da doch wohl anschaulicher, und die zeigen das Gegenteil der Referenten-Behauptungen :

Überdies stellt der Referent Zeitreihen dazu als aus „Messungen“ gewonnen vor, ohne seinem Publikum mitzuteilen, dass es erst seit 2005 ein Projekt (ARGO Flotte s.o) gibt um wenigstens in einem vglw. winzigen Ausschnitte zu echten, evtl. brauchbaren Messungen zu gelangen. Alle Angaben davor sind reine grobe Schätzungen, eine Tatsache die der Referent tunlichst seinem Publikum verschweigt
Zu Folie 7 – 9 : „Massenverlust der Eisschilde“
Die Ergebnisse der NASA stehen in krassem Gegensatz zu den Darstellungen des Referenten:


Und auch den ESA-Auswertungen des Grönländischen Eisschildes gegenüber halten die Aussagen des Referenten nicht stand, denn die zeigen in der Realität das :

Zu Folie 10 :

Diese vom Referenten gezeigte Folie beweist(!) genau DAS, worauf die Skeptiker stets hinweisen :
Es gibt keine Beschleunigung des seit Jahrtausenden steigenden Meeresspiegels. Aber das kommt beim Referenten nicht vor. Er verschweigt einfach, dass der Meeresspiegel seit dem Ende der Eiszeit ständig steigt, seit einigen tausend Jahren mit ca. 15 ± 15 Zentimetern pro Jahrhundert.
Mehr noch: Es gibt viele Regionen, in denen sich der Meeres-Anstieg abschwächt, wie z.B. an der Nordsee-Küste :

Zu Folie 11 + 12 :
Leichter Beitrag der Sonne zur Erwärmung bis etwa 1980, danach eher kühlender Einfluss“
Woher der Referent diese nahezu abenteuerliche Aussage hat, bleibt sein Geheimnis. Möglicherweise hat er in dem international renommierte Buch „Die Kalte Sonne“ nur den Titel gelesen, und als Einziges das Wort „KALT“ verstanden !?Denn seine Folie (Minute 43:45), wie auch seine Ausführungen, zeigen einzig und allein die sog. TSI, also die Gesamteinstrahlung der Sonne auf die Erde. Er vernachlässigt völlig die vielfältigen anderen Einflüsse Sonne auf die Erde, wie sie sich besonders mit dem Sonnenwind manifestieren. Dieser wiederum moduliert die ständig auf die Erde einprasselnde kosmische Höhenstrahlung, wie Svensmark und Shaviv so überzeugend nachwiesen, und damit die Wolkenbildung. Diese hat einen Einfluss auf die Erdtemperatur, die um ein Vielfaches größer ist als die geringe Varianz der TSI.
F a z i t :
Die selektiven Folien und Aussagen des Referenten bei dieser FDP-Veranstaltung halten in weiten Teilen eines Überprüfung nicht stand, sondern sind absichtlich unvollständig, bzw. getunt und daher oft irreführend. Der Referent hat letztlich genau DAS gemacht, WAS er den Klima-Skeptikern vorwirft: Verdrehung von Argumenten und Fakten !

2 Das ist völlig absurd. Nicht nur weil man keinerlei Daten vor 2005 und früher hat, die einen Vergleich ermöglichen, schon gar nicht mit der erforderlichen Genauigkeit, sondern auch, weil die angegebene Genauigkeit niemals und unter keinen Umständen erreicht werden kann.
Wer das behauptet, hat in seinem Leben noch nie eine Temperatur-Messung, geschweige denn eine Messung unter erschwerten Bedingungen durchgeführt. Wenn Sie sehr gut sind, dann schaffen sie evtl. ± 0,5 ° oder ± 1 °. Aber auch nur dann, wenn die Biester in ihrer fünfjährigen Lebensdauer ständig gewartet und nachkalibriert werden. Was nicht geschieht. Mehr dazu hier.



Moderne historische Temperaturen

Beginnen möchte ich mit der Erläuterung, wo Colle Gnifetti überhaupt liegt. Das Ungewöhnliche an diesem Eisbohrkern ist nämlich, dass er aus Europa stammt, genauer aus den Alpen auf der Grenze zwischen Italien und der Schweiz.

Abbildung1: Orte, aus denen die in der Studie untersuchten Eisbohrkerne stammen.

Das ist gut, weil es in Europa einige der längsten Temperaturreihen aufgrund von Thermometermessungen gibt.

Interessant an diesem Standort ist, dass Eiskernbohrungen normalerweise an den buchstäblichen Enden der Erde, in der Antarktis und in Grönland und so weiter, erfolgen. Aber diese Stätte liegt nicht weit von der Margherita-Hütte entfernt in einer Höhe von über 4500 Metern.

Abbildung 2. Die beste Werbung aller Zeiten für den Beruf des Glaziologen.

Nun wollte ich sehen, wie gut die Eiskernaufzeichnungen mit den Temperaturaufzeichnungen übereinstimmen. Also berechnete ich drei Datensätze aus dem Berkeley Earth Festlands-Datensatz. (Ich habe den Festlands-Datensatz verwendet, weil ich mit einer Stelle an Land vergleiche. Es besteht jedoch nur ein minimaler Unterschied zur Verwendung ihres „Land- und Ozean“-Datensatzes).

Der erste von mir berechnete Datensatz ist die globale Temperaturanomalie. Der nächste Datensatz ist die Temperaturanomalie der nördlichen Hemisphäre. Schließlich betrachtete ich eine ungefähr quadratische Gitterbox von 6° Länge und 4° Breite um Colle Gnifetti selbst.

Merkwürdigerweise passen von diesen drei am besten die Daten der Nordhalbkugel zu den Aufzeichnungen von Colle Gnifetti. Abbildung 3 unten zeigt den Vergleich. Ich habe die Eiskerndaten linear angepasst, um die beste Übereinstimmung mit den Daten Berkeley Earth zu erzielen.

Warum die lineare Anpassung? Weil die Varianz einer einzelnen Eiskernaufzeichnung an einem Ort hoch oben auf einem Berg anders ist als z.B. die Varianz der durchschnittlichen Festlands-Temperatur auf der Nordhalbkugel. Dies erlaubt es uns, die Aufzeichnungen auf der gleichen Skala zu vergleichen.

Hier ist also der Vergleich zwischen Thermometerdaten und dem jüngstenen Ende der Colle Gnifetti Eiskerndaten. Die Datenquellen sind in der Grafik aufgeführt.

Abbildung 3. Temperaturen von Berkeley Earth nur auf dem Festland und Eiskerntemperaturen von Colle Gnifetti. Die Eiskerntemperaturen wurden linear angepasst, um die beste Anpassung an die modernen Daten zu erzielen, indem sie mit etwa 1,6 multipliziert und etwa 0,2°C abgezogen wurden. Im Hintergrund erkennt man die Bohrhütte am Colle Gnifetti.

Ich liebe es, wenn sich zwei völlig unterschiedliche Datensätze auf so hervorragende Weise aneinanderreihen. Meine Einschätzung ist, dass der Eiskern von Colle Gnifetti die Temperatur auf der Nordhalbkugel sehr gut reflektiert. Die einzige wirkliche Anomalie ist neueren Datums, wenn die beiden divergieren. Keine Ahnung, woran das liegt. Die Antwort kann in beiden Datensätzen liegen. Aber man beachte die ausgezeichnete Übereinstimmung der großen Spitzen und Schwingungen im früheren Teil des Datensatzes an.

Jetzt, da wir den Paläodatensatz mit dem modernen Datensatz und der Varianz abgeglichen haben, können wir einen Blick auf die Aufzeichnung der Temperaturschwankungen im Eiskern über die gesamte Zeitspanne der Daten werfen.

Abbildung 4. Colle Gnifetti Eiskerntemperatur, linear angepasst an das Best Fit aktueller Daten, wie in Abbildung 3 dargestellt. Der Hintergrund ist das Bohrgebiet, unten rechts ist die Bohrhütte bei Colle Gnifetti.

Dies ist ein äußerst faszinierender Temperaturdatensatz. Man erkennt die langsame Abkühlung von etwa 1400-1500 an in die Kleine Eiszeit sehen, die um 1700 ihre Talsohle erreicht hat.

Interessant ist auch der Gesamtbereich der schnellen Temperaturschwankungen. Zum Beispiel fiel die Temperatur in den fünfzig Jahren von 1190 bis 1240 um 2,3°C.

Und die Steilheit der natürlichen Erwärmungstrends ist aufschlussreich. In 35 Jahren, von 850 bis 885, stieg die Temperatur um 2,3°C.

Um einen weiteren Blick auf Erwärmung und Abkühlung zu werfen folgt hier ist eine Grafik der dreißigjährigen Abfolge der Trends in den Daten.

Abbildung 5. 30-jährige Abfolge der Temperaturaufzeichnung des Eiskerns von Colle Gnifetti.

Die aktuelle 30-jährige Abfolge der Temperaturtrends bewegen sich in der Größenordnung von 0,1 – 0,2°C/Dekade. Aber wie man sieht, ist diese Erwärmungsrate in der Aufzeichnung kaum ungewöhnlich. Tatsächlich war der Trend in der Aufzeichnungsperiode zweimal viermal so groß wie in der Neuzeit. Und die aktuelle Erwärmungsrate wurde in der Vergangenheit schon viele Male überschritten.

Also … welche Art von Schlussfolgerungen und Fragen können wir aus den Daten ziehen? Hierzu noch einmal Abbildung 4 von oben:

Abbildung 4 (Wiederholung)

Erstens: Was zum Teufel hat die großen Temperaturschwankungen verursacht? Der frühere Teil dieser Paläo-Aufzeichnung zeigt Schwingungen, die sowohl viel größer als auch viel schneller erfolgten als alles, was es in der heutigen Zeit gibt. Nennen Sie mich verrückt, aber auf einem Planeten mit natürlich auftretenden Erwärmungen von z.B. über zwei Grad C innerhalb von 35 Jahren von 850 auf 885 sehe ich nicht, wie man solche natürlichen Schwankungen ausschließen kann, wenn man sich die relativ unscheinbare und sicherlich in keiner Weise anomale moderne Aufzeichnung ansieht.

Damit komme ich zu meiner Empfehlung für den Bereich der Klimawissenschaft – man höre endlich auf, die Zukunft zu projizieren, und beginne über die Vergangenheit nachzudenken. Solange wir nicht erklären können, warum die Temperaturen um das Jahr 1200 herum abstürzten, in nur fünfzig Jahren um 2,3°C sank, um dann genauso wieder zu steigen, haben wir KEINE GRUNDLAGE FÜR IRGENDWELCHE PROJEKTIONEN!

Aber ich schweife ab … als nächstes sehen wir in den Daten eine Erwärmung ab dem Ende der Kleinen Eiszeit, also etwa ab dem Jahr 1700. Sie tritt in zwei Wellen auf. Der erste Temperaturanstieg, von etwa 1700 bis 1790, ist sowohl schneller als auch stärker als der nachfolgende Anstieg von etwa 1820 bis zur Gegenwart.

Tatsächlich ist der derzeitige Temperaturanstieg, angeblich durch CO2 angeheizt, der langsamste Anstieg der verschiedenen längerfristigen Temperaturanstiege in dieser Paläo-Aufzeichnung. Jeder andere Temperaturanstieg ist steiler. Ich dachte, dass CO2 angeblich für eine schnellere Erwärmung verantwortlich sein sollte, aber hier draußen in der realen Welt gibt es eine langsamere Erwärmung.

Weiter. In diesem Eiskernrekord herrschte zum Höhepunkt der späteren „Mittelalterlichen Warmzeit“ um 1190 ungefähr die gleiche Temperatur wie heute. Die frühere Wärmespitze um das Jahr 920 ist jedoch etwa ein halbes Grad wärmer ausgefallen. Es scheint, dass die gegenwärtigen Temperaturen nicht so ungewöhnlich sind, wie oft behauptet wird.

Zum Schluss noch die Vorbehalte. Der wichtigste Vorbehalt ist die zugrunde liegende Annahme der Invariabilität – dass ceteris paribus die Vergangenheit nach den gleichen Regeln funktioniert wie die Gegenwart.

Um zum Beispiel das jüngere Ende der Eiskerndaten linear so anzupassen, dass es am besten zu den modernen Temperaturdaten passt, multipliziert man es mit etwa 1,6 und subtrahiert etwa 0,2. Die obige Abbildung geht davon aus, dass Gleiches auch in der Vergangenheit zutrifft. Dies ist eine sehr vernünftige Annahme, wir kennen keinen Grund, warum es nicht so sein sollte … und doch …

Nächster Vorbehalt? Es ist nur eine einzelne Studie. Ich würde mich freuen, wenn die eine Auflösung von zwei Jahren ermöglichenden verbesserten Verfahren mehr genutzt würden.

Angesichts dieser Vorbehalte finde ich den Datensatz jedoch sehr aufschlussreich.

Hier an der nordkalifornischen Küste ist der Sommer in vollem Gange. An vielen Tagen heizen sich die Täler im Landesinneren auf. Die erwärmte Luft steigt auf und zieht kühle, feuchte Luft aus dem kalten, nahen Ozean an. Dies kühlt die gesamte, dem Meer zugewandte Seite des Küstengebirges ab, einschließlich unserer paar Hektar … so dass es heute hier kühl und neblig ist.

Die lokale Symmetrie gefällt mir sehr gut. An einem Ort wird es wärmer … und an einem anderen kälter. Wunderbar.

Ergänzung: Es ist sehr instruktiv, die gelisteten Temperaturen mit den Daten hier zu vergleichen: A Chronological Listing of Early Weather Events.

Link: https://wattsupwiththat.com/2020/07/24/ancient-temperatures/
Übersetzt von Chris Frey EIKE




Strom-Wasserstoff­umwandlung macht u.a. dann Sinn, wenn es darum geht, sehr teuren Strom zu erzeugen …

Nach 20 Jahren EEG fällt unserer Politik eine Lösung ein, die allerdings erst noch entwickelt werden muss

Deutschland fährt mit dem EEG sein Stromversorgungssystem erkennbar konsequent an die Wand. Die Abschaltung der Grundlastkraftwerke ist beschlossen, wie solche dann aber bereitgestellt werden soll, ist nicht bekannt. Man erkennt, dass die von der (angeblichen) „Energiefachfrau“ C. Kemfert propagierte Lösung: Wir brauchen gar keine Grundlast, denn „intelligente Netze“ lösen das Problem, zwar hilft, die „Intelligenz“ aber darin besteht: Ist kein Strom da, gibt es eben auch keinen. Und wer dann doch einen will, hat dafür hohe Kosten zu bezahlen, besser, den benötigten vorsorglich selbst zu speichern. Richtig „intelligent“ wird dann nur die konsequente Auflistung und Abrechnung der Zusatzkosten.
Irgendwie scheint man das den Bürgern (noch) nicht als die grandiose Lösung (un)intelligenter Politik zumuten zu wollen. Dafür gibt es doch noch zu viele nicht-GRÜN Wähler.
Obwohl unsere Versorger kein Problem damit haben, diese „intelligente“ Mangelverwaltung ihren Kunden als Zukunftslösung bereits anzupreisen und Vertriebsfirmen dazu gründen:
EIKE 18.05.2017: [13]Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern

Könnte die ehemalige DDR das Strategie-Vorbild sein?

Nun haben solche, auf stetigem Mangel basierenden Versorgungsmodelle in der ehemaligen DDR gut funktioniert, zumindest bis zu dem Zeitpunkt, als es zu vielen Bürgern dann doch „auf den Keks“ ging. Das lag aber nach heutiger Lesart nicht am Lösungssystem, sondern an der damals noch fehlenden „Intelligenz“. „Intelligent“ Mangel zu haben, ist deshalb die politisch gewollte Zukunftslösung.
Unsere unfehlbare Kanzlerin wurde in und mit einem solchen System sozialisiert. Ein Gedanke drängt sich deshalb auf: Hat sie das Ziel, nun ganz Deutschland in solche – für sie aufgrund ihrer dortigen Sozialisierung „heimelige“ – Verhältnisse zu bringen?
Herr Thomas Kreuzer von der CSU erzählte es etwas höflicher ausgedrückt im BR24 Sonntagsgespräch [8] [9]. „Kompetent“, wie unsere Politiker heutzutage durchgängig sind, konnte er allerdings einige der gelisteten Probleme verneinen, weil er die sicher greifende Lösung wusste: Man muss nur noch die erforderliche Technik entwickeln:
Thomas Kreuzer: [8]Wir müssen also … die Maßnahmen so wählen, dass wir Erfolg haben, und dies ist meines Erachtens nur durch einen Durchbruch in der Technik möglich. Und wenn es nicht gelingt, Energie zu speichern, was wir im Moment nicht können … zum Beispiel mit Wasserstoff, dann wird es ganz, ganz schwierig, die Ziele zu erreichen …

Eine seit über 30 Jahren nicht in die Gänge gekommene Technologie wird es nun richten

Nun ist die Wasserstofftechnologie schon „uralt“ und an der Brennstoffzellentechnologie wird seit mindestens 30 Jahren entwickelt. Und diese letzten Dreißig Jahre hat es erkennbar keinen Durchbruch gegeben.
Geradezu ein Veteran ist dieser Technologie ist die Firma Ballard Power. Auch damals geschah etwas Ähnliches – und scheiterte gnadenlos. Der Aktienkurs erzählt lückenlos diese Geschichte, deren Wiederholung nun ansteht:

Bild 1 Kurs Ballard Power seit Beginn des ersten Brennstoffzellenbooms Ende des letzten Jahrhunderts


Aber Politiker wissen inzwischen: Probleme liegen grundsätzlich nur daran, dass nicht genügend Geld ausgegeben wurde.
Also wurde der sichere Kardinalfehler behoben und den Versprechern der endlich richtigen Lösung Geld in Hülle und Fülle locker gemacht.
Damit soll die doch plausible Rechnung gelingen: Wenn eine weibliche Person 9 Monate benötigt, um ein Kind zu gebären, brauchen 9 weibliche Personen nur noch einen Monat (genau das umzusetzen, probiert die EU schon mal unter der Ärztin v. d. Leyen mit ihrer Corona-Impfstoffkampagne). Bei der Wasserstoffstrategie hat diese einfache Divisionsrechnung noch einen zusätzlichen Haken: Das verfügbare (Technologie-)„Sperma“ weist unglaubliche Mängel auf, die – um es mit einem Vergleich zu sagen – mit Sicherheit zu einer Problemschwangerschaft und Geburt eines*r stark bis schwerst-Behinderten führen.

Aiwanger präsentiert eierlegende Wollmilchsau [6]

In einem Video informierte Wirtschaftsminister Aiwanger in seiner unnachahmlichen Art und niederbayerischen Präzision über die neue, bayerische Wasserstoffstrategie:
H. Aiwanger ab 00:44: Russland würde uns Wasserstoff in beliebigen Mengen zu günstigen Preisen liefern können. Wir denken an Nordafrika. Es kann Marokko sein. Und es sind große, internationale Herkünfte von Australien bis Chile in der Debatte.

Bild 2 BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie. YouTube Link


Während sonst alles Mögliche nun verstärkt lokal erzeugt werden soll, bis herunter zur Virus-Schutzmaske, ist es nun besonders strategisch, mit das Wichtigste, was ein Technologieland benötigt: Seine Energie, auszulagern und rund um die Welt – mit Schwerpunkt Afrika (lt. Entwicklungsminister Müller) – einzukaufen und dazu über weiteste Strecken zu transportieren.
Natürlich macht Bayern eine solch geradezu idiotische Strategie (rein persönliche, unbelegte Meinung des Autors, die niemand teilen muss) nicht alleine.
Im Kern ist es ein Strategiethema des Bundes. Und dort sind diesmal nicht nur die Vorreiter (besonders höflich ausgedrückt) an selten(st) erkennbarer Kompetenz aber absoluter, bedingungsloser Merkelhörigkeit, Frau S. Schulze und P. Altmaier beteiligt, auch unser sonst eher glücklose CSU-Entwicklungsminister ist dabei. Und wenn Herr Dr. Müller eine seiner ausgefeilten Strategien angekündigt hat, kommt immer irgendwann in irgendeiner Zukunft der sichere Durchbruch. Zumindest das Geld dafür ist mit Sicherheit ausgegeben (und oft in erheblichem Maß auf speziellen Konten gelandet).
IWR.de 10.06.2020: [10] Bundesregierung verabschiedet Nationale Wasserstoffstrategie
Berlin – Das Bundeskabinett hat heute (10.06.2020) die lange erwartete Nationale Wasserstoffstrategie beschlossen. Wasserstoff soll künftig entscheidend zur Dekarbonisierung wichtiger deutscher Industriebranchen sowie des Verkehrssektors beitragen.
… Die jetzt verabschiedete Wasserstoffstrategie soll nach dem Wunsch der Bundesregierung die Weichen dafür stellen, dass Deutschland bei Wasserstofftechnologien die Nummer 1 in der Welt wird. Dazu sollen die Potenziale für Wertschöpfung, Beschäftigung und den Klimaschutz möglichst schnell erschlossen und genutzt werden. „Denn Wasserstoff wird ein Schlüsselrohstoff für eine erfolgreiche Energiewende sein“, so Bundeswirtschaftsminister Peter Altmaier nach dem Kabinettsbeschluss. Er werde als Energieträger der Zukunft sowohl in Deutschland als auch weltweit einen wichtigen Beitrag zur Erreichung der Klimaziele leisten. Dabei wolle Deutschland eine Vorreiterrolle einnehmen, wie vor 20 Jahren bei erneuerbarer Energien.
… „Grüner Wasserstoff und seine Folgeprodukte wie Methanol können das saubere Öl von morgen werden“, so die Einschätzung von Bundesentwicklungsminister Dr. Gerd Müller. Müller betont, dass in diesem Zusammenhang vor allem Länder in Nordafrika aufgrund des hohen Solarpotenzials als geeignete Produktionsstandorte für grünen Wasserstoff in Frage kommen. Gemeinsam mit Marokko werde jetzt die erste industrielle Anlage für Grünen Wasserstoff in Afrika entwickelt. „Damit schaffen wir dort Arbeitsplätze für die vielen jungen Menschen, stärken die Technologieführerschaft in Deutschland und helfen, die internationalen Klimaziele wirksam zu erreichen“, so Müller weiter.

Tritt Wirtschaftsminister Aiwanger in die Fußstapfen von F. J. Strauß und Bayern wird ein weltweiter Technologieführer?

Manche können sich noch erinnern: Der ehemalige, Bayerische Ministerpräsident F. J. Strauß machte aus einem bettelarmen Agrarstaat durch Konzentration auf die damals völlig neuen Technologien Elektronik (und moderne Militärtechnik) ein Erfolgsmodell, das man heute (noch) sehen und auch (noch) vorzeigen kann. Dies gelang ihm damals auch, weil die reichen Montanländer viel zu „satt“ und stolz waren, sich für solche Technologie zu interessieren.
Scheinbar besteht eine solche Konstellation heute wieder im Land. Tesla baut seine alles andere vernichtende Innovation Elektroauto im Osten und die parallel laufende Solarstrategie wird bald flächendeckend viele Handwerksbetriebe und Installateure beschäftigen … Da hat niemand mehr Zeit und Ressourcen für Wasserstoff.
Eine geradezu ideale – in der Geschichte so seltene Gelegenheit – für Wirtschaftsminister Aiwanger, in einem zum Beispiel wegen der Autokrise derzeit und vielleicht noch viel länger stark unterbeschäftigtem Land das Steuer herumzureißen und damit in die Fußstapfen des geradezu legendären F. J. Strauß zu treten, also Bayerns Geschichte „mit zu schreiben“ …

Made in Bavaria soll zum Wasserstoff-Gütesiegel werden

Wenn Aiwanger informiert, ist „Kompetenz“ spürbar, zumindest, so lange er buchstabengetreu vom Blatt abliest, was er allerdings oft vergisst. Erkennbar hat er Redenschreiber*innen, die gut fabulieren können:
[5] Bayerns Wirtschafts- und Energieminister Hubert Aiwanger hat die Bayerische Wasserstoffstrategie vorgestellt. Danach will sich der Freistaat zu einem weltweiten H2-Technologieführer entwickeln.
Aiwanger: „Made in Bavaria soll zum Wasserstoff-Gütesiegel werden. Mit unseren hervorragenden Forschern und den innovativen Tech-Unternehmen werden wir eine Wasserstoffwirtschaft entwickeln, die den Hightech-Standort Bayern stärkt, Arbeitsplätze schafft und nicht zuletzt auch den Transformationsprozess der bayerischen Fahrzeug- und Zulieferindustrie unterstützt.“
Wasserstoff (H2) und bayerische Innovationskraft sollen im Verbund Wohlstand sichern und zugleich den Ausstieg aus der Nutzung fossiler Energieträger voranbringen. Angestrebt werde dabei eine Arbeitsteilung zwischen dem Technologieland Bayern und Regionen, die grünen Wasserstoff produzieren. „Wir wollen die weltweit führenden Wasserstofftechnologien entwickeln. Unsere künftigen Partner nutzen dann unsere Innovationen dank nahezu unbegrenzt verfügbarer erneuerbarer Energien wie Sonne und Wind für die Erzeugung, den Transport sowie die Verwendung von grünem Wasserstoff“, erläuterte Aiwanger.
Zur Marktaktivierung wird die Staatsregierung zudem kombiniert Elektrolyseanlagen und Brennstoffzellenfahrzeuge wie Busse und Nutzfahrzeuge/Lkw fördern. Damit sollen vor allem neue Wertschöpfungsmöglichkeiten für Tankstellen-Standorte in der breiten Fläche geschaffen werden: an kommunalen Betriebshöfen, bei Stadtwerken, für Fuhrpark- und Omnibusunternehmen. Zudem soll 2021 die weltweit erste LOHC-Tankstelle in Erlangen den Betrieb aufnehmen. Noch in diesem Jahr wird erstmals innovative bayerische Brennstoffzellen-Technologie in einem umgebauten Lkw-Prototypen auf Bayerns Straßen fahren.

Wasserstoff aus Elektrolyse: Was schrieben Fachpersonen, bevor unsere Politik die Lösung vorschrieb?

Es lohnt, Publikationen zu lesen, die verfasst wurden, als Fachpersonen noch Fachwissen und nicht politische Vorgabenerfüllungen publizierten:
Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Karlsruher Institut für Technologie: [7] Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung
Wasserstoff ist ein höchst flüchtiges Gas mit einer geringen volumetrischen Energiedichte. Daher muss man zum Transport und zur Lagerung entweder auf extrem tiefe Temperaturen (-255 °C – fast wie im Weltraum) oder auf extrem hohe Drücke (700 bis 1000 bar – wie am Meeresgrund des Marianen Grabens) ausweichen. Die dazu erforderliche Anlagentechnik ist unvermeidlich aufwändig und somit teuer. Außerdem sind die Wirkungsgrade grundsätzlich schlecht, weil viel Energie zur Erzeugung dieser extremen Bedingungen benötigt wird. Da diese Zusammenhänge physikalisch bedingt sind, ändert sich daran auch in ferner Zukunft und auch mit beliebig hohem Forschungsaufwand gar nichts.
Das bedeutet ganz konkret: Für eine Umstellung des Pkw-Verkehrs auf Wasserstoff müssten wir die gesamte heutige Infrastruktur für Lagerung, Verteilung und Verkauf komplett neu bauen. Und zwar wegen der geringeren Energiedichte nahezu doppelt so groß, also doppelt so viele Tankschiffe, doppelt so große Zwischenlager, doppelt so viele Tank-Lkws und doppelt so viele Bodentanks in den Tankstellen. Außerdem müssen wir alles in Kryotechnik für Temperaturen nahe am absoluten Nullpunkt bauen, wodurch die Kosten noch einmal in etwa verdoppelt.
Und dann brauchen wir auch noch die Produktionsanlagen: Für die Erzeugung des Stroms, für die Elektrolyse und für die Verflüssigung.
Eine gasförmige Verteilung von Wasserstoff im Großmaßstab, das heißt für hunderttausende oder gar Millionen von Pkws, ist vollkommen unmöglich. Die technisch erreichbare volumetrische Energiedichte von gasförmigem Wasserstoff ist nochmals um knapp eine Größenordnung (Faktor 10) niedriger als die von flüssigem Wasserstoff. Dementsprechend würden die Aufwendungen für die Infrastruktur ins Unermessliche steigen.
Bedingt durch die schlechte Wirkungsgradkette, ausgehend vom Off-Shore Windpark bis zum Elektromotor im Auto einschließlich flüssiger Verteilung und Hochdruckbetankung, ist der Bedarf an Primärenergie für die Erzeugung von Wasserstoff für Brennstoffzellen in Pkws rund 5- bis 6-fach höher als bei Batteriefahrzeugen.

… Es ist leicht abzuschätzen, dass der Strombedarf für den Wasserstoffbetrieb aller 47 Mio. Pkws in Deutschland rund 1,5-fach größer ist als die gesamte heutige Stromproduktion. Daher müssten wir die derzeitig erzeugte Menge an Strom also mehr als verdoppeln. Gleichzeitig wollen wir auch noch alle Kern- und Kohlekraftwerke abschalten und durch regenerative Stromerzeugung ersetzen – wie soll das gehen? Die Kosten für den Aufbau einer Infrastruktur für die Erzeugung und Verteilung von flüssigem Wasserstoff sind schier unvorstellbar und betragen alleine für Deutschland über hundert Milliarden Euros. Genaue Zahlen sind unbekannt und nicht seriös anzugeben, da die erforderlichen Einrichtungen noch niemals in einer entsprechenden Größe und Menge gebaut wurden.
… Die Ladegeschwindigkeit von FCEVs (Wasserstoffautos) ist unbestritten schneller als die von BEVs (Elektroautos) – rund 10 Minuten für einen vollen Tank mit 400 bis 600 km WLTP Reichweite, je nach Fahrzeug. Das bedeutet aber, dass man wie früher neben dem Fahrzeug wartet und keine Zeit für eine Pause hat. Anschließend muss die Tankstelle einen internen Höchstdruckspeicher mit 900 bis 1000 bar nachfüllen, so dass für rund eine halbe Stunde kein weiteres Fahrzeug bedient werden kann (oder nur mit wesentlich langsamerer Füllgeschwindigkeit). Die Kosten einer Wasserstofftankstelle sind übrigens astronomisch hoch und übertreffen die Kosten einer Schnellladesäule um mehr als eine Größenordnung.
Herstellungsaufwand und Preise Die Herstellung von Brennstoffzellen-Pkws ist gegenüber heutigen Verbrennerfahrzeugen (ICE = Internal Combustion Engine) deutlich aufwändiger. Das resultiert zum einen aus den größeren Fahrzeugabmessungen und zum zweiten aus den vielfältigen Nebenaggregaten, die zum Betrieb eines Brennstoffzellenstacks erforderlich sind.44 Daraus ergeben sich nicht nur höhere Anschaffungspreise, sondern auch höhere Wartungs- und Reparaturkosten sowie eine kürzere Lebensdauer
Um es einmal ganz deutlich zu sagen: Brennstoffzellen-Pkws sind technisch, ökonomisch und letztlich auch ökologisch ein Unsinn. Ebenso unsinnig ist der Aufbau einer Pkw-Tankstelleninfrastruktur für Wasserstoff. Das alles dient einzig den kommerziellen Interessen einiger großer Wasserstoff- und Erdölkonzerne und ist eine Verschwendung von Steuergeldern. Ich gebe dem Thema Wasserstoff für die Zukunft von Pkws keinerlei Chancen gegenüber Batteriespeichern. Wir täten gut daran, nicht auf eine veraltete und aus grundsätzlichen physikalisch/chemischen Gründen unterlegene Technik zu setzen, denn das bringt den Industriestandort Deutschland in Gefahr.
Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium (Auszüge): [2] Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg
Wasserstoff aus Strom oder „power to gas“ also die Umwandlung von hochwertigem Strom in die einfachen Brennstoffe Wasserstoff und/oder Methan führt aus prinzipiellen naturwissenschaftlichen Gründen, die mit dem 2. Hauptsatz der Thermodynamik zusammenhängen (Wertigkeit der Energie und Energieentwertung) immer zu Verlusten von in der Praxis 2/3 bis 3/4 des Energiegehalts des Stroms. Bei der Rückverstromung werden also in der Regel nur 1/4 bis maximal 1/3 des eingesetzten Stroms, also des gleichen Produkts, zurückgewonnen….
In einem konkreten Versuch der Universität Kiel in Büsum im Jahr 2003 gingen sogar zwischen 85 % bis 87 %, also mehr als 5/6 des eingesetzten Stroms ungenutzt verloren, nur 13 % bzw. 15 % des eingesetzten Stroms konnten wiedergewonnen werden [1]. Die Energieverluste von 2/3 bis 3/4 bleiben auch dann bestehen, wenn nicht rückverstromt wird. Auch in anderen Anwendungsbereichen wie im Verkehr ergibt sich, dass eine Strom-Wasserstofflokomotive 3-5 mal mehr Energie verbrauchen würde, als eine Elektro oder Diesellokomotive, Strom-Wasserstoffautos benötigen 3-4 mal mehr Energie als Elektroautos und „normale“ Autos. Beim Einsatz in der Industrie verhalten sich die Relationen in der Regel nicht anders.
Betrachtet man die Verluste isoliert, so sind diese Verluste beim Strom-Wasserstoffweg mehr als 30 mal höher als bei effizienten Speichern. Diese Verluste müssen durch zusätzlichen Strom und durch zusätzliche Stromerzeugungsanlagen ausgeglichen werden. Dieser zumeist nicht betrachtete Aspekt macht den „Wasserstoff aus Strom“- Weg nicht nur extrem verlustreich, sondern auch extrem teuer.
Aus all diesen Gründen trägt in einer der „Leituntersuchungen“ zur Energiewende der Bundesregierung, der Studie „Wege zu 100 % erneuerbarer Stromversorgung“ des Sachverständigenrats für Umweltfragen, Wasserstoff als Speicher überhaupt nicht, nicht in einer Stunde des Jahres zur Systemoptimierung bei. Strom-Wasserstoff und „power to gas“ spielt also in dem wissenschaftlich begründeten Konzept der Energiewende als Problemlösung gar keine Rolle
Ein Wasserstoff – Feldversuch mit allem dazu gehörigem Equipment – vom Elektrolyseur bis zum Wasserstoffmotor – wurde vor 10 (Anmerkung: Beendet ungefähr im Jahr 2003) Jahren vom schleswig-holsteinischen Wirtschaftsministerium in einem Projekt beim Forschungs- und Technologiezentrum Westküste der Universität Kiel in Büsum gefördert.
Im zusammenfassenden Bericht heißt es:
„Man kann aus den Werten nun den Wirkungsgrad aus unseren Versuchen berechnen. Betrachtet man die Wasserstoffgasspeicherung bei 15 bar, kommt man auf einen Wert von 15 %, geht man über die Speicherung bei 200 bar, so ergeben unsere Versuche 13 % Stromausbeute des ursprünglich in den Elektrolyseur eingespeisten Stromes“ (Anmerkung:[1]) 13 – 15 % des dem Netz entnommenen Stroms konnten zurückgespeist werden; 85 % bzw. 87 % des Stroms gingen bei der Umwandlung von Strom in Wasserstoff und Rückumwandlung in Strom in dem konkreten Versuch zu Wind-Wasserstoff 2003 am FTZ in Büsum verloren. An dem Versuch waren immerhin bedeutende Fachfirmen wie Norsk Hydro und Jenbacher beteiligt.
Seit 2012 existiert eine Skizze für ein konkretes Wasserstoff-Speicher-Projekt in Schleswig-Holstein, das mit positiven Argumenten „klimaschonend und effizient“ begleitet wurde. Bei Licht betrachtet ist jedoch das Gegenteil der Fall.
Folgende Daten: Es wird unter Einsatz von einer Beladeenergie von 35 GWh Strom aus dem Stromnetz (hier sei 100 % Windenergie unterstellt) in eine vorhandene Kaverne gepresst, was bei Berücksichtigung der Verluste in die Ein-/und Ausspeisung aus der Kaverne 17 GWh ausspeicherbaren Energiegehalt in Form von Wasserstoff ergibt. (GWh Gigawattstunde = 1 Mio. kWh) Eine überschlägige Rechnung ergibt hieraus folgende Bilanz: a. Speicherwirkungsgrad: die angegebene Beladeenergie von 35 GWh Strom entspricht dem Jahresertrag von etwa 5 Windkraftanlagen mit 3 MW bei 2300 Vollbenutzungsstunden – wird in 17 GWh ausspeicherbarem Energiegehalt in Form von Wasserstoff umgewandelt (Wirkungsgrad wegen der Einpressverluste in die Erde nur ca. 50 % statt der oben angegebenen 80 %) Hieraus kann man mit einem Motor / einer Brennstoffzelle bei realistischen 40 % Wirkungsgrad etwa 6,7 GWh, (ca. 1/5 der Ausgangsmenge) bei sehr optimistischen 50 % etwa 8,5 GWh Strom (ca. 1/4 der Ausgangsmenge) wiedergewinnen.
Der Strom von etwa 4 der 5 Windkraftanlagen geht ungenutzt, vollständig und unwiederbringlich verloren; die Anlagen kosten aber Geld und benötigen Fläche.

Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!

steht in der folgenden Stellungnahme [4] Dr. Geisenheiner at al. 25.03.2020 (Auszüge): Fachliche Stellungnahme Wasserstoffwirtschaft
Energieverschwendung pur!
Die Wasserstoffwirtschaft schafft dabei mehr Probleme als sie löst. Die Energieeffizienz für die Nutzung bei Fahrzeugen und bei Wärme ist katastrophal schlecht. Das würde exorbitante Stromerzeugung erfordern. Die Energiewende im Sektor Verkehr ist schon nicht mit der Batterie-basierten E-Mobilität zu schaffen. Mit der Wasserstoffwirtschaft, die sehr viel schlechtere Wirkungsgrade aufweist,
Der rechnerisch nötige Ausbau der VEE für die Dekarbonisierung mit Sektorkopplung auf mehr als das 15-fache ist wegen des Flächenbedarfs, der Umweltschäden und der gewaltigen Kosten nicht möglich. Die Bürgerinitiativen, unterstützt vom Groll der Betroffenen, werden sich zusätzlich dagegenstellen.

Das kann keiner bezahlen
Die Kostendimension einer Wasserstoffwirtschaft führt nach einer groben Abschätzung zu 0,22€/kWh für die Anwendung Heizen 2. Das ist rund 5-fach teurer als der heutige Erdgaspreis.
Eine ähnliche Situation ergibt sich im Transportsektor. Hier sind die H 2-Treibstoffkosten auch 5-fach teurer, als mit heutigen Kraftstoffen. Eine Steuerbefreiung kann für den Endkunden die Kosten etwas mildern, es bleiben dann aber die Einnahmeverluste der Steuer, die auf anderem Wege zu kompensieren sind. Der Ansatz Wasserstoff über VEE zu erzeugen und so CO2-Ausstoß einzusparen, ist
Technischer und ökonomischer Unsinn. Konzeptloser Aktionismus
Dauernd gibt es neue Ideen, die grundsätzliche Mängel der Energiewende beheben sollen, ohne dass dies mit ihren Folgeauswirkungen im Rahmen eines ganzheitlichen Konzepts durchdacht und quantifiziert wurde. Die erneute Idee einer großkalibrigen Wasserstoffwirtschaft als Komponente der Energiewende wird der Industrienation Deutschland schwersten Schaden zufügen.
Die Wasserstoffwirtschaft ist ein weiteres, totgeborenes Kind. Stoppt die Ideologen!
Das Öko-Institut e.V. schrieb dazu: [3] … Falls sich die Stromkosten auf 0 € / MWh reduzieren sollten, verringern sich die Erzeugungskosten für Wasserstoff auf 29 € / MWh und die Kosten für synthetisches Methan auf 70 € / MWh.
Bedingt durch die hohen Wirkungsgradverluste und die hohen Kapitalkosten sind die Kosten für Elektrolysewasserstoff fast dreimal höher als der aktuelle Preis für Erdgas. Die Kosten für synthetisches Methan liegen nahezu um den Faktor 4,5 höher als die aktuellen Kosten von Erdgas
… In den nächsten zwanzig Jahren zeichnen sich also keine sinnvollen Anwendungsmöglichkeiten für synthetisches Methan als Flexibilitätsoption für den Stromsektor ab, die über einige wenige Demonstrationsprojekte hinausgehen …

Wirkungsgrad der Power to Gas Technologie mit Rückverstromung

Die vorhergehenden, etwas unübersichtlichen Darlegungen finden sich in einem ganz aktuellen Paper zusammengefasst:
Dr. Geisenheiner at al. 25.03.2020: [4] Fachliche Stellungnahme Wasserstoffwirtschaft
Daraus die Wasserstoff-Prozess-Verlustgrafik:

Bild 3 [4] Wirkungsgrad der Prozesskette Strom – Wasserstoff – Rückverstromung (die Transportverluste werden bei längeren Transortzeiten bedeutend größer als in dieser Grafik angegeben)

Keinen Schreck bekommen: So viel kostet mit Wasserstoff zwischengespeicherter Strom

In einer Artikelserie wurden damals die Kosten von Speichertechnologien grob dargestellt:
EIKE 18.06.2015: [11] Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
Für Powert to Gas mit Rückverstromung wurde der Netto-Ausspeisepreis damals mit 20 €ct/kWh bei einem Strombezug von 4,8 €ct/kWh abgeschätzt (mit damals erheblich besser angenommenen Wirkungsgraden und ohne Transportverluste).
Beispiel: Der Ökolieferant bekommt für seinen Strom – ob er ihn einspeist oder abregeln muss – beispielsweise 4 €ct/kWh bezahlt. Der private Endkunde bezahlt dafür aufgrund der Steuern und Zusatzkosten ca. 30 €ct/kWh an seiner Steckdose
Über Powert to Gas zwischengespeicherter Strom kostet netto an der Kostenstelle, so er, mit 4 €ct/kWh entnommen wurde nun mindestens 20 €ct/kWh. Darauf kommt nun die Kostentreppe, wodurch der private Verbraucher dafür linear hochgerechnet 1,5 €/kWh bezahlt.
Das erscheint hoch. Allerdings kam der Autor beim damaligen Nachrechnen einer neueren Pilotanlage auf noch erheblich höhere Kostenwerte mit geschätzten 33,6 ct / kWh für den am Entnahmeknoten zurückgespeisten Strom [12]. Ein „Verbilligungseffekt“ ist bisher also nicht erkennbar. Sicher ein Grund, warum bei der Power to Gas Technologie immer nur Erfolge, aber nie die vollständigen Kosten ausgewiesen werden.
Selbstverständlich kann die Politik die Nebenkosten beeinflussen. Dann fehlt ihm aber dieses Geld für die vielen Maßnahmen zu Weltrettungen, Pandemie-Ausfallzahlungen und EU-Transferzahlungen an unsere privat reicheren – aber immer geldhungrigen – EU-Nachbarn. Es ist deshalb unwahrscheinlich, dass größere Abstriche bei den Steueraufschlägen gemacht werden (können). An den erheblichen Fixkostenaufschlägen kann die Politik sowieso nichts drehen, sondern nur subventionieren.
Man mache sich also die neue, politische Vorgabe klar: Strom im Wert von ca. 4 €ct/kWh wird dank dieser grandiosen Strategie mit „umgewandeltem“ Strom zu mindestens 20 … 33 €ct/kWh „gemischt“. Damit liegt der künftige Strompreis für Privatverbraucher je nach erforderlichem Speicherstromanteil (können im Winter für bis zu 14 Tage fast 100 % sein), irgendwo zwischen 30 €ct … 1,5 (2,5) €/kWh.
Nach heutigem Stand. Kommt der Wasserstoff weit weg aus dem Ausland, sind nochmals Kostenerhöhungen von 10 … 20 % zuzufügen und das wird bestimmt nicht das Ende darstellen.

Wie hoch muss die Sturheit des Festhaltens an der Abschaltung der Grundlastkraftwerke und panische Angst vor dem technischen Scheitern des EEG in den politischen Köpfen schon sein, um trotzdem die Wasserstoffstrategie zu starten

Beim Vergleich der Darstellungen der Fachpersonen mit den euphorischen Strategieankündigungen unserer Politiker:
[6] «Wir wollen bei den neuen Wasserstofftechnologien hin zu grünem Wasserstoff weltweit führend sein.» – Nicht weniger strebt die deutsche Regierung nach den Worten von Wirtschaftsminister Peter Altmaier (CDU) mit einer am Mittwoch verabschiedeten Nationalen Wasserstoffstrategie an. Diese sei die größte Innovation im Bereich Klimaschutz und Energiewende seit dem Entscheid, mit dem Erneuerbare-Energien-Gesetz (EEG) in großem Ausmaß Energie aus Sonne, Wind und Biomasse zu fördern, fügte Altmaier an, als er die Strategie zusammen mit Vertretern weiterer Ministerien den Medien vorstellte …
… kommen unweigerlich (aber nicht neu) Fragen zum geistigen Zustand unserer Politikkaste auf. Es zeigt jedoch nur, dass das vergleichbare (Pseudo-)Problem Klimawandel bezüglich der „Lösungsstrategie“ kein Einzelfall, sondern seit „Merkel“ ganz einfach Methode ist, die an ein Land erinnert, in dem unsere unfehlbare Kanzlerin sozialisiert wurde: (Stur) Vorwärts immer – rückwärts nimmer.
Im Klartext: Wenn etwas angeordnet ist, darf auf keinen Fall über den Sinn nachgedacht und schon gar nicht korrigiert werden. Es ist immer geradlinig bis zum (bitteren) Ende durchzuführen.
Ein in der Deutschen Geschichte seit dem letzten Kaiser bekanntes Verhalten „unfehlbarer Führungspersonen“. Allerdings ist auch das vollkommene Versagen der Opposition in Deutschlands Geschichte symptomatisch. Das (wieder) erreicht zu haben, ist für Merkel also nicht einzigartig.
Nun ist es allerdings nicht mehr nur ein „Problem Merkel“, sondern auch ein „Problem Söder“, der den GRÜNEN ebenfalls bedingungslos in den Hintern kriecht.

Neben dem EEG wird es das nächste Subventionsgrab werden

NZZ: [6]Allerdings hat er mindestens zwei Pferdefüße: Noch ist er meist zu teuer, um konkurrenzfähig zu sein, und in Deutschland gibt es viel zu wenig erneuerbare Energie für seine Herstellung. Dem versucht die Wasserstoffstrategie mit 38 Einzelmaßnahmen abzuhelfen. So stellt das Papier unter anderem Investitionskosten-Zuschüsse für den Betrieb von Elektrolyseanlagen und den Aufbau eines Wasserstoff-Tankstellennetzes in Aussicht.
Und ausgehen wird es wie bei Solar und teilweise Windkraftanlagen, nun allerdings gleich von vornherein als besondere Strategie ausgegeben: Produziert wird das wichtige Gut Energie im Ausland:
[6] … Gleichwohl wird Deutschland laut dem Papier mittel- und langfristig in erheblichen Ausmaß Wasserstoff importieren müssen. Deshalb will die Regierung Partnerschaften mit Ländern eingehen, in denen aufgrund der geografischen Lage Wasserstoff effizient produziert werden kann. Dies gilt namentlich für das sonnenverwöhnte Afrika.

Und wie beim Klimawandel sind Forschung und Industrie nach anfänglichem Zögern wieder begeistert

10.06.2020 BDEW zur Nationalen Wasserstoffstrategie
… „Es ist gut, dass die lange erwartete Nationale Wasserstoffstrategie der Bundesregierung nun endlich vorliegt. Sie formuliert wichtige Grundlagen für die Dekarbonisierung von Industrie, Verkehr und Wärmesektor mit gasförmigen Energieträgern. Darauf müssen wir aufbauen und in der Umsetzung Tempo machen. Mit der Strategie zeigt die Bundesregierung, dass leitungsgebundene, gasförmige Energieträger ein zentraler Baustein der Energiewende und für das Erreichen der Klimaschutzziele sind“, sagt Kerstin Andreae, Vorsitzende der BDEW-Hauptgeschäftsführung.
BR24 Video vom 29.05.2020, Vorstellung der Bayerischen Wasserstoffstrategie:
00:22 Peter Wasserscheid, Zentrum Wasserstoff Bayern: Also ich glaube, technologisch hinken wir nicht hinterher … der Aufbruch, diese Technologie wirklich zu industrialisieren und eine Wasserstoffwirtschaft zu schaffen, der war bisher nötig.

Bezüglich der Kosten ist unseren Politikern längst eine Lösung eingefallen: Den CO2-Preis so hoch zu schrauben, dass die bisher „viel zu billigen Energien“ so teuer wie durch Elektrolyse erzeugter Wasserstoff werden

Wenn etwas nicht zu konkurrenzfähigen Preisen hergestellt werden kann, gibt es einen Lösungsweg: Die Wettbewerbsprodukte auf das vergleichbare Niveau verteuern. In einer vom Staat ausgehebelten Wirtschaft ist das machbar, und dank dem Klimak(r)ampf inzwischen auch problemlos umzusetzen.
Es geschieht, indem der CO2-Preis einfach auf die von den GRÜNEN (und Freitagshüpfer, und Umweltbundesamt) geforderten 180 EUR/Tonne und dann weit darüber hinaus angehoben wird.
Es wird so kommen. Denn unsere Politiker benötigen viel, viel Geld, die EU benötigt viel viel Geld, die Klimawandel-Reparationszahlungen an sich „betroffen“ meldende Länder kosten viel viel Geld, die bedingungslose Sozialleistungsversorgung des laufend einreisenden, vorwiegend afrikanischen, aufgrund deren Reproduktionsrate nie endenden Jugendüberschusses kostet viel, viel Geld; weitere Aufzählungen fast beliebig möglich.
Wenn man es nicht schon hätte, spätestens jetzt müsste man die CO2-Bepreisung als Einnahmequelle erfinden.
Für die Bayerische GRÜNEN-Vorsitzende, Katharine Schulze ist es ein undenkbares Gräuel [8]. Es gibt aber auch Personen, die etwas anders als diese hochbesoldete Lachpuppe denken.

Bild 4 Catharina Schulze. Video-Screenshot [9]

Es wird nicht mehr allzu lange dauern, bis auch bei uns ein Wunsch umgeht: Oh du Land, welches einen Trump vorzuweisen hat: Wie bist du zu beneiden …
Bevor es allerdings so weit kommen könnte, wird das Wählen nicht genehmer Parteien vielleicht verboten und nicht nur die EU-Präsident*in vollkommen unabhängig von Wahlergebnissen in Hinterzimmern von Parteigrößen*innen ausgeknobelt …
Quellen
[1] Christians-Albrechts Universität zu Kiel, Jahresbericht 2002/2003 Forschungs- und Technologiezentrum Westküste, Büsum, Vanselow, Klaus; Voigt, Wolfgang; Bojens, Gero; Hein, Burger: „Fortschritt des FEEDWings-Projektes zur Windenergiespeicherung
[2] Dr.-Ing. Hartmut Euler, Ministerialdirigent, Abteilungsleiter für Technologie im schleswig-holsteinischen Wirtschaftsministerium: Wasserstoff aus Strom oder „power to gas“ – der verlustreiche, teure und unnötige Weg
[3] Öko-Institut e.v., Studie März 2014: Prüfung der klimapolitischen Konsistenz und der Kosten von Methanisierungsstrategien
[4] Dr. Geisenheiner at al. 25.03.2020: Fachliche Stellungnahme Wasserstoffwirtschaft
[5] pv magazine 29. MAI 2020: BAYERISCHES STAATSMINISTERIUM FÜR WIRTSCHAFT, LANDESENTWICKLUNG UND ENERGIE Aiwanger: „Made in Bavaria wird zum Wasserstoff-Gütesiegel“
[6] NZZ 11.06.2020: Deutschland steckt Milliarden in eine Wasserstoffstrategie
[7] Univ.-Prof. Dr.-Ing. Martin Doppelbauer, Professur für Hybridelektrische Fahrzeuge, Karlsruher Institut für Technologie: Strategiepapier elektrische Pkws – aktueller Stand und zukünftige Entwicklung (V1.5)
[8] EIKE 25, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 2
[9] EIKE 24, Juli 2020: Wenn die CO2-Pandemie nicht ausgerufen wäre, müssten wir uns um wirkliche Probleme kümmern … Teil 1
[10] IWR.de 10.06.2020: Bundesregierung verabschiedet Nationale Wasserstoffstrategie
[11] EIKE 18.06.2015: Elektro-Energiespeicherung, Notwendigkeit, Status und Kosten. Teil 3 (Abschluss)
[12] EIKE 30.11.2016: Ökostrom verschieben zur Lösung der EEG-Blockade Ein lokaler Versorger ist innovativ und löst das Speicherproblem – Koste es was es wolle
[13] EIKE 18.05.2017: Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern