Unlogische Fakten – „Faktenchecks“ durch Innuendo

Kip Hansen

[Alle Hervorhebungen in diesem Beitrag im Original]

Die neueste Mode bei allen Arten von Aktivismus ist es, die eigenen ideologischen Gegner durch „Faktenüberprüfung“ anzugreifen. Wir sehen das in der Politik und bei allen modernen Kontroversen, natürlich auch bei der Klimawissenschaft.

Fast keine der „Fact-Checking-Sites“ und „Fact-Checking-Organisationen“ überprüfen tatsächlich die Fakten. Und wenn sie zufällig etwas prüfen, das wir alle als Tatsache und nicht nur als Meinung oder Standpunkt ansehen, wird es immer gegen eine gegenteilige Meinung, einen anderen Standpunkt oder eine alternative Tatsache geprüft.

Der daraus resultierende Faktencheck-Bericht hängt von den Zielen des Faktenchecks ab. Einige werden durchgeführt, um zu bestätigen, dass „unser Mann“ oder „unser Team“ richtig liegt, oder dass die Gegenseite nachweislich falsch liegt, lügt oder falsch informiert ist. Wenn sich herausstellt, dass eine Tatsache in irgendeiner Weise von der gewünschten Tatsache abweicht, und sei es auch nur im Geringsten, wird das überprüfte Original als Unwahrheit oder, schlimmer noch, als absichtliche Lüge bezeichnet. (oder umgekehrt, andere Leute lügen über unsere Fakten!). Niemand mag einen Lügner, so dass diese Art der gefälschten Faktenüberprüfung zwei Ziele erreicht – sie lässt Zweifel an der angeblich überprüften Tatsache aufkommen und verleumdet einen ideologischen Gegner als Lügner. Zwei Fliegen mit einer Klappe.

Obwohl nicht ganz neu in der Szene der Faktenüberprüfung, ist eine KI-gestützte Bemühung an die Oberfläche der aufgewühlten Meere der Kontroverse aufgetaucht: Logically Facts. „Logically Facts ist Teil des Third Party Fact-Checking Program (3PFC) von Meta und arbeitet mit TikTok in Europa zusammen. Wir sind seit 2020 ein verifizierter Unterzeichner des International Fact-Checking Network (IFCN) und sind Mitglied der Misinformation Combat Alliance (MCA) in Indien und des European Digital Media Observatory (EDMO) in Europa.“ [Quelle] Meta? „Meta Platforms … ist der unangefochtene Marktführer im Bereich der sozialen Medien. Das Technologieunternehmen besitzt drei der vier größten Plattformen nach monatlich aktiven Nutzern (Facebook, WhatsApp und Instagram).“ „Die sozialen Netzwerke von Meta sind als Family of Apps (FoA) bekannt. Bis zum vierten Quartal 2023 zogen sie fast vier Milliarden Nutzer pro Monat an.“ Und TikTok? Es hat über eine Milliarde Nutzer.

Ich bezweifle, dass man die 4 Milliarden und die 1 Milliarde zusammenzählen kann, um auf 5 Milliarden Nutzer von META und TikTok zu kommen, aber auf jeden Fall ist das ein riesiger Prozentsatz der Menschheit, egal wie man es betrachtet.

Und wer prüft die Fakten dieser Milliarden von Menschen? Logically Facts [LF].

Und welche Art von Faktenüberprüfung führt LF durch? Schauen wir uns ein Beispiel an, das sich mit etwas beschäftigt, das der Leserschaft hier sehr vertraut ist: Die Leugnung der Klimawissenschaft.

Die von Wiki vorgeschlagene Definition lautet:

„Klimawandelleugnung (auch Leugnung der globalen Erwärmung) ist eine Form der Wissenschaftsleugnung, die dadurch gekennzeichnet ist, dass sie den wissenschaftlichen Konsens über den Klimawandel ablehnt, sich weigert, ihn anzuerkennen, ihn anzweifelt oder bekämpft.“

Andere gängige Definitionen der Leugnung des Klimawandels lauten: Angriffe auf Lösungen, Infragestellung der offiziellen Klimawandelwissenschaft und/oder der Klimabewegung selbst.

Wenn ich alle Zeit der Welt hätte, könnte ich mich eingehend mit der Fact-Checking-Industrie befassen. Aber da meine Zeit begrenzt ist, wollen wir uns gemeinsam einen einzigen „Analyse“-Artikel von Logically Facts ansehen:

Pseudowissenschaft, keine Krise“: Wie angebliche Experten die Leugnung des Klimawandels anheizen

Dieser Artikel ist eine faszinierende Studie über „Fake-fact-checking by inuendo“. Während wir den Artikel durchgehen und seine Behauptungen stichprobenartig überprüfen, werde ich Sie auf jede Überprüfung einer tatsächlichen Tatsache hinweisen – halten Sie nicht den Atem an. Wenn Sie proaktiv sein wollen, lesen Sie zuerst den LF-Artikel, dann werden Sie besser verstehen, was sie tun.

Die Einführung zu ihrem Artikel lautet:

„Würden Sie einen Augenarzt um zahnärztlichen Rat bitten? Die Antwort ist offensichtlich. Doch in den sozialen Medien beeinflussen selbsternannte ‚Experten‘ mit wenig bis gar keinem relevanten Wissen über Klimawissenschaft die öffentliche Meinung.“

Als Herausgeber dieser „Analyse“ werden Shreyashi Roy [MA in Massenkommunikation und ein BA in englischer Literatur] und Nitish Rampal [ … mit Sitz in Neu-Delhi und …. mit großem Interesse an Sport, Politik und Technik] genannt. Der Autor ist angeblich [mehr zu „angeblich“ in einer Minute…] Anurag Baruah [MA in englischer Sprache und ein Zertifikat in Umweltjournalismus: Storytelling, erworben online bei der Thompson Founation.]

Warum sagen Sie „angeblich“, Herr Hansen? Wenn Sie den LF-Artikel gelesen hätten, wie ich vorgeschlagen habe, würden Sie sehen, dass er sich so liest, als ob er von einem KI-Large Language Model „geschrieben“ wurde, gefolgt von einer sinnvollen Überarbeitung durch einen Menschen, wahrscheinlich Herrn Baruah, gefolgt von einer weiteren Überarbeitung durch Roy und Rampal.

Der Vorspann ist selbst unlogisch. Zunächst ist von ärztlicher/zahnärztlicher Beratung die Rede, wobei zu Recht darauf hingewiesen wird, dass es sich um unterschiedliche Fachgebiete handelt. Dann wird beklagt, dass ungenannte so genannte selbsternannte Experten, von denen LF behauptet, sie hätten „wenig bis keine relevanten Kenntnisse der Klimawissenschaft“, die öffentliche Meinung beeinflussen. Da diese Personen bisher nicht namentlich genannt werden, können der KI, der Autor und die nachfolgenden Redakteure von LF unmöglich wissen, wie hoch ihr Wissensstand über die Klimawissenschaft sein könnte.

Wen genau wollen sie hier anschmieren?

Der erste ist:

Einer dieser „Experten“, Steve Milloy, eine prominente Stimme auf der Social-Media-Plattform X (früher Twitter), bezeichnete am 26. Juni 2024 einen Beitrag der NASA Climate (Archiv) über die Auswirkungen des Klimawandels auf unsere Meere als „Lüge“.

Es ist absolut wahr, dass Milloy, der dafür bekannt ist, dass er alles kritisiert, was er als schlecht gemacht, überbewertet oder anderweitig in seine Kategorie „Junk Science“ fällt, auf X den behaupteten Artikel veröffentlicht hat. LF, dessen KI, Autor und Redakteure machen keine Anstalten, die von Milloy als Lüge bezeichneten Fakten zu überprüfen oder die Fakten der NASA in irgendeiner Weise zu überprüfen.

Wenn Milloy irgendeine Behauptung der NASA als „Lüge“ bezeichnet, ist das a priori ein Fall von Klimaleugnung: Er widerlegt oder weigert sich, irgendeinen Punkt der offiziellen Klimawissenschaft zu akzeptieren.

Wer ist Steve Milloy? 

Steve Milloy ist Vorstandsmitglied und Senior Policy Fellow des Energy and Environment Legal Institute, Autor von sieben Büchern und über 600 Artikeln/Kolumnen, die in großen Zeitungen, Zeitschriften und im Internet veröffentlicht wurden. Er hat auf Anfrage mehrfach vor dem US-Kongress ausgesagt, unter anderem zu den Themen Risikobewertung und Katastrophenschutz. Er ist außerordentliches Mitglied des National Center for Public Policy Research.

„Er hat einen B.A. in Naturwissenschaften von der Johns Hopkins University, einen Master in Gesundheitswissenschaften (Biostatistik) von der Johns Hopkins University School of Hygiene and Public Health, einen Juris Doctorate von der University of Baltimore und einen Master of Laws (Wertpapierregulierung) vom Georgetown University Law Center.

Es scheint, dass viele Herrn Milloy für einen Experten in vielen Dingen halten.

Und die Beweise für LFs Ablehnung von Milloy als „selbsternannter Experte“ mit „wenig bis gar keinem relevanten Wissen über Klimawissenschaft“? Der Guardian, Mitbegründer der Klimakrisen-Propagandaorganisation Covering Climate Now, sagte: „JunkScience.com wurde als ‚Hauptumschlagplatz für fast jede Art von Leugnung des Klimawandels bezeichnet“, und nach einem Link, der Milloys Abschlüsse auflistet, wurde er wegen „fehlender formaler Ausbildung in Klimawissenschaft“ abgewatscht. Nun, ein BA in Naturwissenschaften könnte schon etwas zählen. Und ein Jurastudium ist nicht nichts. Der letzte Link, der eindeutig beweist, dass Milloy ein anerkannter Experte ist, und es ist offensichtlich, dass der LF KI, der Autor und die Redakteure den Inhalt des Links entweder nicht gelesen oder einfach beschlossen haben, ihn zu ignorieren.

Unglaublicherweise ist das nächste Ziel von LF „… John Clauser, ein Nobelpreisträger für Physik aus dem Jahr 2022, behauptete, dass es keine Klimakrise gibt und dass die Klimawissenschaft ‚Pseudowissenschaft‘ ist. Clausers Nobelpreis verlieh seinen Aussagen Gewicht, aber er hat nie eine von Fachleuten begutachtete Arbeit über den Klimawandel veröffentlicht.“

LFs Beweis gegen Clauser ist die Washington Post, die in einem Artikel nicht nur Clauser angreift, sondern eine lange Liste bedeutender Physiker, die den IPCC-Konsens zum Klimawandel nicht unterstützen: Willie Soon (einschließlich der Lüge, dass Soon’s Arbeit von fossilen Brennstoffunternehmen finanziert wurde), Steve Koonin, Dick Lindzen und Will Happer. Der Post-Artikel geht auf keinen der Gründe ein, warum diese geschätzten Weltklasse-Physiker keine Mitglieder des Konsensclubs sind. Ihre Nichtübereinstimmung ist ihr Verbrechen. Es werden keine Fakten geprüft.

LF untermauert den Angriff auf weltbekannte Physiker mit einem Zitat von Professor Bill McGuire: „Solche Pseudo-Experten sind gefährlich und meiner Meinung nach unglaublich unverantwortlich – Nobelpreis hin oder her. Ein Physiker, der den anthropogenen Klimawandel leugnet, leugnet in Wirklichkeit die wohlbekannten physikalischen Eigenschaften von Kohlendioxid, was einfach absurd ist.“

McGuire ist kein Physiker und kein Klimawissenschaftler, aber er hat einen Doktortitel in Geologie und ist Vulkanologe und ein Mitautor des IPCC. Man könnte ihn auch als „ohne formale Ausbildung in Klimawissenschaft“ bezeichnen.

Aber McGuire hat einen Punkt, den LF, seine KI und seine menschlichen Redakteure zu übersehen scheinen: Die Grundlage der CO2-Hypothese der globalen Erwärmung basiert auf der Physik und nicht auf dem, was man heute „Klimawissenschaft“ nennt. Daher sind die Physiker die wahren Experten (und nicht die Vulkanologen….).

LF zieht dann den unbegründeten Vergleich mit „falschen Experten“ im Anti-Tabak-Kampf, spielt auf die Verbindungen zur Ölindustrie an und kommt dann direkt auf John Cook zu sprechen.

John Cook, ein weltweit führender Kämpfer gegen die Leugnung des Klimawandels, ist kein Klimawissenschaftler. Er ist kein Geologe, kein Atmosphärenforscher, kein Ozeanforscher, kein Physiker und nicht einmal ein Vulkanologe. Er promovierte 2016 in Kognitionswissenschaften an der University of Western Australia“.

Der Rest der Fake-Analyse von Logically Facts ist im Grunde eine Umschreibung einiger von Cooks Anti-Klimaleugner-Beiträgen. Möglicherweise/wahrscheinlich resultiert sie aus einem KI-Sprachmodell, das auf Pro-Konsens-Klimamaterialien trainiert wurde. Logically Facts ist ausdrücklich und offen ein KI-basiertes Projekt.

LF greift nacheinander eine Reihe von Personen an, nicht deren Ansichten: Tony Heller, Dr. Judith Curry, Patrick Moore und Bjørn Lomborg.

Das Fachwissen dieser Personen auf ihren jeweiligen Gebieten wird entweder ignoriert oder übergangen.

Curry ist eine weltweit anerkannte Klimawissenschaftlerin und ehemalige Vorsitzende der School of Earth and Atmospheric Sciences am Georgia Institute of Technology. Curry ist Autorin des Buches „Thermodynamics of Atmospheres and Oceans“, eines weiteren Buches „Thermodynamics, Kinetics, and Microphysics of Clouds“ und des wunderbaren, bahnbrechenden Buches „Climate Uncertainty and Risk: Rethinking Our Response“. Eine Suche nach „Dr. Judith Curry climate“ bei Google scholar ergibt über 10.000 Treffer.

Lomborg ist ein Sozioökonom mit einer beeindruckenden Erfolgsbilanz, ein Bestsellerautor und ein führender Experte in Fragen der Energieabhängigkeit, des Nutzens von Geld, das für die internationale Armutsbekämpfung und die öffentliche Gesundheit ausgegeben wird, usw. Richard Tol wird negativ erwähnt, weil er es gewagt hat, den „97%-Konsens“ anzuzweifeln, wobei seine Qualifikationen als Professor für Wirtschaftswissenschaften und Professor für die Ökonomie des Klimawandels nicht erwähnt werden.

Unter dem Strich:

Logically Facts ist eine KI vom Typ Large Language Model [LLM], ergänzt durch Autoren und Redakteure, die das von dieser KI vom Typ Chat-Bot zurückgelieferte Chaos bereinigen sollen. Daher ist sie völlig unfähig, Werturteile zwischen wiederholten Verleumdungen, erzwungenen Konsensmeinungen, den vorherrschenden Voreingenommenheiten in wissenschaftlichen Bereichen und tatsächlichen Fakten zu treffen. Außerdem ist jede LLM-basierte KI unfähig, kritisch zu denken und logische Schlussfolgerungen zu ziehen.

Kurz gesagt, Logically Facts ist unlogisch.

Kommentar des Autors Kip Hansen dazu:

Ich bin kein Fan von Künstlicher Intelligenz (ein Oxymoron). Logically Facts und der Rest des Logically-Imperiums, Logically.ai, leiden unter all den großen Mängeln der aktuellen Versionen verschiedener Arten von KI, einschließlich Halluzinationen, Zusammenbrüchen und der KI-Version von „Du bist, was du isst“.

Soweit ich weiß, wird bei Logically Facts ein LLM eingesetzt, das darauf trainiert ist, offiziellen Quellen (Regierungen), renommierten Zeitungen (wie der New York Times, dem Guardian, der Washington Post usw.) und in diesen Quellen zitierten Wissenschaftlern zu vertrauen und jede Quelle zu ignorieren, die nicht mit den Meinungen dieser Quellen übereinstimmt.

Das Problem liegt auf der Hand: Bei jeder Art von Kontroverse gewinnt die „offiziellste“ und am weitesten verbreitete Ansicht und wird für „wahr“ erklärt, während gegenteilige Ansichten als „Fehlinformation“ oder „Desinformation“ bezeichnet werden. Personen, die die Minderheitsmeinung vertreten, werden als „Leugner“ (von was auch immer) abgestempelt und alle Verleumdungen und Beleidigungen gegen sie werden standardmäßig als „wahr“ eingestuft.

Das ist das natürliche Ergebnis von LLMs – dieser Effekt wird noch verstärkt, indem ihre Trainings-Algorithmen so angepasst werden, dass bestimmte Quellen und Arten von Quellen als endgültig und andere Quellen und Arten von Quellen als nicht vertrauenswürdig akzeptiert werden.

Ein KI-Chat-Bot kann einfache, nicht kontroverse Sachfragen korrekt beantworten – und ist eine schnelle, unkomplizierte Methode, um Dinge herauszufinden wie: „Was ist die Hauptstadt der Türkei?“ (solange man sich nicht über die Geschichte streiten will….). „Wie hoch ist die Einwohnerzahl von New York City?“ (aber Vorsicht, stellen Sie sicher, dass es das ist, was Sie wissen wollen, und nicht die Bevölkerung dessen, was wir als „NY City“ bezeichnen, einschließlich aller Bezirke und der umliegenden Gebiete – die Megalopolis NY-NJ-Connecticut).

Logically Facts prüft keine Fakten.

Link: https://climaterealism.com/2024/08/illogically-facts-fact-checking-by-innuendo/

Übersetzt von Christian Freuer für das EIKE

 




E-Mobile sind weder „sauber“ noch als Netzspeicher geeignet

Grau ist alle Theorie, besser gesagt, grün. Die Sektorenkopplung, also die Elektrifizierung des Wärme- und Mobilitätssektors soll beginnen, während wir gerade in einer angefangenen Stromwende hängenbleiben. Das macht wenig Sinn. Zwei Faktoren werden zum Scheitern führen: die Kosten und der Mensch.

Die fundamentalen Irrtümer zur E-Mobilität

von Frank Hennig

Nachdem die Erkenntnis, dass nachts die Sonne nicht scheint und manchmal auch der Wind nicht weht, zunehmend um sich greift, fällt auch in den so genannten Qualitätsmedien öfter als früher der Begriff „Speicher“. In der Häufigkeit allerdings weit abgeschlagen hinter der gebetsmühlenartigen Forderung, wir bräuchten „mehr Erneuerbare“. Eine stromspeichernde Wasserstoffwirtschaft ist nur schwer am Horizont zu erkennen, es kann sich auch um eine Fata Morgana handeln. Die Kapazitäten eventueller neuer Pumpspeicherwerke und auch von Großbatterien werden die Schwankungen der Einspeisung von Wind- und Solarstrom absehbar bei weitem nicht abpuffern können. So taucht die Idee von intelligent verwalteten Kleinspeichern auf – den Schwarmspeichern. Eine Vielzahl zentral gesteuerter kleiner Speicher könnte helfen, Schwankungen im Netz zu glätten und sie würden damit nicht zuletzt auch der Sicherheit des Systems dienen.

Der natürliche Flatterstrom bringt einen teilweise schwer vorhersagbaren Korridor an Wind- und PV-Einspeisung von bis zu 61 Gigawatt mit sich (im Juli 2024, das ist der mittlere gesamte Bedarf im Netz oder entspricht 40 Kernkraftwerken). Dabei treten hohe Gradienten auf, das heißt Leistungsänderungen pro Zeiteinheit in Gigawatt pro Stunde (GW/h). Diese können bis zu fünf GW/h erreichen und werden vor allem geprägt durch die Abhängigkeit der Windstromeinspeisung von der Windgeschwindigkeit in der dritten Potenz. Verdoppelt sich letztere, verachtfacht sich die Einspeisung. Zieht ein Sturmtief über Deutschland, dann verdoppelt sich die Windgeschwindigkeit nicht nur, sie vervielfacht sich mit den entsprechenden Folgen für die elektrische Leistung.

Teilweise gleicht sich das durch Leistungsänderungen der Photovoltaik (PV) aus, teilweise überlagern und verstärken sich aber auch die Schwankungen durch Abflauen des Windes bei Sonnenuntergang oder Auffrischen des Windes bei Sonnenaufgang.

Es ergeben sich außerordentliche Anforderungen an die Netzbetreiber bezüglich der Ausregelung dieser Schwankungen, die durch die weiteren Abschaltungen konventioneller regelbarer Kraftwerke noch zunehmen.

Zeitweise müssen Wind- oder Solaranlagen in Netzgebieten mit einem hohen Ausbaustand der „Erneuerbaren“ abgeschaltet werden, was die Betreiber dieser Anlagen aufgrund der Entschädigungsregelung im EEG nicht weiter stört.

Könnte man die vielen als Kellerspeicher bezeichneten PV-gespeisten Hausspeicher nicht für eine koordinierte Speicherung von Strom nutzen? Über diese verfügen aber die Nutzer in ihrem eigenen Interesse, nämlich dem, den Bezug aus dem Netz zu minimieren. Zudem sind sie durch die Netzbetreiber nicht ansteuerbar. Wenn sie abends und nachts entladen wurden, werden sie mit Sonnenaufgang wieder gefüllt. Sind sie „voll“, geht der Strom der PV-Anlagen ins Netz. Das ist in den hellen Monaten meist um die Mittagszeit der Fall, was die extremer werdende solare Mittagsspitze noch schneller wachsen lässt. Etwa 25 Gigawatt installierter Speicherleistung der Kellerspeicher entziehen sich aufgrund geringer installierter Leistung (kleiner 30 Kilowatt) der Regelbarkeit durch die Netzbetreiber, sie sind nicht ansteuerbar.

Das Missmanagement der Energiewende bewirkt, dass weiter ungebremst neue volatile Einspeiser zugebaut werden, ohne dass durch Netz- oder Speicherausbau die Chance besteht, diesen Strom vollständig zu nutzen. Die Zunahme der Produktion von Zufallsstrom, der am Bedarf vorbei produziert wird, ist volkswirtschaftlich enorm schädlich, treibt die Kosten und wird letztlich zum finanziellen Kollaps der Energiewende führen.

Stehen statt fahren

Extrem großer Beliebtheit erfreut sich die Idee, die Batterien der E-Mobile als Schwarmspeicher zur Netzregelung zu nutzen. Eingeführt wurde der Begriff des „Vehicle-to-grid“ (V2G). Ausgehend vom Gedanken der staatlich erwünschten elektrischen Massenmotorisierung und einer Vielzahl von Fahrzeugen – 15 Millionen in 2030 – sollen sich hier beträchtliche Kapazitäten nutzen lassen. Der Realitätscheck zeigt bei näherer Betrachtung viel Wasser im Wein. Zunächst wird es im Jahr 2030 wohl keine 15 Millionen Fahrzeuge geben, wenn man den jetzigen Einbruch der Verkaufszahlen betrachtet und eine erneute Subventionierung des Verkaufspreises am Geld scheitern dürfte. Käufer müssen rechnen und in die Überlegungen gehen nicht nur der hohe Kaufpreis, sondern auch der steigende Ladestrompreis und der schwer kalkulierbare Wiederverkaufswert ein.

Mit einigem Neid weist die offizielle Politik auf stark steigende Zulassungszahlen in China hin, ohne auf den Gedanken zu kommen, dass das chinesische Netz durch einen 70-prozentigen Kohleanteil gekennzeichnet ist. „Dem Klima“ hilft die E-Mobilisierung auch in China nicht, sie erhöht den Stromverbrauch und die Emissionen.

Doch zunächst die Frage nach der technischen Umsetzbarkeit. Wie alle Lösungen, die die Energiewende zum Erfolg verhelfen sollen, ist technisch fast alles möglich. Das beantwortet nicht die Frage, ob alle Ideen sinnvoll und wirtschaftlich realisierbar sind. Die Batterien von E-Mobilen bidirektional zu laden, das heißt Strom nicht nur einzuspeichern, sondern bei Bedarf über die Ladeeinrichtung auch wieder ins Netz zurück zu speisen, ist möglich. Es erfordert hard- und softwareseitige Voraussetzungen. Bereits 2014 lief das Projekt e-sol-car an der Brandenburgischen Technischen Universität Cottbus-Senftenberg. Etwa 20 Fahrzeuge, PKW und Transporter, waren umgerüstet worden und wurden bidirektional geladen und natürlich auch gefahren. Das Projekt war erfolgreich, die Flotte der Versuchsfahrzeuge segnete inzwischen das Zeitliche.

Andere Firmen und Unternehmen wie Audi unternahmen eigene Versuche, die ebenso erfolgreich waren. Dennoch gibt es nicht einmal im Ansatz eine großtechnische Lösung, denn die Voraussetzungen fehlen fast vollständig. Es braucht die nötige Software im Auto wie in der Ladestation, ein IT-basiertes Managementsystem bei den Versorgern und individuelle Verträge.

Die Soft- und Hardware für das bidirektionale Laden gibt es nur bei den Ladestationen und E-Mobilen jüngerer Baujahre. Entscheidend dürfte jedoch das Management des Systems sein. Die Nutzung der E-Mobile ist sehr verschieden. Es gibt Vielfahrer, die täglich laden müssen und Zweitwagen für die Stadt, die vielleicht nur einmal in der Woche geladen werden müssen. Kein E-Auto-Fahrer wird sich aber ein Fahrzeug mit einer extra großen Batterie kaufen, um einen Teil ihrer Kapazität dem Versorger zur Verfügung stellen zu können. Es bedürfte in jedem Fall individueller Verträge, in denen eine entsprechende Kapazität vereinbart wird, die zur Netzregelung genutzt werden kann und die Garantie durch den Versorger, dass zum Zeitpunkt x Uhr die Batterie zu y Prozent geladen ist. Zudem will der Besitzer des Mobils etwas dafür haben, zum Beispiel billigeren Ladestrom.

Dazu kommt die German Angst, zunächst die German Reichweitenangst, zum anderen die Angst vor schnellerer Alterung der Batterie durch häufigere Ladezyklen. Diese Alterung lässt sich (noch) nicht belastbar quantifizieren. Das Interesse der E-Mobilisten dürfte sich deshalb in Grenzen halten.

Die Vermutung, dass ein solches V2G-System bereits in Vorbereitung ist und bald startet, geht fehl. Eine Nachfrage bei mehreren Versorgern ergab, dass diese an dem Thema mangels gesetzlicher Grundlage nicht arbeiten. Den Versorgern stünde in jedem Fall ein enormer Digitalisierungs- und Verwaltungsaufwand für geringe Speicherkapazitäten bevor. Ohne Zwang werden sie diesen Weg nicht gehen, die Stromspeicherung ist nicht ihr Geschäftsmodell.

Wenn dieses Thema in einigen Diskussionen immer wieder mit Vehemenz vorgetragen wird, so kann man von solider Ahnungslosigkeit dieser Diskussionsteilnehmer ausgehen.

Zehn Jahre nach „e-sol-car“ untersucht nun eine Projektgruppe in Kassel die gleichen Fragestellungen. Das Reiten toter Pferde scheint in Deutschland ausgeprägt.

Der Auspuff des E-Mobils

Auch bei uns ist ein fehlender Auspuff am Auto kein Beleg für Emissionsfreiheit. Zahlreiche Studien untersuchten die „Klimabilanz“ der Stromer. Als Ergebnis stehen dann Laufzeiten von 30-, 50- oder 80.000 Kilometern, die ein E-Mobil fahren müsse, bis der CO2-Rucksack seiner Produktion gegenüber einem Verbrennerfahrzeug, der durch die energieaufwändige Batterieproduktion getrieben wird, durch geringere Betriebsemissionen abgearbeitet ist. Professor Sinn errechnete sogar eine Laufleistung von 219.000 Kilometern.

Bei genauerer Betrachtung der angenommenen Emissionen des verwendeten Fahrstroms stellen sich alle diese Kalkulationen als nicht zutreffend heraus. Sie legen eine durchschnittliche CO2-Emission pro Kilowattstunde des deutschen Strommixes zugrunde. Dies ist falsch.

Dazu ein Gedankenexperiment: Nehmen wir an, Versicherungsvertreter Robert hat einen anstrengenden Arbeitstag hinter sich, an dem er viele Außentermine mit seinem E-Mobil wahrnehmen musste. Am späten Nachmittag sind beide müde, Robert vom Arbeiten und die Batterie in seinem Fahrzeug vom Fahren. Zu Hause angekommen, will Robert die Reichweite wiederherstellen, geht zur Wallbox und schreitet mit dem Kabel zum „Tankstutzen“. Halten wir hier kurz inne und betrachten den gerade herrschenden Zustand im Netz. Es gibt einen Mix beispielsweise von 40:60 („Erneuerbare“ zu konventioneller Erzeugung), vielleicht auch umgekehrt. Das Netz muss aufgrund der Vorgabe des Erneuerbare Energien Gesetzes (EEG) mit Vorrangeinspeisung der „Erneuerbaren“ betrieben werden, das heißt, alles, was Wind, PV und die anderen gerade leisten können, wird eingespeist.

Startet Robert nun den Ladevorgang, erhöht er den Bedarf im Netz. Wäre er der Einzige, der dies tut, würde dieser Bedarf in den Schwankungen des Netzes untergehen. Aber so wie er jetzt verfährt, tun es innerhalb weniger Stunden viele E-Mobilisten im Land. Die übliche Nutzungsart eines Fahrzeugs besteht nun einmal darin, dass tagsüber gefahren und danach geladen wird. Die zusätzliche Last im Netz, die jetzt abgerufen wird, führt zum Absinken der Netzfrequenz, es entsteht ein Ungleichgewicht von Erzeugung und Verbrauch. Die automatische oder manuelle Frequenzhaltung muss eingreifen und die Stromproduktion erhöhen, was nur mit regelbaren Gas- und Kohlekraftwerken, Pumpspeicherwerken und/oder erhöhtem Import möglich ist. Wind- und Solarstromproduktion ist nicht nach oben regelbar.

Der Strom, der nun in die „Tanks“ fließt, ist in jedem Fall emissionsreicher als im durchschnittlichen Mix. In diesen gehen auch die großen Mengen PV-Strom ein, der vor allem im Sommer produziert wird, der aber in den Abend- und Nachtstunden und im Winter kaum zur Verfügung steht.

Nun kann zufällig während der Ladevorgänge der Wind auffrischen. Dann strömt auch Windstrom in die „Tanks“. Das wäre Zufall, sicher ist hingegen, dass zu Feierabendzeiten, also am späten Nachmittag oder frühen Abend, die Sonne untergeht. Der entfallende PV-Strom muss nun ersetzt werden. Wer das macht? Siehe oben. Dies ist jedoch, weil vorhersagbar, in den Fahrplänen der konventionellen Kraftwerke und im internationalen Stromhandel berücksichtigt.

Der Ladestrom ist in jedem Fall deutlich emissionsreicher als der Durchschnitt des jährlichen Strommixes, beziffern lässt sich das nicht.

Der Auspuff des E-Mobils ist meist die Abgasanlage eines konventionellen Kraftwerks.

Fazit

Die Elektrifizierung der Mobilität macht aus Sicht der Emissionen nur Sinn, wenn sehr viel emissionsarmer und regelbarer Strom zur Verfügung steht. Bestes Beispiel dafür ist Norwegen. Weit über 90 Prozent bedarfsgerecht einsetzbare Wasserkraft sorgen dafür, dass für den Ladestrom jederzeit Naturstrom zur Verfügung steht, der auch hochgeregelt werden kann, wenn abends viele E-Mobile angestöpselt werden. Verkauft Björn seinen Verbrenner und steigt auf Tesla um, werden die Betriebs-Emissionen des Altfahrzeugs durch den grünen Fahrstrom fast völlig vermieden.

Bei uns hingegen macht die Elektrifizierung des Straßenverkehrs keinen Sinn, solange zufällig anfallender Ökostrom eingespeist wird und der zusätzlich nötige Fahrstrom vorrangig aus konventionellen Quellen oder aus dem Import kommen muss. Es wäre möglich, den Weg zu einer E-Mobilität (die ohnehin nie die einzige Antriebsart sein wird), über andere Quellen des Fahrstroms zu gehen. Emissionsarmer Strom aus Kernkraft wäre eine Option gewesen. Dass dieser nicht regelbar sei, ist eine der fundamentalen Propagandalügen der Energiewender. Auch emissionsarme Kohleverstromung mit CO2-Abscheidung (CCS) oder andere Minderungstechnologien (Trockenkohle, 700-Grad-Technologie, Kraft-Wärme-Kopplung) hätten geholfen.

Halten wir fest: E-Mobilität hilft „dem Klima“ nicht – im Gegenteil. Emissionen ließen sich vermeiden, indem Teile der Mobilität auf elektrischen Antrieb umgestellt würden bei gleichzeitig emissionsarmer, regelbarer Stromproduktion. Wenn es diese gibt, brauchen wir aber auch kein V2G mehr.

Für die E-Mobilität sind die Gebrauchseigenschaften und das Preis-Leistungsverhältnis maßgebend. Am Ende treffen nicht der Kanzler, die Bundesregierung oder die EU-Kommission die Kaufentscheidung, sondern der Kunde. Deshalb sollen Verbote her. Wie lange die EU-Bewohner sich das gefallen lassen, lässt sich noch nicht sagen. Grau ist alle Theorie, Grün zumeist der Misserfolg.

Der Beitrag erschien zuerst bei TE hier

 




Das Wunder am Zambesi – Brücken damals und heute

von Hans Hofmann-Reinecke

Der Kollaps der Brücke in Dresden ist ein weiteres Fanal dafür, dass Führungskompetenz und technologischer Professionalismus aus Deutschland verschwinden. Vor 120 Jahren wurde in der „Dritten Welt“ in kürzester Zeit eine Brückenkonstruktion vollendet, wie sie in dieser Geschwindigkeit auch mit den modernen Hilfsmitteln von heute kaum vorstellbar wäre. Irgend etwas konnten die damals, was wir verlernt haben. Und es muß etwas Wichtiges gewesen sein.

Ein unerwartetes Hindernis

Wir waren im südlichen Afrika im Auto unterwegs, als wir auf ein unerwartetes Hindernis stießen, welches das Navi uns verschwiegen hatte: ein riesiger Fluss, mindestens zwei Kilometer breit. Auf dem Bildschirm war die Straße ungestört geradeaus weiter gegangen, die Wirklichkeit war aber anders – das ist ja auch bei größeren Bildschirmen manchmal so. Nach kurzem Dialog mit Ansässigen konnten wir das Rätsel lösen: Es handelte sich um den Zambesi, den zweitgrößten Strom Afrikas. Der fließt 2600 km von Angola über Sambia, Namibia, Zimbabwe und Mosambik in den Indischen Ozean, und der war uns jetzt in die Quere gekommen.

Es gab eine Fähre, aber auch auf der anderen Seite des Stroms trafen wir auf Überraschungen. Man erwartet Zebras oder Antilopen auf Afrikas Straßen, vielleicht einen Elefanten, aber was sich da jetzt abspielte, das war unglaublich. Eine nicht enden wollende Schlange von Tiefladern kam uns über den Horizont entgegen, beladen mit tonnenschweren Kupferplatten. Wir waren jetzt in Sambia unterwegs, und der wichtigste Rohstoff des Landes wird von dort per LKW zum nächstgelegenen Hafen gebracht: da hat man die Wahl zwischen Walvis Bay in Namibia, 2700 km, oder etwas näher, Durban in Südafrika, 2100 km.

Ein Elon Musk des 19. Jahrhunderts

Ja, der afrikanische Kontinent birst vor wertvoller Rohstoffe, aber der Transport zu den Industrieländern ist ein Problem. Vor uns hat das schon jemand anders erkannt: Cecil Rhodes, 1853-1902. Der hat in seinem relativ kurzen Leben sehr viel geschaffen, vielleicht war er ja der Elon Musk des 19. Jahrhunderts. Er plante keine Reise auf den Mars, aber plante die gut 10.000 km lange Eisenbahnlinie „From Cape to Cairo“, von Kapstadt nach Port Said, von Süd nach Nord durch ganz Afrika.

Und auch ihm kam dabei der verdammte Zambesi in die Quere, der das ganze südliche Afrika vom Rest des Kontinents abschneidet. Das sollte seine Bahnlinie nicht aufhalten, es gibt ja Brücken. Als Brückenbauer hat man nun die Wahl: man sucht im Flusslauf eine Stelle, wo er breit aber flach ist, oder aber das Gegenteil: Schmal, tief und steile Ufer. Letzteres sollte es sein, und da bot sich die Schlucht an, durch die der Fluß unmittelbar nach den Victoria Wasserfällen strömt. Und so lautete Rhodes‘ Anweisung dann:

„Baut mir diese Brücke über den Zambesi; dort, wo die Züge die Gischt der Wasserfälle abkriegen wenn sie vorbeifahren.“

Ein anspruchsvolles Viadukt

Es würde ein Viadukt aus Stahlträgern werden, das von einer Firma im Nordosten Englands entworfen, berechnet und gefertigt wurde. Die Teile würden dann per Schiff zum Hafen von Beira in Mozambique transportiert, um dann auf der frisch eröffneten Bahnstrecke von Beira die 1300 km zur Baustelle an den Victoria Fällen gebracht zu werden.

Die Teile mussten in allen Details genau stimmen, was bei der parabelförmigen Geometrie der Brücke einiges an Rechenarbeit erforderte. Was man unbedingt vermeiden wollte war, dass beim Zusammenschrauben im Dschungel jemand feststellte: hoppla, der Träger ist ja eine halben Meter zu lang, und hier fehlt ein ganzes Stück. Immerhin sind in der Brücke 2.500 einzelne Bauteile wie Träger, Fachwerke und andere Strukturelemente verbaut, die zusammen 1000 Tonnen Stahl auf die Waage bringen. Da kann vieles schief gehen.

Um dem vorzubeugen baute man die 200 Meter lange und 100 Meter hohe Struktur gerade man in England zusammen, und stellte sicher, daß alles paßte, bevor man die – hoffentlich gut nummerierten – Einzelteile aufs Schiff verlud. Und noch etwas: Damit die Brücke dann auch genau zwischen die steilen Wände der Schlucht des Zambesi passte, musste man auch die Felswände in England nachbauen. Das waren ja keine glatten Betonplatten sondern chaotische Steinformationen.

Jeder Fehler würde hier viel Zeit und Geld kosten. Der Seeweg – und das war der einzige – von England nach Beira in Mozambique war 15.000 km, egal ob ums Kap der Guten Hoffnung oder den damals schon offenen Suez Kanal. Und von Beira zur Baustelle waren es ja auch noch ein paar Tage.

Was konnten die damals?

Wie lange würde so ein Projekt heute dauern? Die tonnenschweren Stahlteile würden auch heute auf See transportiert, Formalitäten an den Grenzen brauchen ihre Zeit und Kooperation mit den Auftragnehmern vor Ort wäre nicht einfach. Sicherheitsfreigaben durch den TÜV wären erforderlich, sowie Abschätzungen der Einflüsse auf den Klimawandel. Wenn man die ersten Meinungen zur Reparatur der Carolabrücke zum Maßstab nimmt, dann würde man für den Brückenbau im Dschungel vielleicht auf 14 Jahre einplanen.

Tatsächlich dauerte der Bau 14 Monate und die feierliche Eröffnung war am 12.September 1905. Irgend etwas konnten die damals also, was wir heute nicht mehr können, und das muss etwas sehr Wichtiges gewesen sein.

Cecil Rhodes hat diesen Triumph nicht miterlebt, er war 1902 an Lungenentzündung verstorben. Aber er hat der Nachwelt dieses unumstritten ästhetische technische Monument hinterlassen. Eher umstritten ist sein historisches Erbe in Sachen Rhodesien und sein unternehmerischer Nachlaß in Form der De Beers Diamond Company.

Auch sein Traum der Eisenbahn von „Cape to Cairo“ wurde nur zu Teilen realisiert. Teile der Strecke sind aber heute noch in Betrieb. Wenn Sie ein Abenteuer suchen, dann gönnen Sie sich doch vielleicht eine Zugfahrt von Kapstadt nach Bulawayo – auf den Schienen von Cecil Rhodes.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.




Die Energiewende gerät aus den Fugen – von Fritz Vahrenholt

https://www.drroyspencer.com/latest-global-temperatures/

Wie die obenstehende Grafik zeigt, sind die globalen Mitteltemperaturen im August gegenüber Juli 2024 etwa gleichgeblieben.
Heute befasse ich mich zunächst mit den im August verstärkten Schwankungen der PV- und Windstromerzeugung, die sich zu einer Belastung des Bundeshaushalts auswachsen. Danach zeige ich, mit welchen Mitteln die Bundesregierung ab Januar 2025 an der Gaspreisschraube dreht, um die ungeliebte Wärmepumpe besser durchsetzen zu können.

Zunächst starte ich mit einer Grafik, die ich auf dem Bürgergipfel vor 900 Zuhörern in der Liederhalle Stuttgart gezeigt habe. Sie zeigt den Kern der Energiewende: Man tauscht eine stabile, preisgünstige, CO2-freie Stromerzeugung auf der Basis von Kernenergie durch eine instabile, zu teure Stromerzeugung auf Basis von Wind- und Solarenergie.

600 Milliarden für die Energiewende
Die Grafik zeigt, dass die Energiewende hinsichtlich der CO2-freien Stromerzeugung nichts anderes gebracht hat, als seit 2002 preiswerte Kernenergie durch teureren und unzuverlässigen Wind- und Solarstrom zu ersetzen. In einer Publikation von Jan Emblemsvåg von der Norwegischen Universität für Wissenschaft und Technologie in Trondheim in der angesehenen Fachzeitschrift „International Journal of Sustainable Energy“ kommt dieser zum Ergebnis:
Wäre Deutschland 2002 bei der Kernenergie geblieben, hätte es 600 Milliarden € gespart und hätte ähnlich viel CO-freien Strom produziert wie mit all seinen erneuerbaren Energien.  Axel Bojanowski schreibt in der Welt: „Hätte Deutschland ab 2002 gar zusätzlich in die Kernkraft investiert, wären seine Treibhausgas-Emissionen um rund 73 Prozent stärker reduziert worden – und das Land hätte dennoch 300 Milliarden € gespart im Vergleich zur Energiewende„.
Deutschland ist also durch die Energiewende bislang um 600 Milliarden € ärmer geworden, ohne dass diese Wende irgendeinen Nutzen gehabt hat. Der norwegische Energieexperte bestätigt insoweit die Bewertung des Bundesrechnungshofes: „Die Bundesregierung investiert Milliarden in den Klimaschutz, weiß aber nicht, wie erfolgreich ihre Investitionen sind und ob sie sich lohnen.
Aber es wird noch schlimmer, wenn diese Politik nicht spätestens 2025 gestoppt wird. Das Beratungsunternehmen EY und der Bundesverband der Energie- und Wasserwirtschaft beziffert die von 2023 bis 2035 zu tätigenden Investitionen mit schwindelerregenden 1214 Milliarden €“.
Der Bundeswirtschaftsminister bewertet die Energiewende dagegen so: „Deutschland muss bei der Energiewende ins Risiko gehen“. Und weiter: Falls es nicht gut geht, müsse man „ein anderes Geschäftsmodell auflegen“.
Das wird dann nicht das Geschäftsmodell eines Industrielandes sein.
Die Kostenspirale der Wind- und Solarenergie dreht sich immer schneller
Der August 2024 zeigt in dramatischer Weise die Absurdität des ungesteuerten weiteren Ausbaus von Wind-und Solarenergie. Wie in der Grafik zu erkennen ist, reichten in den Mittagsstunden des Augusts Solar- (Gelb) und Windenergie (Blau) aus, um den Bedarf an Strom (Braun) zu decken. Daneben laufen aber auch noch die Wasserkraftwerke und auch immer konventionelle Kraftwerke, die aus Netzstabilisierungsgründen am Netz sein müssen, so dass der Strombedarf mittags häufig durch die Stromerzeugung überschritten würde, wenn nicht Anlagen abgestellt und trotzdem bezahlt würden oder der Strom ins Ausland verschenkt würde. Die Börsenpreise sinken gen Null. Die Solar- und Windkraftbetreiber erhalten aber eine verbindlich zugesicherte Einspeisevergütung (Wind zur Zeit 7,35 €ct/kwh, Solardächer etwa 8-12 €ct/kwh), obwohl der erzeugte Solar – oder Windstrom den Wert Null hat oder sogar immer wieder unter Null fällt. Die Differenz zum Börsenpreis wird aus dem Bundeshaushalt entnommen. Im August macht die Summe der täglichen Zuzahlungen (im unteren Teil der Grafik rot) 1.640.069.048,60 € aus. 1,6 Milliarden € im August ergeben hochgerechnet aufs Jahr etwa 20 Milliarden €, 10 Milliarden € mehr als ursprünglich geplant. Wir erinnern uns: Die Koalitionsparteien konnten sich nicht auf einen ausgeglichenen Haushalt 2025 einigen. Eine 12-Milliarden €-Lücke ist nicht durch Einnahmen gedeckt. An die Streichung der EEG- Steuergeschenke dachte bei der Ampel wohl niemand.
Die Grafik zeigt aber auch, wie wenig sinnvoll der Versuch des Wirtschaftsministers und seiner Bundesnetzagentur ist, durch Veränderung der Netzgebühr, die Güterproduktion in Deutschland in die Zeiten zu verlagern, wenn die Sonne scheint und der Wind weht. Natürlich wird diese Veränderung der Netzgebühren die kontinuierliche Güterproduktion in Deutschland benachteiligen und aus dem Land treiben. Ausführlich ist das in meinem letzten newsletter beschrieben worden.
Der eigentliche Skandal aber ist, dass diese Veränderung der Netzgebühren mit diesen weitreichenden Folgen nicht durch den Deutschen Bundestag diskutiert und entschieden wird. Diese intransparente Politik wurde schon einmal bei der Veränderung der Gasnetzgebühren praktiziert, die ab Januar 2025 erhöht werden können.

Zur Zerstörung der Gasnetze sollen die Bürger ab 2025 zur Kasse gebeten werden

Man mag es kaum glauben. Still und heimlich hat die Bundesnetzagentur unter der Führung des Grünen Klaus Müller beschlossen, dass die Gasnetzbetreiber ab 1.1.2025 die Gasnetzgebühren erhöhen können und zwar um satte 20 – 40 %. Der Grund ist hanebüchen. Die Bundesnetzagentur geht davon aus, dass ja durch das Klimaschutzgesetz ab 2045 in Deutschland kein CO2 mehr ausgestossen werden dürfe und somit ab 2045 auch keine Gasheizungen mehr betrieben werden dürfen und demzufolge bis 2045 die Gasnetze in Deutschland stillzulegen sind. Das sind nur noch zwanzig Jahre und daher sind viele Gasleitungen mit einer betriebswirtschaftlichen Lebensdauer von 50 Jahren im Jahre 2045 noch nicht voll abgeschrieben. Daher erlaubt die Bundesnetzagentur den Gasnetzbetreibern eine erhöhte Abschreibung bis zu 12 % und eine Verkürzung der Restabschreibungszeit auf 20 Jahre und weniger. Das führt zu einer Erhöhung der Abschreibungskosten, so dass selbst die Bundesnetzagentur von einer Erhöhung der Gasnetzgebühren von 20 % ausgeht, Experten rechnen mit bis zu 40 %. Weder das Parlament noch die Bürger sind gefragt worden, ob sie wirklich wollen, dass im Jahre 2045 alle Gasnetze in Deutschland stillgelegt oder herausgerissen worden sind. Wir reden über 550 000 km Gasleitungen in unseren Städten, Gemeinden und Landkreisen mit einem Wert von 270  Milliarden €.

Die Erhöhung kann man auch unter das Motto fassen: Wie verderben wir den Bürgern ihren Spass an der eigenen Gasheizung? In dem wir die Gasnutzung teuer machen, dann wird die ungeliebte Wärmepumpe doch noch akzeptiert. Noch in den letzten 10 Jahren stiegen die Investititonen für Gasleitungen insbesondere in den neuen Bundesländern von etwa 1 Milliarde € auf 1,5 Milliarden € pro Jahr und nun sollen auch diese funkelnagelneuen Leitungen in 20 Jahren verschrottet werden.
Ein ganz besonderes Schmankerl hat die Bundesnetzagentur für die Städte, die besonders grün sein wollten und sich ein früheres Ausstiegsdatum aus Öl, Gas und Kohle gewünscht haben. Städte, die bis 2035 aussteigen wollen, können die Bürger verstärkt bis 2035 mit einer höheren Gasnetzgebühr zur Kasse bitten. Das sind die Städte Augsburg, Stuttgart, Bonn, Oldenburg, Krefeld, München, Frankfurt, Dortmund, Dresden. Auch die Bürger von Mannheim, Münster und Aachen, die schon in fünf Jahren aussteigen wollen, kommen in den „Genuss“ der besonders starken Gebührenanhebung. Ab 15. Oktober 2024 dürfen die Gasnetzbetreiber ihre Anhebungen für 2025 bekannt geben.
Die Gasnetzentgelte betrugen 2023 durchschnittlich 1,89 €ct/kwh. Bei einer 20%-igen Erhöhung kommen auf Haushalte und Gewerbe (ohne Industrie), die 477 Milliarden kwh Gas verbrauchen, Kosten von zusätzlich 1,8 Milliarden € pro Jahr hinzu.
Viel bedeutsamer ist aber die Berücksichtigung der Kosten, die zum Ersatz des Gasnetzes durch ein Ausbau des Stromnetzes und der Endanwendungsgeräte entstehen. Es sind 268 Milliarden €, wie die VNG aus Leipzig, einer der grössten Gashändler Deutschlands in der Studie  „Der Wert der Gasinfrastruktur für die Energiewende“ berechnet hat.
Vor drei Jahren kündigte der geschasste Staatssekretär Graichen die Stilllegung der Gasleitungen an. Kaum jemand nahm diese Aussage ernst. In der Regierungszeit von SPD, Grünen und FDP ist die Idee umgesetzt worden.
Wie kommen wir aus dem Irrweg heraus ?
Eine neue Bundesregierung muss als erstes das CO2-Verminderungsziel für 2045 in Übereinstimmung mit dem Pariser Klimaabkommen neu definieren. Dort heisst es: „Die Vertragsparteien sind bestrebt… in der zweiten Hälfte dieses Jahrhunderts ein Gleichgewicht zwischen den anthropogenen Emissionen von Treibhausgasen aus Quellen und dem Abbau solcher Gase durch Senken … herzustellen ( Artikel 4 des Pariser Abkommens)
Erstens bedeutet „Die zweite Hälfte “ nicht 2045. Zweitens werden mittlerweile weltweit mehr als die Hälfte der jährlichen CO2-Emissionen von Pflanzen und Ozeanen (Senken im Pariser Abkommen) aufgenommen. Netto-Null heisst also allerhöchstens Halbierung der Emissionen. Und das kann man sogar dem Bundesverfassungsgericht vorrechnen. Damit werden viele der übergriffigen Verbote wie Heizungsverbot, Verbrennerverbot, Kraftwerksverbot obsolet.
Nur auf diesem Wege wird Deutschland eine gute Zukunft haben.



Teil 2: Die Bestimmung des globalen Meeresspiegels GMSL (Global Mean Sea Level)

Die Meeresspiegelangaben des IPCC, PIK etc. sind sowohl zeitlich als auch messtechnisch zu ungenau, um aus den beobachteten nur vage ermittelten Veränderungen (ca. 1 bis 2 mm/Jahr ), deren Abhängigkeit von der Globaltemperatur hinreichend klar zu bestimmen.

von Michael Limburg

4.2.4. Trendverläufe des relativen Meeresspiegels RSL anhand von Beispielen.

Im Folgenden werden einige Beispiele der so ermittelten RSL Zeitreihen gezeigt. Als Quelle diente die, von fast allen Autoren benutzte, Datenbank des (PMSL, Permanent Service for Mean Sea Level) des Proudman Oceanographic Laboratory in Liverpool [1]. Sie zeigen die großen Schwierigkeiten auf, aus den gesammelten, vielfach widersprüchlichen Beobachtungsdaten, ein einheitliches Bild zu formen.

 

Abbildung 51: linkes Bild monatlicher RSL von Brest Frankreich mit ca. 200 mm Anstieg in 2 Jahrhunderten, d.h. ca. 1 mm/Jahr (ebenfalls im IPCC TAR erwähnt.) Rechtes Bild: Aberdeen Schottland, ebenfalls mit langer Messdauer. Der Anstieg betrug von 1862 bis 1998 ca. 80 mm oder ca. 0,6 mm/Jahr.

Die Abbildung 51 zeigt die Trends von Brest und Aberdeen in Schottland. Obwohl beide Orte im Weltmaßstab dicht beieinander liegen, Brest am Atlantik, Aberdeen an der Nordsee, zeigen sie ganz erhebliche Unterschiede. Die Trends liegen jedoch immer noch deutlich unter dem IPCC Mittel von 1,7 mm/Jahr. Brest zeigt ca. 1 mm/Jahr und Aberdeen ca. 0,6 mm/Jahr. Höhere Trends zeigen die Messungen in den Niederlanden. Die Abbildung 52 zeigt das Beispiel von Hoek van Holland (mit kontinuierlicher Messung seit 1862). Dort beträgt der Trend + 2,4 mm/Jahr.

 

Abbildung 52[2]: Linkes Bild Monatliche RSL – Veränderung in Hoek van Holland mit einem Anstieg von ca. 2,4 mm/Jahr, rechtes

Bild: Eindeichung der Zuidersee in den Niederlanden als vermutete Hauptursache

Noch deutlicher wird diese Verschiedenheit am Beispiel von Stockholm an der Ostsee und Triest an der Adria. Städte, die eine lange Messdauer (> 50 Jahre) aufweisen, deren Binnenmeere aber nur über relativ enge Zuflüsse mit dem Atlantik verbunden sind. Sie zeigen klar gegenläufige Trends. Stockholm mit – 3,4mm/Jahr und Triest mit +1,26 mm/Jahr. Siehe auch Abbildung 53.

 

Abbildung 53: linkes Bild monatlicher RSL von Stockholm Schweden mit sehr langer Messdauer (1888 – 2008) und einem Abfall von 460 mm, d.h. ca. -3,4 mm/Jahr. Rechtes Bild Triest Italien, ebenfalls mit langer Messdauer. Der Anstieg betrug von 1905 bis 2008 ca. 130 mm oder ca. 1,26 mm/Jahr.

Besondere Aufmerksamkeit erfuhren in den letzten Jahren die Pegelveränderungen an den ca. 1200 Inseln umfassenden Malediven und auf der Insel Tuvalu im indischen Ozean. Weil diese Inseln so flach über dem Wasserspiegel liegen, wird befürchtet, dass sie als erste von der prognostizierten Erhöhung des GMSL betroffen sein würden. Diese Befürchtung konnte jedoch durch Messungen vor Ort nicht bestätigt werden, wie die Abbildung 54 des Pegels des Funafati Atolls in Tuvalu zeigt. Im Mittel kann man dort wohl eher eine leichte Absenkung erkennen, als eine Erhöhung.

 

Ein Bild, das Text, Schrift, Reihe, Handschrift enthält. Automatisch generierte Beschreibung Abbildung 54: Verlauf des RSL in Tuvalu für die Zeit

1978 bis 1998

Noch ausgeprägter ist dieser Sachverhalt bei der Inselgruppe der Malediven. Dies Inselgruppe besteht aus ca. 1200 Inseln und erstreckt sich über 8 Breitengrade von – 1° Süd bis + 7 ° Nord. Unter Leitung des Paleogeophysikers und Meeresspiegelexperten N.-A. Mörner, untersuchte die INQUA beginnend 1999 (Die INQUA Commission on Sea Level Changes and Coastal Evolution, umfasste zeitweise um die 300 Experten) die dortige Situation. Sie fanden, durch Vermessung und morphologische Untersuchungen, heraus, dass sich der dortige RSL in den letzen 30 (bis evtl.) 50 Jahren um 20 bis 30 cm (!) gesenkt hatte, obwohl vom IPCC (TAR 2001) das Gegenteil erwartet worden war. Mörner [Mörner, 2004]. führt diese überraschende Senkung auf zunehmende Verdunstung im indischen Ozean zurück. Eine neuerliche, ebenfalls von Mörner durchgeführte, Überprüfung der Pegeldaten fand außerdem für die Zeit von 1990 bis 2002 keinerlei Anzeichen für eine Veränderung auf den Malediven. Weder eine Erhöhung noch eine Absenkung. Dies läuft erneut den Prognosen des IPCC und anderer zuwider. Dem Ergebnis von Mörner widersprechen Church et. al [Church, 2006]. In ihrer Untersuchung gelangen sie zu einem Trend für 1950 bis 2001 von + 2 mm/Jahr (von 6 Pegelmessern: ursprüngliche 1,4 mm/Jahr wurden auf 2,0 mm/Jahr korrigiert), und sogar von + 4 mm/Jahr für die Region von 40°S to 40°N, 30°E to 120°W für die Zeit von 1993 – 2001.

Die Unterschiede der Ergebnisse beider Forscher machen einmal mehr deutlich, wie schwierig es ist, auf Grund weniger und unsicherer Daten, zu hinreichend genauen, übereinstimmenden Berechnungen lokaler RSL und noch mehr des GMSL, zu kommen. Für die Einordnung der Ergebnisse ist es evtl. hilfreich die Arbeitsweise beider Forscher(gruppen) zu vergleichen. Während Church et. al es vorziehen, die Daten der verwendeten Pegelstationen mathematisch, statistisch zu interpretieren, dann anhand von bestimmten Modellvorstellungen zu korrigieren, auch mit einer Korrektur des barometrischen Druckes[3], wie sie betonen, und daraus ihre korrigierten Trendberechnungen abschätzen, ordnet Mörner diese Datenreihen nur als eine von mehreren Eingangsgrößen ein [Mörner, 2008].[4] Er und seine Gruppe verwendeten viel Zeit und Aufwand für die Erfassung zusätzlicher Daten morphologischer, sedimentologischer, biologischer und historischer Art. Daraus, und aus den Pegelmessungen leitet sie ihre Schätzungen ab. In Anbetracht der guten naturwissenschaftlichen Tradition, Thesen und Theorien aus nachprüfbaren Beobachtungen zu entwickeln, sicher eine gute Entscheidung.

Unterstützt werden Mörners Beobachtungen durch den besonderen Fall der „Isle of Dead“ [Daly, 2000], einer Insel innerhalb des Hafens von Port Arthur (40 Meilen von Hobarth Town) Tasmanien. Hier fand man vor kurzem eine offizielle NN Einkerbung in einem Uferfelsen. Sie wurde nach Maßgabe der britischen Admiralität, zur Kennzeichnung des damaligen Nullpegels im Jahre 1841 erstellt und dort in den Granitfelsen eingekerbt. Ausführende waren der Amateurforscher und Ladenbesitzer Thomas Lempriere, sowie der britische Forscher Captain James Clark Ross. Sie hielt den mittleren Pegel jener Zeit fest. Derzeit befindet sich diese offizielle Marke ca. 35 cm über dem heutigen Pegel. Dieser Fund zeigt, dass sich der RSL dort seit dieser Zeit abgesenkt haben muss. Wie weit, und was zwischendurch geschah, haben Forscher inzwischen versucht zu klären. In Ihrem Bericht stellte Hunter et. al [Hunter, 2003] auf Grund dieses Fundes und nach Vergleich der Daten mit den Beobachtungen in Port Arthur von 1875-1905 und 1999-2002 fest, dass man insgesamt einen Anstieg des RSL von 0,8 ± 0,2 mm/Jahr ermitteln könne. Dieser wäre durch eine Volumenvergrößerung der Wassermenge der Ozeane von 1,0 ± 0,3 mm/Jahr für die gleiche Periode verursacht worden. Sie schrieben: „historic and modern records from Port Arthur, Tasmania, cover the longest time span of any sea level observations in the Southern Hemisphere and are related to a single benchmark,“ und weiter „they provide a significant contribution to our knowledge of past sea level rise in this data-sparse region.“ Und ferner „(they) are at the lower end of the recent estimate by the Intergovernmental Panel on Climate Change on global average rise for the 20th century.“. Es bleibt daher ungeklärt, warum der RSL dort, zur Zeit der Markierung, um ca. 35 cm höher lag als heute. Dem postulierten Anstieg, müsste doch zuvor eine deutliche Absenkung vorausgegangen sein. Weiterer Untersuchungsbedarf scheint gegeben.

4.3. Die wesentlichen Einflussgrößen für den Meeresspiegel.

Das IPCC hat stets dem Anstieg des GSML eine besondere Bedeutung zugemessen. In einer Grafik aus dem SPM wird für Nichtfachleute dargestellt, welchen prinzipiellen Einflüssen der GSML unterliegt.

 

Ein Bild, das Text, Screenshot, Wasser enthält. Automatisch generierte Beschreibung Abbildung 55: zeigt welche Ursachen nach Meinung des IPCC die Veränderungen beim GMSL bewirken. Von links nach rechts: Wasserspeicherung in Binnengewässern, Entnahme von Grundwasser und Einspeisung in

Aquifere, Absenkung in DeltaRegionen durch sedimentäre Kompaktion, tektonische Bewegungen, Änderungen der ozeanischen Zirkulation, Ausdehnung durch Erwärmung, Zufuhr von Wasser, das in Eisdecken und Gletschern gebunden war. Nicht erwähnt u.a.: postglaziale isostatische Hebungen (PGR/GIA), lokale anthropogen bedingte Absenkungen durch Auflasten (Städte, Piers).

Die Abbildung 55 zeigt einige, aber nicht alle, wesentlichen Einflüsse auf RSL und GMSL. Nicht erwähnt u.a. sind: postglaziale, isostatische Hebungen (PGR/GIA), lokale, anthropogen bedingte Absenkungen durch Auflasten (Städte, Piers).

Um die einzelnen Einflüsse ursächlich zu charakterisieren, wurden diese verschiedenen Größen von der Fachwelt verschiedenen Prozessen zugeordnet.

Diese haben: eustatische,  sterische und isostatische Auswirkungen.

Eustatisch nennt man die Einflüsse, die sich global auf den Meeresspiegel auswirken. Sie können einmal klimatische Ursachen haben, welche die Masse des ozeanischen Wassers beeinflussen, wie z.B. Eisschmelze und Niederschlag, zum anderen plattentektonische Ursachen, die eine Änderung der Form und damit des Aufnahmevolumens der Ozeanbecken bewirken. Plattentektonische Prozesse haben charakteristische Raten von einigen cm/Jahr.

Sterische Einflüsse sind diejenigen, die sich auf die Dichte und damit das Volumen des Wasserkörpers selbst auswirken, wie z.B. Temperatur und Salinität.

Isostatische Einflüsse sind diejenigen die sich aus Vertikal-Bewegungen von Landmassen, z.B. durch Be- und Entlastung von Inlandeis, ergeben (GIA/PGR Effekt). Sie haben keine Auswirkungen auf das Volumen des Wasserkörpers. Als Sonderfall werden häufig Krustenverschiebungen und andere tektonische Verschiebungen erwähnt. Auch sie haben bedeutende Auswirkungen auf RSL und somit GMSL.

Über die Ursachen von Meeresspiegelschwankungen findet sich in der Literatur[5] auch die Aufteilung in Klimatische Ursachen: glazio-eustatische Meeresspiegelschwankungen, die durch das Klima (also durch eine Veränderung des Meerwasservolumens) ausgelöst werden,

und

Tektonische Ursachen: tektono-eustatische Meeresspiegelschwankungen; deren Ursache in Erdkrustenbewegungen liegt, die eine Änderungen der Form von Ozeanbecken zur Folge haben.

Sie sind allerdings in der Praxis oft nur sehr schwer auseinander zu halten. Die zuvor definierten Ursachen beschreiben die Autoren der UNI Stuttgart wie folgt (auszugsweise):

Klimatische Ursachen: glazio-eustatische Meeresspiegelschwankungen

Schnelle Meeresspiegelschwankungen sind meistens glazio-eustatische Schwankungen; sie können Veränderungsraten bis zu 10 m pro 1 000 Jahren aufweisen und zeigen damit an, dass klimatische Systeme kollapsartig zusammenbrechen können. Die Steuerung solcher „hochfrequenten“ Meeresspiegelschwankungen im Bereich von Zyklen 5. Ordnung kann vielfältige Ursachen haben:

  • kurzfristige Änderungen der Solarkonstante (die am wenigsten wahrscheinliche Ursache);autozyklische Prozesse innerhalb der Hydrosphäre bzw. Wechselwirkungen zwischen Hydrosphäre, Kryosphäre und Atmosphäre;
  • Veränderungen der Erdbahnparameter (Zyklen >20000 und <400000 Jahre, so genannte Milankovitch-Zyklen, führt man auf solche astronomische Ursachen zurück;
  • Zwischenspeicherung von Wasser in großen Seen (die Triaszeit beispielsweise war eine Zeit gigantischer Seen).
  • Bei allen Zyklen höherer Ordnung (also >1 Million Jahre) sind andere als glazioeustatische Ursachen zunehmend stärker beteiligt.

Tektonische Ursachen: tektono-eustatische Meeresspiegelschwankungen

Formveränderungen von Ozeanbecken oder Änderungen im Schwimmgleichgewicht der Kontinente liegen plattentektonische Ursachen zugrunde. Sie haben ebenfalls Meeresspiegelschwankungen zur Folge. Diese „tektono-eustatischen“ Meeresspiegelschwankungen zeigen meistens Zyklen im Bereich der 2. bis 4. Ordnung.

Als Ursachen kommen in Frage:

  • Änderungen in der Neubildungsrate der Ozeankruste (Spreizungsrate der mittelozeanischer Rücken) unterliegen langfristigen Schwankungen zwischen den Extremwerten 0 und 20 cm pro Jahr; sie erzeugen Zyklen eustatischer Meeresspiegelschwankungen der 1. Ordnung.
  • Änderungen im Schwimmgleichgewicht der Kontinente können sich folgendermaßen ergeben:

o „passive“ Kontinentalränder, die mechanisch mit alter, kalter, und deshalb tief liegender Ozeankruste verbunden sind und randlich durch diese herabgezogen werden (Beispiel: die Kontinentalränder, die den Atlantik säumen). Die Absenkungsraten solcher passiven Kontinentalränder ändern sich reziprok zur

Spreizungsrate des zugehörigen mittelozeanischen Rückens; o durch Änderungen des Kraftschlusses zwischen verschluckter und überschobener Platte an so genannten konvergenten Plattenrändern (darunter versteht man alle Plattenränder, an denen sich Platten in der Vertikalen aneinander vorbeibewegen, also Inselbögen und aktive Kontinentalränder) o durch Änderungen der Einspannungsverhältnisse (z.B. konvergierende Stressfelder) können ganze Kontinente vorübergehend über ihre normale

Schwimmgleichgewichtsposition hinaus hochgehalten werden. Afrika beispielsweise ist ein Kontinent, der fast nur von Divergenzrändern (ozeanischen Spreizungszonen) umgeben ist; der ganze Kontinent liegt deshalb mehr als 100 m über seiner „normalen“ isostatischen Position.

Diese und andere tektonischen Ursachen führen nach heutigem Wissen zu horizontalen Plattenbewegungen [Monroe 2005] mit Geschwindigkeiten von bis zu > 15 cm/Jahr. Sie haben (allerdings weitgehend unbekannte) vertikale Komponenten und dürften daher einen wesentlichen, wenn nicht sogar dominanten, Anteil an den beobachteten RSL Veränderungen haben. Welche genau, ist aber (noch) nicht bekannt.

Zu den einzelnen o.a. Prozessen, in der Aufteilung, eustatisch, sterisch und isostatisch, wird im Folgenden ausführlicher Stellung genommen. Die entsprechenden geologischen Ursachen werden, soweit möglich und nötig, benannt und zugeordnet.

Wird fortgesetzt.

Diese ist ein Teil der Dissertation vom Autor, welche die Universität – nach Gerichtsentscheidung vom September 2011 als nicht eingereicht betrachtet hatte. Teil 1 finden sie hier

  1. http://www.pol.ac.uk/ Das PMSL zeigt sowohl die Rohdaten (metric files) als auch die REVISED LOCAL REFERENCE RLR Daten, die auf ein gemeinsames Referenzdatum bezogen sind. Soweit nicht anders angegeben, werden diese Daten gezeigt. Im Begleittext wird dazu erläutert: „The RLR datum at each station is defined to be approximately 7000mm below mean sea level, with this arbitrary choice made many years ago in order to avoid negative numbers in the resulting RLR monthly and annual mean values“.
  2. Die hier verwendeten Daten sind „Metric“ lt. PSML Klassifizierung, d.h. nicht der RLR Prozedur von -7000 mm- unterzogen. Sie sind jedoch auf den Amsterdamer Pegel bezogen, und können daher für die säkulare Differenzbetrachtung verwendet werden… „There are, however, some ‚Metric only‘ records which almost certainly can be used for time series work, even though the PSMSL does not have full benchmark datum histories. These include, in particular, all Netherlands ‚Metric‘ data, the records of which are expressed relative to the national level system Normaal Amsterdamsch Peil (NAP)“. (Quelle: http://www.pol.ac.uk/psmsl/datainfo/psmsl.hel)
  3. Weil die dafür benötigten Daten nicht als Mess-Protokolle vorlagen verwendeten sie die errechneten Modelldaten nach Kistler s (2004 ) NCEO-NCAR 50 „reanalysis“
  4. Auszug… where we realize that the tide gauges quite frequently are installed in unstable local position, and I quote (from Moerner et al., 2004): „Tide gauge records, however, do not provide simple and straight-forward measures of regional eustatic sea level. They are often (not to say usually) dominated by the effects of local compaction and local loading subsidence.
  5. Die folgenden Zitate sind dieser Website entnommen. Siehe z.B. Uni Stuttgart Geologie: http://www.geologie.unistuttgart.de/edu/msp/msp_pop2.html#