Walfänger-Gräber auf Spitzbergen beweisen: Im Mittelalter waren die Temperaturen deutlich höher als heute

Viele Medien wie auch ARD und ZDF bringen fast täglich irgendwelche Meldungen zu „KLIMA“ und Energie-Themen, die meistens im Tenor wie eine „Anklage gegen den menschgemachten Klimawandel“ rüberkommen sollen. Ständig werden Begriffe wie „Wärmster Winter aller Zeiten“ (Auch im ARD-Text) faktisch „gebrüllt“ damit ja auch der letzte Bürger/Zuschauer mitbekommen soll, daß hier sozusagen das „Extremste“ überhaupt, seit der Entstehung der Erde, gerade jetzt stattfinde und dies Alles auch noch nur allein durch den „bösen Mensch gemacht“ geschähe.

In diesem Kontext gab es in der ARD (Tagesschau/Tagesthemen) am 11. März 2020 einen Beitrag zur Bergung von einzelnen alten Särgen aus allmählich auftauendem Permafrostboden auf Spitzbergen. Spitzbergen ist eine zu Norwegen gehörende, kleine Inselgruppe im Nordmeer am Polarkreis, knapp unter dem 80. Breitengrad. Sie liegt etwa so hoch nördlich, wie der Nordteil von Grönland, im Nordpolarmeer. Dort wurden vor ca. 400 Jahren und davor, verstorbene und verunglückte Menschen bestattet. Dies übrigens in völlig normalen Holzsärgen und begraben in damals ganz normaler Erde dort auf Spitzbergen. Also absolut nichts mit Eis und Permafrost zu dieser Zeit. Damals war nämlich das ganze Erdklima um Einiges wärmer als heute und das auch noch lange vor jeder Industrialisierung. Damit werden all die heutigen Schlagzeilen mit „Wärmster Winter aller Zeiten“ und so, für die jetzige Zeitepoche, zu einer wirklich offensichtlichen blamablen und simplen Lügerei. Dies bewusst an den Fakten vorbei und  alles auch noch von immensen Steuergeldern/Forschungsgeldern finanziert, sowie solche einseitigen Senungen, bei ARD+ZDF, mit den GEZ-Zwangsgebühren zu bezahlen. Doch sehen Sie sich dazu bitte erst mal den wirklich kurzen ARD-TAGESTHEMEN-Filmbeitrag ab Minute 22:34 an:

Bei Interesse zu diesem Spitzbergen-Thema, können Sie gern auch diesen interessanten und recht neutralen Bericht lesen:

https://polarkreisportal.de/klimawandel-walfaenger-graeber-auf-spitzbergen-erodieren

Die aus vielen Nationen stammenden Walfänger, die vor ca. 400 Jahren, sowie davor und danach auf Spitzbergen waren, jagten vorrangig den Grönlandwal und mussten die Wale vor der Kenntnis und Perfektionierung der „Harpunenjagd“ zunächst meist per Treiben der Tiere mit Lärm und Erschrecken, an ein Insel-Ufer zum Stranden und Sterben bringen. Auch die  „Verarbeitung“ der so gestrandeten und getöteten Wale, erfolgte daher zunächst auf Inseln, wie Spitzbergen und Jan Mayen, direkt am jeweiligen Wal-Strandungsplatz. Dies war der Gewinn von „Blubber“ was ein damals sehr begehrtes Öl in Europa war. Zu dieser Zeit, also vor ca. 400 Jahren, war man dafür also auf Inseln wie Spitzbergen angewiesen. Erst in späteren Zeiten führten dann technische Fortschitte dazu, daß die erjagten Wale auf offener See mit Harpunen gejagt, anschließend auch direkt an Bord der Walfangschiffe zerlegt und verarbeitet werden konnten. Somit das Prozedere, was in Herman Melvilles Roman „Moby Dick“ so detailliert beschrieben wird und was so in dem Roman auch erst ca. 200 Jahre später, als die Bestattungen der aktuell auftauenden Gräber, auf Spitzbergen geschah.

Wen dies näher interessiert und auch welche Schäden diese damaligen Walfänge angerichtet haben, kann dies gern hier nachlesen:

http://www.oekosystem-erde.de/html/walfang.html

Gemäß einiger Quellen, gibt es auf Spitzbergen ca. 800 historische Gräber von Walfängern, die übrigens aus so ziemlich allen europäischen Nationen mit Küsten stammten. Damals wurden ja nicht nur diese Gräber für verstorbene und verunglückte Walfänger angelegt, es fand auch ein ganz normales sommerliches Arbeiten, Leben und Treiben auf Spitzbergen, Jan Mayen und Teilen von Grönland statt. In dieser Zeit, die sich vom Mittelalter in die „Frühe Neuzeit“ hinzog, war das „Mittelalterliche Optimum“ eine sehr warme Zeitepoche, viel wärmer als all die uns heute als Horror beschriebenen 1 1/2 – 2 Grad wärmeren Prognosen in der ganzen aktuellen „Klimapolitik“ und all dies lange vor jeder Industrialisierung und damit auch ohne irgendwelche „schuldige“ CO2-Konzentrationen. Somit eine „natürliche“ Erwärmung/Warmzeit ohne auch nur den geringsten „Schuldeffekt“ des Menschen dafür., der genauso „natürlich“ mit dem Beginn und den Temperaturstürzen der „Kleinen Eiszeit“ ab etwa Mitte des Dreißigjährigen Kriegs (1618-1648) endete.

Damit es wirklich jeder versteht. Auf Inseln wie Spitzbergen, gab es vor 400 Jahren keinerlei Permafrost, sondern nur in den Wintern Frost. Somit gab es in Spitzbergen und auch nebenan in Grönland, ganz normalen kargen Boden, in dem Särge mit den damaligen normalen Werkzeugen wie Schaufel und Hacke beerdigt werden konnten. Interessanterweise gibt es sogar eine mittelalterliche Karte von 1380, die in Italien gezeichnet wurde und nachweislich echt, also keine Fälschung ist, wo man sogar die Inlandsgebirge im Innern von Grönland passend abgebildet hat. In einer MITTELALTERLICHEN KARTE wohlgemerkt!

Dies ist um so bemerkenswerter, weil der moderne Mensch, erst ab dem Jahre 1959, als Ergebnis der damaligen Internationalen Grönlandexpedition EGIG, überhaupt die Existenz und Lage der grönländischen Inlands-Gebirgsketten unter dem grönländischen Inlandseis, per geophysikalischer Messungen beweisen und lokalisieren konnte. Im heutigen allmählich auftauenden Permafrost von Spitzbergen und auch den Küstenrändern von Grönland, gab es vor 400 Jahren in den Sommermonaten, völlig frostfreie und ganz normale Böden, in denen man die nun geborgenen Särge genauso wie im Binnen-Europa, bestatten konnte. Dazu ist für Grönlands Küstengebiete auch mittelalterlicher Ackerbau durch Wikinger überliefert und das Wort Grönland steht für „GRÜNLAND“ aus dem Norwegischen. Darüber hinaus wurden in Kanada bereits auf Neufundland, bisher zwei Wikingersiedlungen entdeckt, die nach deren Überlieferungen im „Vinland“ lagen, was „Weinland“ bedeutet und lange Zeit, nur als „unbewiesene Sagen“ galt.

Wer dazu weiß, wo heute die nördlichen Grenzen des Weinbaus liegen und dann erfährt, daß es im Mittelalter/Frühe-Neuzeit auch Weinbau bis hoch ins Baltikum gab, der staunt erst mal ungläubig. Im mittelalterlichen Norwegen etwa besaß der Erzbischof von Trondheim, dort seinen eigenen bischöflichen Weingarten am Bischofssitz. Wer sich das einmal ruhig überdenkt, der ahnt zumindest, um wieviel wärmer als heute, es damals auf diesem Planeten Erde war. Dies alles ohne menschliches Zutun und ohne all die Horrorszenarien des angeblichen Weltuntergangs der heutigen Zeit, falls es „menschgemacht“ um 2 Grad oder mehr, wärmer würde.

Wenn man sich nun nochmals all dies nur mal in Ruhe durch den Kopf gehen läßt und die „Panikmeldungen“ der Jetztzeit nüchterner überdenkt, bleibt zumindest Verwunderung und Rätselraten. Es gab tatsächlich und bewiesen, schon viel wärmere Zeiten auf der Erde, wie vor 400 Jahren und trotzdem ist der Planet damals nicht „gekippt“ und es kam damals trotz noch mehr Wärme als die ominösen „2 Grad mehr“ als heute, auch nicht zu einem Tier-Massensterben, nicht zu Küstenüberflutungen und all den Horrorszenarien, mit denen man das „Paris-Abkommen“ begründet hat. Warum war das damals eigentlich alles NICHT so aber käme HEUTE gemäß IPCC/PIK&Co. garantiert weltuntergangsmäßig auf uns zu? Dies alles durch eine angeblich „menschgemachte Klimaerwärmung“ durch den „Treibhauseffekt“, die übrigens entgegen aller Meldungen und IPCC-Berichte, leider wirklich noch immer NICHT wissenschaftlich bewiesen worden sind! Dies alles trotz schon irrsinnig hoher und hierzu verbratener Forschungsgelder in Milliardenhöhe überall! Seltsam ist da nur, dass keiner der unzähligen Journalisten und Reporter solche Fragen überhaupt stellt. Ist das jetzt nur scheinreligiöser „Klimaschutzglauben“ dieses Berufsstandes oder eher nüchtern ausgedrückt, nur allein die nackte Angst, sonst womöglich seinen Job zu verlieren?

Sie glauben das nicht? OK, dann meine Frage an die Leserinnen und Leser zum Beantworten unten in den Kommentarzeilen! WER als führender Spitzenwissenschaftler, hat denn bis heute, also März 2020 den „Treibhauseffekt“ und die „Schuld des Menschen“ konkret „wissenschaftlich bewiesen“ und dies dann in welcher konkreten Forschungsarbeit, bei welchem Wissenschafts-Institut bzw. Universität getätigt und WANN (Jahr/Monat) und WO (Forschungsstätte) erstmals veröffentlicht? Dazu natürlich wann der betreffende Forscher oder die Forscherin, für diese offenbar global immens wichtige „Erkenntnis mit Beweis“ dann logischerweise auch den dafür verdienten NOBELPREIS erhalten hat? Bitte nennen Sie mir diese Angaben im Kommentar dieses Beitrags und ich werde bei tatsächlichem Erfolg und Füllen einer Wissenslücke, dann darauf sofort Abbitte leisten und meine bisherige Unwissenheit darin entschuldigen.

Googeln hat dazu nämlich bisher keinerlei brauchbares Ergebnis gebracht! Gibt man bei Google „Treibhauseffekt „+“Beweis“ ein, dann liest man eher das Gegenteil aber keinen im Sinne des IPCC wirklich brauchbaren Funds. Dieser Artikel wird zu einem späteren Zeitpunkt hier, noch ein paar locker folgende eigene Ergänzungsartikel erhalten, in denen Sie lesen werden, dass bestimmte mittelalterliche Handels- und Pilgerwege über die Alpen, in der „Kleinen Eiszeit“ gemäß gefundener Aufzeichnungen von damals, ab ca. 1720 zunehmend vereisten („Kleine Eiszeit“) und damit nach Jahrhunderten der steten Nutzung durch die Menschen, dann völlig umpassierbar wurden.

Daß damals alpine Hochalmen vereisten und höchste Siedlungen aufgegeben werden mussten, was damit kurioserweise bereits damals sinngemäße „Klimaflüchtlinge“ ergab (also ab ca. 1720 !). Dies sind alles Dinge die die enorme Warmzeit des Mittelalters, zusätzlich zu den Särgen auf Spitzbergen unleugbar beweisen und belegen. Dazu sind es nun mal wirklich harte Tatsachen, die all die heutigen „klimapolitischen“ Aussagen, Behauptungen und Forderungen der Jetztzeit, als „Panikmache“ bloßstellen! Natur- und Umweltschutz, muss immer gern sein! Der Autor dieser Zeilen war einst selbst der zuständige Naturschutzreferent eines anerkannten Verbandes, für ein ganzes Bundesland. Das ist also das Normalste auf der Welt für verantwortungsbewusste Menschen. Doch „Klimaschutz“ ist da wie ein wohl gehütetes und ständig wiederholtes Hexenmärchen dagegen, wie eine Art „Ersatzreligion“ die das nüchterne eigene Denken der Bürger vernebelt.

Wie war das nochmal mit dem klassischen Zitat von Immanuel Kant, daß man den eigenen Verstand und das eigene Denken auch mutig nutzen solle, anstatt nur Anderen (Politik, IPCC, PIK, Wirtschaft, Verbände) das Denken und dies alles, viel zu gutgläubig zu überlassen?

 




Nicht nur Käse aus Holland: Wasserstoff

Der einzige und vermeintliche Vorteil einer solchen Technik ist, dass kein CO2beim Einsatz entsteht, was den geltenden Klimadogmen sehr entgegen kommt. CO2ist bekanntlich ein Molekül von ca. 0,1 mm Größe (Greta Thunberg kann, qualitätsjournalistisch bestätigt, CO2-Moleküle mit bloßem Auge sehen, was nach ophthalmologischen Erkenntnissen auf diese Größe schließen lässt), das bei zunehmender Konzentration in der Luft aufgrund der Zusammenstöße mit dem Kopf schwere Schädel-Hirn-Traumata auslösen kann, die sich in manischer Klimahysterie äußern.

Elementarer Wasserstoff hat allerdings den Nachteil, dass das nächste natürliche Vorkommen ca. 150 Millionen Kilometer oder 8,3 Lichtminuten entfernt ist und eine Temperatur von 5.500°C aufweist, was Gewinnung und Transport etwas problematisch machen. Wasserstoff muss folglich auf der Erde aus anderen Stoffen produziert werden.

Stand heute

Das und der technisch nicht gerade unheikle Umgang mit elementarem Wasserstoff haben seinen Einsatz bislang auf wenige industrielle Bereiche beschränkt, aber das soll ja anders werden. Man produziert ihn derzeit hauptsächlich durch thermische Formierung von Erdgas (Methan) mit Wasser oder partielle Oxidation von Erdgas, wobei Wasserstoff und CO2entstehen, alternativ auch durch Zersetzung von Methan im elektrischen Lichtbogen, wobei neben Wasserstoff elementarer Kohlenstoff anfällt. Da Erdgas bei unter 4 ct/kWh liegt, die Verluste erträglich sind und man bei den Produktionsprozessen bislang auf nichts Rücksicht nimmt, ist das ökonomisch in Ordnung. Aus klimadogmatischer Sicht müsste das CO2der ersten Verfahren abgeschieden und gelagert werden, was den Wirkungsgrad unter 50% treiben würde, und da der Kohlenstoff des letzten Verfahrens, in dem fast die Hälfte der Energie steckt, ebenfalls unbrauchbar wäre, landet man auch da bei der gleichen Wirkungsgradhausnummer. Zudem widerspricht der Einsatz von Erdgas Ressourcendogmen.

Wasserstoff aus Wind und Sonne

Dogmatisch korrekt und obendrein effizienter wäre eine komplett CO2-freie Produktion durch die Elektrolyse von Wasser, bei der immerhin ca. 85% der eingesetzten Energie im Wasserstoff landen würde. Dazu braucht man Strom. Den könnte man aus AKWs beziehen, Kosten z.Z. ca. 4 ct/kWh, langfristige Tendenz: abnehmend. Würde man das machen, wären bei einem Grundpreis von knapp 5 ct/kWh nachfolgende Verluste je nach Anwendung vermutlich kein großes Problem.

Will man aber nicht (Kein-AKW-Dogma). Es muss alles mit Windkraft oder Fotovoltaik gemacht werden, Kosten ca. 12 ct/kWh, Tendenz langfristig eher zunehmend. Da in Summe ohnehin nicht genügend Wind und Sonne zur Verfügung steht, zeitweise aber manchmal zu viel, will man diesen zeitweisen Überschuss für die Wasserstoffproduktion nutzen. So weit die offizielle Version, die bereits daran hapert, dass es nicht genügend Wind- und Sonnenstrom für alle Anwendungsgebiete gibt und geben wird. Aber das verschweigt man besser.

Die Niederländer wollen nun im Groninger Land einen neuen riesigen Windpark bauen. Der sollte zunächst soundsoviel Wohnungen versorgen können, falls der Wind weht, und ansonsten Wasserstoff produzieren. Inzwischen haben die Niederländer nachgerechnet: das mit den Wohnungen lohnt irgendwie nicht, also planen sie jetzt, nur Wasserstoff aus dem Windstrom zu produzieren. So um die 800.000 to/a sind geplant und irgendwie soll der Wasserstoff dann auch zu den Industrien an Rhein und Ruhr und zu Verbrauchern anderswo kommen. Die Niederländer meinen, das lohnt sich (für sie). Schauen wir uns das mal genauer an.

Ein paar Eckdaten

Im weiteren schauen wir auf ein paar Zahlen. Manche sind problemlos in Tabellenwerken zu finden, bei anderen ist das weniger einfach. Doch zunächst einmal zu den einfachen Sachen: Wasserstoff ist ja fürchterlich energiereich. Pro Kilogramm liegt er im Vergleich mit anderen Energieträgern deutlich an der Spitze, wobei wir hier die Verbrennungsenthalpie bei vollständiger Verbrennung betrachten.

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/kg 286.000 50.125 49.620 32.750

Diese Werte werden gerne verkauft, um dem Betrachter den Wasserstoff schmackhaft zu machen. Für den Transport ist aber das Volumen interessanter als das Gewicht, und da sieht die Bilanz für den Wasserstoff weniger brillant aus:

Energieinhalt Wasserstoff Methan Butan Kohle
kJ/m³ (Gas) 25.535 35.803 128.500 (~82*10⁶)
kJ/m³ (F) 20,2*10⁶ 21*10⁶ 28*10⁶ ~82*10⁶

Egal wie man es betrachtet, Steinkohle liegt volumenmäßig an der Spitze. Aufgelistet ist der Energieinhalt bei Normaldruck/Temperatur als Gas und sowie als Flüssiggas. Wenn man Gas komprimiert, liegt man irgendwo dazwischen. NPT-Wert * Druck in bar = Energieinhalt. Auch als Flüssiggas bringt Wasserstoff gerade einmal 70 kg/m³ auf die Waage und hat dann eine Temperatur von -252°C, die Alkane wiegen immerhin schon um die 500 kg/m³ (bei -160°C und 0°C), Kohle bei ca. 2,5 to. Solche Daten, die für den Transporteur interessanter sind, muss man allerdings selbst ausrechnen.

Die Frage wäre dann: Gas oder Flüssiggas? Die Russen liefern ihr Erdgas durch Röhren zu uns, die US-Amerikaner verflüssigen es und liefern es per Tanker. Ziemlich leicht lässt sich ermitteln, womit man bei Flüssiggas zu rechnen hat:

Verluste Wasserstoff Erdgas
Verflüssigung ≥35% ~12%
Lagerung pro Tag ~3% ~0,1%

Verflüssigung kostet recht viel Energie, was einer der Gründe ist, weshalb das US-Gas auch teurer ist als das russische, aber das nur nebenbei. Bei Erdgas (Siedepunkt -161°C) hält sich das trotzdem noch in Grenzen, Wasserstoff mit einem um fast 100°C niedrigeren Siedepunkt ist aber ein echtes Problem: In Houston eingeschifft wäre in Rotterdam weniger als die Hälfte übrig. Was für die Niederländer auch gelten würde, wie wir gleich sehen werden.

Die Logistik der Niederländer

Für die niederländische Wasserstoffproduktion kommt ein anderes Problem hinzu, das sie praktisch auf einen Stand mit Wasserstoff aus Houston setzen würde, würden sie auf Flüssigwasserstoff setzen: mit einem Atomkraftwerk könnte man den Wasserstoff „just-in-time“ in der Menge produzieren, in der er benötigt wird, die Niederländer müssen aber so produzieren, wie der Wind weht. Nimmt man Stromleistungen aus Wind und Leistungsbedarf der Kunden als Vorbild für eine Wasserstoffwirtschaft, bedeutet das über den Daumen gepeilt, dass von den 800.000 to/Jahr über den Daumen gepeilt ein Drittel bis zur Hälfte längere Zeit gelagert werden müsste. Nach Elektrolyse, Verflüssigung, Transport und Lagerung kämen noch bestenfalls 35% der Energie an, was mit allem Drumherum bereits zu einem Preis von knapp 50 ct/kWh ab Tank führen würde.

Das Mittel der Wahl ist somit der Transport von Wasserstoff als Gas durch Pipelines, weil die üblichen Druckgasflaschen mit 50 l Inhalt,  300 bar Fülldruck und 50 kg Gewicht wohl kaum  lukrativ sind. Auch in Pipelines muss das Gas allerdings komprimiert werden. Bei AKW-Wasserstoff käme man vermutlich mit den üblichen 16 bar aus. Bei den großen Mengen, die bei Windkraftproduktion zwischengespeichert werden müssten, müsste man aber auch Gaskavernen, in denen das Erdgas zwischengespeichert wird, einsetzen und bei höheren Drücken arbeiten. Wenn man Gas komprimiert, muss Volumenarbeit geleistet werden, außerdem erhitzt sich Gas bei Kompression. Da weder die Temperatur in den Leitungen/Speichern gehalten werden kann noch an der Verbraucherseite die mechanische Energie bei der Entspannung genutzt wird, handelt es sich um reine, bei größer werdendem Druck steigende Verluste. Die sind zwar nicht so spannend wie bei der Verflüssigung, aber bei ca. 80 bar bleiben ohne Berücksichtigung anderer Verluste wie beispielsweise Erzeugen und Halten des Kissendrucks in den Kavernen oder Druckerhöhungen in längeren Leitungen vom Windstrom noch ca. 60% übrig. Beim Verbraucher dürften also auch hier nur knapp über 50% ankommen.

Solche Zahlen sind übrigens schon nicht mehr ganz einfach zu ermitteln. Zum einen redet man ungern über Verluste, zum anderen werden alle möglichen Schönrechnungsfaktoren eingerechnet. Wir kommen später noch darauf zurück. Solche Transportverluste entstehen zwar auch beim Erdgas, aber beim Wind-Wasserstoff müssen wir mindestens vom 5-fachen des Grundpreises von Erdgas ausgehen und dieser Faktor findet sich in allen Zahlen wieder. Zudem spielen auch noch weitere individuelle Randbedingungen mit. Als Kunde ahnt man vermutlich so ganz langsam, wohin sich die Abrechnung für die Heizung bewegt, wenn statt Erdgas niederländischer Wasserstoff eingesetzt wird.

Power-2-Gas

Die Pipeline-Version hat allerdings die Nebenbedingung, dass man auch Pipelines zur Verfügung hat. Wenn genügend vorhanden sind, kann man Erdgaspipelines außer Betrieb nehmen und umwidmen, ansonsten müsste man neue bauen. Das Gleiche gilt für Speicherkavernen. Als Alternative zum Wasserstofftransport bietet sich Power-2-Gas an, wobei man den Wasserstoff gar nicht erst transportiert, sondern mit CO2zu Methan umwandelt. Da die Reaktion zwischen Wasserstoff und CO2in der Gesamtbilanz exotherm ist, sieht das gar nicht so schlecht aus, wenn man die Abwärme nutzen kann.

Hier dreht allerdings die Schönfärberei voll auf. Realistisch betrachtet kommen von der Windkraft vermutlich ca. 60% im Methan an, das dann dem normalen Erdgas untergemischt werden kann. Spezialisten rechnen das unter Hinzuziehen aller möglichen Nebenbedingungen und theoretischer Optionen auf Werte nahe 100% hoch, also Wind=Gas. Eine der Mogelpackungen, die drinstecken: Wo bekommt man das CO2her? Richtig, aus CO2-Abscheidung aus anderen Prozessen. Das kostet ebenfalls wieder Energie, die bezahlt werden muss, was letztlich auch den Preis für das künstliche Erdgas weiter aufbläht. Die Kreuz- und Querrechnung ist ohne viel Aufwand kaum zu durchschauen und ob wirklich alle theoretischen Effekte auch in der Praxis genutzt werden können, ist fraglich. Man liegt sicher nicht weit daneben, wenn man unterstellt, dass bei P2G in der Gesamtbilanz ungefähr 40% des primären Windstroms ankommen. Mit entsprechenden Auswirkungen auf die Preise.

Wasserstoffträger

Besonders im Zusammenhang mit dem immer mehr platzenden E-Mobilitätstraum werden dem Publikum gerne flüssige organische Wasserstoffträger verkauft (dass Wasserstoffgas an Tankstellen eine dumme Idee sein könnte, scheint selbst Grünen ohne Knallgasreaktion einzuleuchten). Der Wasserstoff wird hierbei bei erhöhten Temperaturen chemisch in ein Molekül eingebaut und aus diesem bei noch höheren Temperaturen wieder freigesetzt. Handelsüblich sind etwa 150°C und höherer für Schritt 1 sowie 300°C für Schritt 2, jeweils in Gegenwart bestimmter Katalysatoren. Schritt 1 ist exotherm, wobei man versuchen kann, die Verluste durch Nutzen der Abwärme zu minimieren, Schritt 2 endotherm, d.h. es muss auf jeden Fall Energie zugeführt werden. Es ist etwas schwierig, an Daten zu gelangen, aber Wirkungsgrade bis zu 70% scheinen halbwegs realistisch zu sein. Die Datenlage ist deshalb schwierig, weil die den Wasserstoff nutzenden Brennstoffzellen einen höheren Wirkungsgrad als Benzinmotoren aufweisen, was sich propagandistisch besser macht als die Einzelwerte. Vermutlich sieht die Gesamtbilanz ohne alles Schönen kaum anders aus als bei Benzin.

Wieviel Wasserstoff kommt dabei zusammen? Nehmen wir als Rechenbeispiel einmal Toluol (verwendet werden andere verwandte Verbindungen, aber Toluol, ein Benzolabkömmling, war mal ein Kandidat), das bei einer Molmasse von 92 g/mol insgesamt 3 mol = 6 g Wasserstoff reversibel binden kann. Pro Kubikmeter kann Toluol bei einer Dichte von 0,87 g/cm³ umgerechnet ca. 14 kg Wasserstoff speichern, was einem Energieinhalt von 4*10⁶ kJ entspricht. Das ist gerade einmal 1/5 dessen, was ein LNG-Erdgasfahrzeug im gleichen Volumen mit sich führt. Nicht gerade der Renner. Bei der Untersuchung anderer Möglichkeiten, Wasserstoff an irgendetwas zu binden, findet man kein wirklichen Unterschiede zu diesen Werten.

Zum Transport von Wasserstoff eignen sich organische Wasserstoffträger somit eher nicht, und auch für die Mobilität kommen neben dem relativ geringen Energieinhalt und der damit notwendigen Tankstellendichte andere Probleme hinzu. An der Tankstelle muss man erst die alte Flüssigkeit ablaufen lassen, bevor man den Tank neu füllen kann, und auch der Tankwagen fährt voll wieder zurück und nicht leer. Auch mit AKW-Wasserstoff stellt sich die Frage, ob das wirklich die Technik der Zukunft ist, mit dem Preisgefüge, das sich aus Windkraft-Wasserstoff ergibt, braucht man diese Frage allerdings gar nicht erst zu stellen.

Strom-Speicher

Die Gastechniken werden auch als Energiepuffer für windschwache Zeiten gehandelt, d.h. man macht aus dem Gas in einem Kraftwerk wieder Strom, wenn kein Wind weht. Wäre genügend Strom vorhanden, wären Gasspeicher als solche vermutlich im Gegensatz zu allen anderen Ideen tatsächlich skalierbar, d.h. man könnte möglicherweise genügend Kavernen als Puffer bauen. Dummerweise landen wir bei P-2-G-2-P bei Wirkungsgraden um die 30%, d.h. in Überschusszeiten muss der Wind 3 kWh Überschussstrom produzieren, um in Mangelzeiten 1 kWh wieder zurück gewinnen zu können. Wir können uns die weiter Diskussion vermutlich sparen.

Außer Spesen nichts gewesen

Wie schon erwähnt, war es teilweise nicht ganz einfach, realistische Zahlen aus dem üblichen Mogelwerk heraus zuziehen und ich erhebe keinen Anspruch, wirklich die letzten technischen Details berücksichtigt zu haben. Wer in den Zahlen einen Rechenfehler findet, darf ihn auch gerne behalten. Aber auch Korrekturen dürften die Bilanzen nur unwesentlich ändern. Technisch ist alles machbar, großenteils auch vom Standpunkt eines Ingenieurs hochinteressant, aber bezüglich der Dogmenbefriedigung, unter der alles firmiert, skaliert mal wieder nichts. Da die große Stromwende einschließlich der Elektromobilität aus einer ganzen Reihe von Gründen nicht funktioniert und das selbst dem grünen Ideologieapparat auffällt, verkauft man dem Volk nun die nächste Technik ausgerechnet auf Basis des Nichtfunktionierenden nach dem Motto „wenn etwas nicht funktioniert und obendrein zu teuer ist, propagiere ich eben etwas, was überhaupt nicht funktioniert und noch teurer ist“. Und keiner lacht.

 

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.

 

 




Liste der Wissenschaftler, die menschengemachten Klimawandel für Humbug halten

Der ein oder andere wird es mitbekommen haben: Wikipedia, dieses Mal en.wikipedia hat die Liste der Wissenschaftler, die dem “wissenschaflichen Konsens über globale Erwärmung” (List of scientists who disagree with the Scientific consensus on global warming) widersprechen, gelöscht. Die Klima-Mafia macht nicht einmal mehr den Versuch, die Zensur, das Umschreiben der Geschichte und das Fälschen von Daten zu kaschieren. Es wird alles ganz offen betrieben.

Das ist eine normale Entwicklung, denn Mitglieder von Kulten verlieren immer mehr Beziehung zur Realität, werden ihrer Sache, weil niemand widerspricht, immer sicherer und halten sich für unangreifbar. Douglas Pratt hat dieses Stadium als den Übergang vom passiven zum aktiven Fundamentalismus (und Terrorismus) beschrieben. Die schon zuvor vorhandene Unfähigkeit, von der eigenen Ansicht abweichende Meinungen auch nur zu akzeptieren, bricht sich nun als offen aggressives Verhalten Bahn, an dessen Endpunkt, je nach dem Widerstand, der für Fanatiker dieser Art natürlich vollkommen unerwartet kommt, oftmals Terrorismus steht. Zur Durchsetzung des eigenen Glaubens gegen rationale, kritische Zweifler ist jedes Mittel recht.

Die Hintergründe und der Werdegang des endgültigen Abschieds von Wikipedia aus dem Kreis der ernstzunehmenden Seiten, ist auf Elektroverse gut beschrieben. Wir wollen mit diesem Post dafür sorgen, dass die Liste der Wissenschaftler, die Rückgrat genug haben, um sich gegen Klima-Mafia und Irrationalität zu stellen, nicht in Vergessenheit gerät, und es der Klima-Mafia am Ende nicht noch gelingt, ihre Lüge vom angeblichen Konsens unter Wissenschaftlern über den Klimawandel durchzusetzen, weil es unmöglich geworden ist, im Internet und an sonstigen Stellen noch Spuren von denen, die diesen Wahnsinn mit rationalen Argumenten bekämpft haben, zu finden.

Wir haben daher die Liste, für die Wikipedia keine Verwendung mehr hat, gesichert. Es gibt sie hier als PDF.Wikipedia-List-of-Scientists

Ladet die Liste herunter, verbreitet die Liste, damit niemand sagen kann, er hätte noch nie davon gehört, dass Wissenschaftler dem Irrsinn des menschengemachten Klimawandels widersprochen hätten. Denn darin besteht offenkundig das Ziel der Klima-Mafia: Die falsche Behauptung vom angeblichen Konsens der Wissenschaftler zur religiösen Wahrheit aufzubauen, um ein perfektes Vehikel zu haben, Bürger zu erpressen und ihnen unter dem Vorwand “Klimaschutz” so viel abzupressen (Geld und Freiheit natürlich) wie möglich.

Die Benennung der Liste als “List of scientists who disagree with the Scientific consensus on global warming” zeigt übrigens schon, wie denkbehindert manche bei Wikipedia sind. Dass man kaum von einem “Konsensus” sprechen kann, wenn man eine Liste zusammenstellt, deren bloße Existenz gerade zeigt, dass es KEINEN Konsens gibt, sollte jedem, mit normalen Verstand Begabten eigentlich auffallen, ihm einsichtig sein. Dass es bei Wikipedia wohl niemandem aufgefallen ist, sagt eigentlich schon alles über die geistige Klarheit der dort versammelten.

Der Beitrag erschien zuerst bei ScienceFiles hier




Stromversorgung 2030

Lager B beruft sich dabei auf die Physik und wird angeführt von professionellen Leuten wie Hanns-Werner Sinn, dem ehemaligen Chef des IfO-Instituts, der seit 2012 bei jeder neuen Idee aufgrund durchaus mit normaler Schulbildung nachvollziehbaren Rechenmethoden vorrechnet, dass auch das nicht klappt.

Dazwischen steht die Gruppe der Politiker, Regierungen und Behörden mit der Behauptung „Wir haben alles durch gerechnet und es funktioniert!“, wobei sie allerdings auf genaueres Nachfragen keine Antwort geben oder sich notfalls auch für nicht zuständig erklären. Gruppe B bringt das in der Meinung, man müsse nur korrekte und prüfbare Informationen verbreiten und die Irrtümer aufklären, mehr oder weniger zur Verzweiflung, denn die von ihr gelieferten Fakten werden schlicht als Minderheitsmeinung abgetan. Grotesk: während eine Greta Thunberg auf einer Pressekonferenz der EU-Kommission herumtönt, „mit der Physik kann man nicht diskutieren“, wird hier genau das getan.

Aber ist die Politik wirklich einfach nur borniert und unbelehrbar? Treibt sie die Gesellschaft mit geschlossenen Augen trotz aller Warnungen in die Katastrophe eines totalen Blackouts, der selbst nach Gutachten des Bundestages das Ende der zivilisierten Gesellschaft bedeuten könnte? Oder stecken andere, noch perfidere Gedanken dahinter, die selbst Gruppe B nicht berücksichtigt? Schauen wir mal.

DIE WELT sprach mit dem Chef der Kohle-Sparte von E.on, Andreas Schierenbeck. Der sagt: „Der von der Bundesregierung beschlossene Kernkraft- und Kohleausstieg wird eine erhebliche Stromlücke zur Folge haben…Im Ergebnis schalten Sie große Kraftwerkskapazitäten ab, obwohl in Deutschland eine Stromlücke droht, wie Sie sagen…Einen Blackout kann sich bei uns in Deutschland keiner mehr vorstellen. Ich habe lange genug in den USA gelebt und weiß, was zwei Wochen Blackout bedeuten. / Link zum Fundstück

Das 65%-EE-Ziel 2030

Der EE-Ausbau ist am Limit. Immer mehr Bürger wehren sich gegen die weiteren Ausbau, weil sich allmählich auf dem Land die Einsicht breit macht, dass die Anlagen alles andere als umweltfreundlich und gesundheitsneutral sind. Wie weit die Politiker von der Realität entfernt sind, verrät ein Kommentar der Grünenpolitikerin Katharina Schulze, die auf einem Foto Windräder hinter einem Dorf für ein Fotomontage hält. Die Branche kriselt. In Sachsen wurden beispielsweise 2019 nur 12 neue Anlagen gebaut.

Das passt nicht in das politische Bild. Stellvertretend für andere Medien berichtet die Leipziger Volkszeitung am 27.2.2020, das nach Ansicht mehrerer Bundesminister die gerade eingeführte 1000m-Abstandsregel für Windkraftanlagen von Wohnsiedlungen in eine unverbindliche Empfehlung umgewandelt werden muss, da ansonsten das Ziel einer 65%-igen Versorgung aus EE im Jahr 2030 nicht umsetzbar ist. Am 7.3.2020 legt Sachsens Ministerpräsident Kretschmer (CDU) eben dort noch mal nach und fordert, die Instrumente, mit denen sich die Bürger heute erfolgreich gegen weitere Anlagen wehren (z.B. Umweltschutz, Verbandsklage), abzuschaffen, um nicht ständig durch Leute aufgehalten zu werden, die „damit eigentlich nichts zu schaffen haben“.

65% bedeutet aber mehr oder weniger eine Verdopplung der heutigen Anlagenzahl bis 2030, zumal zunehmend mehr windschwache Gebiete erschlossen werden müssen. Was ist an den 65% so bedeutend, dass den Betroffenen und ihren Vertretern die Rechte an der Mitwirkung entzogen werden sollen?

Der Energie-Monitoringbericht 2019

Eine Antwort erhält man aus dem Energie-Monitoring-Bericht 2019 des Bundeswirtschaftsministeriums, der die Versorgungssicherheit mit Strom bis zum Jahr 2030 behandelt. Erstaunlicherweise ist EE kein zentrales Thema, sondern wird nur am Rande erwähnt und mit einer bestimmten Versorgungskapazität als vorhanden vorausgesetzt.

Ein genanntes Ziel des Netzausbaus bis 2030 ist die Beseitigung der derzeitigen Stromüberproduktion und der damit verbundenen Stromexporte, die teilweise zu Negativpreisen stattfindet. Dass die Überproduktion ein Resultat der Unvereinbarkeit der volatilen EE mit den Großkraftwerken ist, die aus verschiedenen Gründen den Schwankungen der EE-Produktion nicht folgen können, wird nicht erwähnt. Es wird schlicht an der beschlossenen sukzessiven Abschaltung der Kraftwerke festgehalten, womit das Ziel erreicht wird.

Die durch die Abschaltungen entstehende Versorgungslücke soll durch den priorisierten Bau kleinerer Gaskraftwerke von 20 MW bis 250 MW abgefangen werden. Im Zusammenhang mit diesem Kraftwerksbau soll eine Dezentralisierung und Segmentierung der Netzstruktur erfolgen. Kleinkraftwerke dieser Größenordnung sind in der Lage, mit der Volatilität der EE Schritt zu halten, womit das Erreichen des No-Exportziels garantiert wäre.

Den Autoren ist allerdings klar, dass diese Umrüstung auf Kleinkraftwerke die bisherige 100%-Versorgung bei Dunkelflauten nicht übernehmen kann. Im Monitoringbericht wird die Stromversorgung 2030 daher als eine gesamteuropäische Aufgabe definiert. Länder mit einem temporärem Versorgungsengpass müssen aus anderen EU-Ländern mit dortigen temporären Überschüssen versorgt werden. Um 2030 eine 100%-Bedarfsdeckung erreichen zu können, wird eine Erhöhung der Kapazität der Übergabeleitungen zu anderen EU-Ländern auf 55% des Gesamtbedarfs vorgesehen. Anders ausgedrückt liegt die Eigenversorgungskapazität im Fall einer Dunkelflaute nur noch bei 45%. Und hier haben wir den Grund für die Wichtigkeit des Erreichens des 65%-Ziels bei den EE zu sehen: werden diese nicht erreicht, Erzeugung und Netz aber in der beschriebenen Weise umgebaut, kommt es zu einer mehr oder weniger permanenten Unterversorgung.

Die gesamteuropäische Lösung ist allerdings eine Mogelpackung. Der Bericht weist ausdrücklich darauf hin, dass jedes EU-Land einen solchen Monitoringbericht ohne zentrale Koordination oder Abgleich mit den Nachbarn für sich selbst erstellt. Nach den EU-Vorgaben marschieren die anderen EU-Länder aber in die gleiche Richtung und bauen ihre klassischen Kapazitäten ab. Hanns-Werner Sinn u.a. haben nachgewiesen, dass Dunkelflauten über mehrere Länder hinweg keineswegs eine Seltenheit sind, d.h. die Nachbarn können mit hoher Wahrscheinlichkeit bei einem Strommangel nicht liefern. Im Monitoringbericht wird darauf nicht eingegangen, aber die Möglichkeit angesprochen, dass Strom über sehr weite Strecken transportiert werden muss. Eine Betrachtung der Verluste, wenn nach diesem Modell Strom aus Spanien hier Lücken schließen soll, wird allerdings wieder ausdrücklich ausgeschlossen, ebenfalls der Fall, dass Frankreich den Strom ebenfalls benötigt und hier nichts ankommt.

Trotz dieser Verschleierungstaktik ist den Autoren anscheinend klar, dass eine zumindest zeitweise Unterversorgung nicht zu umgehen ist. Der Bericht sagt im Klartext, dass der heutige Anspruch auf eine (weitestgehend) störungsfreie Versorgung auf Dauer nicht aufrecht zu erhalten ist, d.h. es ist mit Stromausfällen zu rechnen. Wie diese aussehen werden, wird durch die technische Maßnahmen indirekt beschrieben: die Netzstruktur soll dezentralisiert und segmentiert werden, zudem soll durch technische Maßnahmen die Regelabweichung von der Netzfrequenz so erweitert werden, so dass Frequenzverluste, die heute zur Notabschaltung führen, noch problemlos verkraftet werden können. Für den Nichttechniker sieht das harmlos aus, für den Techniker ist allerdings klar: ein Blackout soll 2030 nicht mehr total sein, wie er es heute wäre, sondern sich technisch lokalisieren lassen.

Das ist ein zentraler Punkt der Mangelplanung, weshalb er genauer erläutert zu werden verdient: bisher schaltet sich bei einer Überlast im Netz meist ein Kraftwerk ab, das die Netzfrequenz nicht halten kann, was in einer Kaskade dazu führt, dass weitere Kraftwerke bei dem Versuch, die zusätzlich Last aufzufangen, ebenfalls abschalten mussten. Da Teilnetze meist nicht separat abgeschaltet werden können, sind Notabschaltungen infolge von Überlast daher oft sehr weiträumig, aber infolge der stabilen Netze auch äußerst selten (Ausfälle infolge von Leitungsstörungen sind oft begrenzter, aber ein anderes Problem; hier geht es um grundsätzliche Unterversorgung).

Die technische Beschreibung im Monitoringbericht ist zwar allgemein gehalten, legt aber den Schluss nahe, dass zukünftig ein versorgtes Netzsegment bei Bedarf abgeschaltet werden kann, bevor die Kraftwerke selbst abschalten müssen. Etwas salopp gesprochen fällt nicht in ganz NRW der Strom mitsamt den Kraftwerken aus, sondern gezielt nur in Köln, während der Rest weiter versorgt wird. Bleibt die Unterversorgung längere Zeit bestehen, besteht technisch die Möglichkeit, nach einigen Stunden Düsseldorf vom Netz zu trennen und dafür Köln wieder aufzuschalten. D.h. man versucht nicht, einen Blackout zu vermeiden, sondern ihn zu beherrschen.

Im Falle einer Dunkelflaute ohne Importmöglichkeiten wäre theoretisch so die Hälfte der Republik ohne Strom, aber ein allgemeiner Blackout würde vermieden werden können. Konkret: bei einer 4-Tage-Dunkelflaute wie im Januar 2020 müsste sich die Bevölkerung darauf einrichten, über diesen Zeitraum hinweg statistisch nur jeweils einen halben Tag mit Strom versorgt zu werden.

Ist das so geplant? Eine kontrollierte Unterversorgung? Zumindest gibt die technische Beschreibung im Monitoringbericht, auch wenn sie oft nur in Nebensätzen gehalten wird, diese Möglichkeit her. Dazu passt auch ein „Notfallkochbuch“, das ausgerechnet jetzt vom Bundesamt für Katastrophenschutz heraus gegeben wird und nur Sinn macht, wenn es tatsächlich zu häufigeren und längeren Stromausfällen kommt. Und es würde auch die Unbelehrbarkeit der Politik durch Gruppe B erklären.

Berichtslücken

War schon die fehlenden Abstimmung der EU-Länder bei der Erstellung ihrer Monitoringberichte eine gravierende Lücke, so gibt es im Bericht weitere, teilweise in dem sie erwähnt werden, teilweise indem sie eben nicht erwähnt werden.

So prognostiziert der Bericht einen Rückgang des Strombedarfs bis 2030 um satte 8%. Mit keinem Wort erwähnt wird die E-Mobilität, die alleine, würde sie bis 2030 in dem Maßstab greifen, den die Politik vorsieht, einen Mehrbedarf von ca. 20% bedeuten würde. Ist die E-Mobilität klammheimlich bereits abgeschrieben? Auch die derzeit hippe Wasserstofftechnologie, die ebenfalls einen größeren Bedarf an elektrischem Strom besitzt, taucht mit keinen Wort auf. Stromspeichertechniken, bislang in aller Politiker Munde, werden nirgendwo erwähnt. Erwähnt werden lediglich so genannte Sektorkopplungen, also Verknüpfungen mit anderen Technikbereichen, allerdings meist in allgemeiner Form als Einsparpotentiale. Das Problem daran ist allerdings, dass die meisten Sektorkopplungsprojekte nach deren speziellen Berichten darin bestehen, anstelle anderer Energieformen Strom einzusetzen. Also auch hier eher Mehr- als Minderbedarf.

Auf die Kosten wird ebenfalls nicht eingegangen. Die Stilllegung der funktionierenden Großkraftwerke, der Gaskraftwerksbau und der Netzumbau dürften zusammen mit dem weiteren Ausbau der EE dafür sorgen, dass sich die Strompreise bis 2030 nach heutiger Kaufkraft nahezu verdoppeln. Dass eine Wirtschaft bei derartigen Preisen und notorischer Unterversorgung nicht funktionieren kann, dürfte jedem klar sein. Ob damit hinter dem Monitoringbericht tatsächlich eine Vorstellung von einer funktionierenden Gesellschaft im Jahr 2030 steht, darf wohl bezweifelt werden. Mehr Licht auf diesen Aspekt wirft ein weiterer Bericht.

Die Digitalisierung

Der Digitalisierungsreport ist ein weiteres Papier aus dem BMWi. Durch Digitalisierung des Versorgungsnetzes sollen zukünftige Versorgungsprobleme gelöst werden – auch das ein Versprechen verschiedener Politiker.

Die bereits jetzt anlaufende Digitalisierung besteht für den Stromkunden in einer Umrüstung der vorhandenen Stromzähler durch elektronische Zähler. Diese sollen es ermöglichen, dass der Stromkunde dann seine Geräte einschaltet, wenn der Strom preislich günstig ist, womit im Grund ein schon älteres Prinzip aufgegriffen wird: per Impuls wurde früher vom teuren Tagstrom auf den billigeren Nachtstrom umgeschaltet und damit elektrische Nachtspeicheröfen aufgeheizt, die tagsüber die Wohnungen warm hielten. Elektronische Zähler können das natürlich viel feiner auflösen.

Wer genauer darüber nachdenkt, wird unschwer ein paar Pferdefüße finden. Einen Geschirrspüler mag man noch so programmieren können, dass er nachts um 3 Uhr sein Programm abspult, aber bei anderen Großverbrauchern wie Waschmaschinen wird das schon schwieriger, Gefriergeräte besitzen ohnehin keine Automatik, die einen (energetisch obendrein ungünstigen) Betrieb zwischen -30°C und -18° erlauben und beim Küchenherd hört es endgültig auf, sich an günstige Tarife halten zu wollen. Was steckt wirklich dahinter?

Eine Antwort liefert ein Blick auf die Kosten: die Umrüstung eines Hausanschlusses kostet nach Angaben der Verbraucherschutzorganisationen mehrere tausend Euro Umrüstungskosten, was nur zu rechtfertigen ist, wenn das neue Gerät nicht nur zählen, sondern gezielt auch Stromkreise im Haushalt ein- und ausschalten können soll. Im Klartext: nicht nur der Wohnungsinhaber kann nach Bedarf Geräte gezielt ein- und ausschalten, auch der Stromversorger kann das und bei einer Unterversorgung gezielt Stromkreise abkoppeln. Dazu muss aber der Sicherungskasten komplett neu verdrahtet werden und daher auch die Kosten.

Der Digitalisierungreport bleibt aber hier nicht stehen. Die Digitalisierung soll total sein und alle Lebensbereiche umfassen, in denen messbare Daten anfallen. Konkret in Bezug auf die Stromversorgung ist beispielsweise ein automatischer Abgleich mit der Zahlungsfähigkeit des Kunden denkbar. Diese Feinsteuerungsmöglichkeit über die Netzsegmente des Monitoringberichtes hinaus machen durchaus Sinn, kann doch im Endausbau der Versorger individuell entscheiden, wer noch Strom bekommt und wer nicht.

Fazit

Ist das der Plan? Ich kann das nur aus der Sicht des Ingenieurs beantworten, indem ich analysiere, was technisch und logisch einen Sinn ergibt. Das dabei irgendwelche wichtigen Informationen übersehen werden, ist eher unwahrscheinlich, da zu oft danach gefragt worden und keine Antwort gegeben worden ist. Auch aus den Formulierungen der Ingenieure, die solche Berichte schreiben, geht diese innere Logik hervor. Also ja, das ist der Plan.

Wird der so hart durchgezogen? Dazu kann ich natürlich wenig sagen. Die Entwicklungen sind möglich, aber die Leute dahinter werden sicher abwägen, was umsetzbar ist und was zumindest aufgeschoben werden muss.

Was ist der Master-Plan und wer steckt dahinter? Dazu weiß ich nichts zu sagen, da gibt es sicher andere Leute, die Netzwerke besser erkennen können. Sicher nicht alle, die heute vollmundig herumtönen, denn nicht wenige Politiker weisen den notwendigen intellektuellen Hintergrund nicht auf.

Im Gegensatz zur Befürchtung der Gruppe B hinsichtlich einer Unbelehrbarkeit wissen die entscheidenden Personen in der Politik sehr wohl, in welche Richtung der Zug fährt, zumindest was die Stromversorgung angeht. Und das ist einerseits nicht die Richtung, die Gruppe A vorgegaukelt wird, und andererseits zu bösartig, als dass Gruppe B so etwas in die Überlegungen einbeziehen möchte. Hier wird eine Kontrolle der Gesellschaft durch Beschneidung des Zugangs zu Energie geplant bis hin zu individuellen Maßnahmen. Die Implikationen müssen wohl kaum erläutert werden.

Über den Autor
Prof. Dr. Gilbert Brands hatte eine Professur an der FH Emden im FB Elektrotechnik + Informatik, Lehr- und Arbeitsgebiete Kryptologie, IT-Sicherheit, Programmierung, Mathematik, Quanteninformatik und anderes Hardcorezeug aus der Informatik. Davor selbständig, angefangen 1982 mit der Entwicklung eines Systems zur zeitgleichen Leistungserfassung für die RAG. Vom Studium her ist er Physikochemiker.




“Forschen in der Klimaküche” – Die ARD in intellektueller Eiszeit arktischen Ausmaßes

Seit dem 17. Dezember treibt das Schiff durch die Arktis. 672 Kilometer hat die Polarstern bis zum 27. Februar mehr oder minder Huckepack auf einer Eisscholle zurückgelegt, im Zick-Zack, so dass es in gerader Strecke nur 406 Kilometer sind. Es ist derzeit arschkalt in der Arktis: -38,2 Grad Celsius, nicht wirklich angenehme Arbeitstemperaturen. In all der Zeit ist die Polarstern dem Nordpol auf 156 Kilometer Entfernung nahe gekommen. Die Ingenieure, die sich an Bord befinden, haben auf dem Eis eine 900 Meter lange Landebahn angelegt. Warum: Es ist nicht nur saukalt, das Eis ist auch sehr dick. Um 10 Zentimeter pro Woche wird es dicker. Seit Dezember hat sich die Dicke des Eises nahezu verdoppelt: 1.60 Meter Eis sind es im Durchschnitt. Das hat die Kapitan Dranitsyn zu spüren bekommen. Der Eisbrecher hat die neue Crew zur Polarstern gebracht und Vorräte, dafür aber so lange ge- und so viel Treibstoff verbraucht, dass ein zweiter Eisbrecher der Kapitan Dranitsyn entgegen kommen muss, weil das Schiff nicht mehr genug Treibstoff für den Rückweg hat. Es ist eben richtig kalt in der Arktis.

Wie kalt es genau ist, das ist so eine Frage. Denn eines der interessantesten Ergebnisse, das die Forscher bislang gefunden haben: Man kann der Temperaturmessung nicht trauen. Über dem Eis ist es deutlich kälter als in 20 Metern Höhe, auf dem Schiff werden andere Temperaturen gemessen als mit einem Wetterballon. Der Unterschied zwischen den Messungen ist mit vier Grad Celsius nicht gerade gering, schon gar nicht, wenn man bedenkt, dass die derzeitige Temperaturanomalie, die angeblich eine Erderwärmung, die durch Menschen verursacht sein soll, darstellt, nicht einmal ein Grad Celsius ausmacht. Es könnte sich dabei um einen Messfehler handeln. Das jedenfalls legen die Ergebnisse von der Polarstern nahe. Die Forscher haben auch bereits einen Nachtspaziergang gemacht und kleine Uboote haben das Leben unter dem Eis erkundet. Eisbären und Polarfüchse finden sich in der Nachbarschaft und Robben unter dem Eis …

Ja, man hätte wirklich eine schöne und interessante Geschichte über die 70 Millionen Euro Steuergelder, die gerade in der Arktis ausgegeben werden, machen können. Keine der Informationen, die wir oben über das, was die Forscher der Polarstern so im Eis der Arktis treiben, zusammengestellt haben, stammt übrigens von der ARD-Tagesschau. Die meisten Informationen kommen vom “Maritime Executive“. Dort wird niemand von Gebührenzahlern ausgehalten, weshalb die Texte Informationen enthalten und unterhaltsam sein müssen, damit sie gelesen werden.

Der Text, den Kilian Pfeffer aus dem ARD-Hauptstadtstudio über die MOSAIC-Expedition der Polarstern zusammengepinselt hat, enthält keine einzige Information zum Forschungsaufenthalt. Der Text ist wie ein Räucherstäbchen, angezündet, um sich mit einem Geruchsschleier, der kurzzeitig das Interesse umstehender Nasen weckt, zu umgeben. Er verbreitet viel Rauch, enthält aber keinerlei Feuer.

Schon der Titel “Forschen in der Klimaküche” wirkt gequält, ist aber wohl dem politischen Auftraggeber des Textes geschuldet.

Gleich im ersten Satz des Textes gibt es das erste wissenschaftliche Ergebnis, vielleicht auch nicht: “Die Dunkelheit, das war die größte Herausforderung”. Ja. Im arktischen Winter ist es dunkel, weil so weit im Norden die Sonne nicht scheint und, es halt dunkel ist. Denn es gibt in der “Polarnacht kein natürliches Licht”. Gut, dass wir das nun wissen. “Dynamisch, fordernd und wunderschön”, so beschreibt “Julia Regnery vom Alfred-Wegner InstitutE ihren Aufenthalt in der Arktis. Ja. Man hätte auch progressiv, anstrengend und klasse sagen können. Der Gehalt wäre derselbe gewesen. Leerformeln, hinter denen sich alles und nichts verbergen kann. Erkenntnis aus der Arktis. Noch eine Erkenntnis: “wenn es unter minus dreißig Grad kalt ist”, dann dauert es bis zu 20 Minuten ehe der Schlitten oder das Schneemobil bereit ist. Kilian Pfeffer verwöhnt seine Leser wirklich mit umfänglichen wissenschaftlichen Erkenntnissen. In der Arktis ist es saukalt und deshalb muss man mehr anziehen, was mehr Zeit einnimmt, als weniger anzuziehen. Und deshalb dauert das. Was hätten wir nur ohne diese Arktisexpedition über die Schwierigkeiten der Vorbereitung bei Minustemperaturen gewusst. Nichts!

Und dann kommt das Unvermeidliche: Pfeffer muss sich mit der Wissenschaft am Aufenthaltsort abgeben. “Gewaltige Mengen Daten”, so verrät er seinen staunenden Leser, seien bereits gesammelt worden. Wozu? Welche Daten? Worüber? Pfeffer gibt dem dummen Leservolk keine Information. Es sind gewaltige Mengen, das muss für die Dummen reichen. So wie der Hinweis, dass die “gewaltigen Mengen”, von denen “Expeditionsleiter Rex” sagt, dass er keine Ahnung hat, ob sich der Aufwand mit den gewaltigen Mengen Daten lohnt, natürlich sagt er das nicht so, sondern in ein Gleichnis vom Uhrwerk verpackt, reichen muss, um die Hoffnung zu legitimieren, dass man ein “besseres, stabileres Klimamodell” entwickeln wolle.

Das derzeitige Klimamodell ist also nicht gut und nicht stabil – interessant.

Damit muss es sein Bewenden haben. Mehr verrät der Kilian Pfeffer den Lesern der Tagesschau nicht. Es reicht, wenn sie wissen, dass 70 Millionen Euro dafür ausgegeben werden, Licht in die arktische Dunkelheit zu bringen. Aber halt, die Mitte des Beitrags ist für den offenkundigen Auftraggeber des Beitrags ohne relevanten Inhalt reserviert. Dort findet sich Folgendes:


Quelle: Bjørn Christian Tørrissen

“Eine Summe von 70 Millionen Euro fließt aus dem Bundesforschungsministerium in dieses Projekt. Das ist es wert, meint Ministerin Anja Karliczek. “Wir wissen, dass der Einfluss der Eismassen in der Arktis auf das weltweite Klima gigantisch ist. Wir sagen immer so schön: Das ist die Klimaküche dort oben – und dass die Arktis sich erwärmt, und zwar doppelt so schnell wie der Rest der Erde. Das zeigt schon, wie groß die Dramatik ist und dass die Geschwindigkeit beispiellos ist.”

Falls Sie bislang noch nicht an der geistigen Klarheit deutscher Politdarsteller zweifeln, beginnen Sie umgehend damit. Die Arktis ist also die Klimaküche, die sich “doppelt so schnell wie der Rest der Erde erwärmt”, was zeigt, wie groß die Dramatik ist und dass die Geschwindigkeit beispiellos ist, die Geschwindigkeit der Dramatik oder die Geschwindigkeit der Eisschollen oder die der Köche in der Klimaküche. Niemand weiß worauf sich das Wortgestammel, das belegen soll, dass 70 Millionen Steuereuro nicht in den Sand gesetzt sind, beziehen soll, aber wir wissen nun, dass Ministerdarsteller Karliczek seine Informationen aus dem Spiegel bezieht.

Dort darf Anders Levermann schon 2017 ungestraft behaupten: “Die Arktis erwärmt sich doppelt so schnell wie der Rest des Planeten”, sagt Anders Levermann vom Potsdam-Institut für Klimafolgenforschung”. Das Potsdam-Institut für Klimafolgenforschung (PIK) lebt bekanntermaßen davon, einen menschengemachten Klimawandel herbeizureden und die Vertreter des Instituts reagieren neuerdings sehr empfindlich auf Kritik, die natürlich ungehörig ist, angesichts der Überzeugung der PIK-er, dass sie das Klima kontrollieren.

Die Belege dafür, dass die Arktis sich “doppelt so schnell wie der Rest des Planeten” erwärmt, bestehen im Wesentlichen darin, dass die mit Eis bedeckte Meeresfläche zurückgegangen sei und das Eis immer dünner werde und dunkles Wasser, das absorbiere Sonnenenergie und erwärme sich im Gegensatz zu Eis, das weiß sei und Sonne reflektiere, vor allem im arktischen Winter … ladiladilada.

Derzeit findet selbst der Ableger von NOAA, das National Snow and Ice Data Center an der University of Colarodo in Boulder in der Arktis so viel Eis, wie schon lange nicht mehr. Die folgende Abbildung stammt vom heutigen Tag und zeigt, dass derzeit mehr Meereseis in der Arktis zu finden ist, als in den Jahren 2018, 2016, 2014 usw. Die Ausdehnung des Meereseises ist größer als im Durchschnitt der Jahre 2001 bis 2010 und liegt ziemlich genau im Range des Durchschnittes für die Jahre 2011 bis 2019. Kurz: Falls sich die Arktis wirklich doppelt so schnell erwärmt wie der Rest des Planeten, dann führt diese Erwärmung dazu, dass es mehr Meereseis gibt.

Nicht nur das, die Erwärmung hat auch zum Ergebnis, dass die Dicke des Meereseises, wie oben auf Grundlage der nagelneuen Forschungsergebnisse von den Wissenschaftlern der Polarstern beschrieben wurde, pro Woche um 10 Zentimeter steigt, und darüber hinaus hat die doppelt so schnelle Erwärmung zum Ergebnis, dass die Eisdicke, wie sie Cryosat misst, seit Jahren weitgehend unverändert ist und in den letzten Jahren eher zunimmt als abnimmt.

Es ist dies die ulkigste Erwärmung, die uns je untergekommen ist. Aber in einem Zeitalter, in dem Irre zu Rechtsextremisten umetikettiert werden, oben unten und eins und eins Acht ergibt, ist das vermutlich nur ein neuer Kollateralschaden, der der Vernunft zugefügt wird, von Politdarstellern und ihren Medienkaspern die alle eines gemeinsam haben: Keine Ahnung.

Übrigens haben öffentlich-rechtliche Sender einen Bildungsauftrag. Das nur, damit es nicht vollständig in Vergessenheit gerät.

Der Beitrag erschien zuerst bei ScienceFiles hier