Geister-Wetterstationen in Großbritannien? Mehr als ein Drittel nicht existent

Der Journalist Ray Sanders behauptet, dass 103 der 302 Wetterstationen in Großbritannien nicht existieren. Die britische Wetterbehörde führt allerdings dennoch Daten von ihnen auf. In einem offenen Brief bittet Sanders den zuständigen Minister um Stellungnahme.

Von Maurice Forgeng

Die Basis aller Klimaprognosen sind mehr oder weniger langfristig dokumentierte Messwerte von Wetterstationen. Durch sie lassen sich vergangene Entwicklungen, aber auch mögliche Trends der zukünftigen lokalen Temperaturen ermitteln. In Summe der Daten von vielen Messstationen erstellen Meteorologen zudem nationale und internationale Trends.

Doch was ist, wenn viele dieser Grunddaten nicht stimmen – oder gar erfunden sind? Das behauptet der Journalist Ray Sanders zu den Messwerten in Großbritannien.

Seiner Recherche zufolge sollen 103 der insgesamt 302 Wettermessstationen im Vereinten Königreich überhaupt nicht existieren. Dennoch liefern sie offizielle Daten, die auf der Website der nationalen Wetterbehörde jedem zur Verfügung stehen.

Ein Bild, das Screenshot, Karte enthält. Automatisch generierte Beschreibung

Der britische Wetterdienst hat für Großbritannien 302 Standorte von Messstationen auf seiner Website aufgelistet. Foto: Bildschirmfoto/MET Office

Nach seiner Recherche teilte Sanders seine Erkenntnisse mit dem Abgeordneten Peter Kyle, Staatssekretär für Wissenschaft, Innovation und Technologie, und der Öffentlichkeit in einem offenen Brief.

Dungeness: Wetterstation am Kernkraftwerk?

Sanders spricht darin von „erheblichen Ungenauigkeiten und potenziellen Falschdarstellungen von harten Daten“, die die Wetterbehörde erstellt hat.

Als erstes konkretes Beispiel nennt der Journalist den Standort Dungeness. Dieser befindet sich südöstlich von London. Die Wetterbehörde gibt zu jedem der 302 aufgeführten Standorte von Messstationen die Standortkoordinaten ein. Laut den Lagedaten von Dungeness soll diese Wetterstation genau auf dem Komplex eines Kernkraftwerks sein.

Ein Bild, das Karte, Screenshot, Multimedia-Software, Grafiksoftware enthält. Automatisch generierte Beschreibung

Der angebliche Standort einer Wetterstation soll laut den Koordinaten des britischen Wetterdienstes auf dem Dach eines Kernkraftwerks sein. Foto: Bildschirmfoto Google Maps

Durchaus könnten die Koordinaten eine gewisse Ungenauigkeit enthalten. Die Wetterstation „Dungeness Power Station“ wird auch auf dem Portal „windfinder.com“ angezeigt. Demnach befände sich der Standort der Messstation rund 500 Meter westlicher als gemäß der Angabe der Wetterbehörde, direkt an einer Straße vor einem anderen Gebäude. Auch hier ist auf dem Luftbild weder an der Straße noch auf dem Gebäude eine Wetterstation zu erkennen.

Die britische Wetterbehörde listet auf ihrer Webseite jedoch gesammelte Wetterdaten von 1961 bis 2020 auf. Sanders schreibt in seinem offenen Brief:

Es gibt jedoch KEINE Wetterstation in Dungeness – sie wurde 1986 geschlossen, also vor 38 Jahren. In diesen letzten 38 Jahren gab es keine Beobachtungen, also wurden in Dungeness keine Daten aufgezeichnet. Alle Zahlen sind wissenschaftlich konstruiert.“

Die nächstgelegenen, in Betrieb befindlichen Wetterstationen der Wetterbehörde seien mehr als 40 Kilometer von Dungeness entfernt.

Sanders: Vier von acht Stationen in Kent nicht existent

Zudem erwähnte Sanders, dass er bei seiner Recherche mehrfach bei der Wetterbehörde angefragt hat, um genauere Informationen über die Wetterstationen zu bekommen. Er berichtete im offenen Brief: „Von den 302 genannten Standorten existieren über ein Drittel (103) NICHT. Das Met Office lehnte es ab, mir mitzuteilen, wie oder woher die angeblichen ‚Daten‘ für diese 103 nicht existierenden Standorte genau stammen.“

In seiner Heimatgrafschaft Kent bezeichnete Sanders neben Dungeness noch drei weitere Standorte als nicht existent. Diese seien Folkestone, Dover und Gillingham. Somit sollen in Kent bei vier von insgesamt acht Messstationen die Werte frei erfunden sein. Alle vier fragwürdigen Standorte „liefern unterschiedliche ‚Durchschnittswerte‘“.

Lesen Sie auch

Meteorologen: Nicht existierende Wetterstationen beeinflussen Klimapolitik

Hunderte Wetterstationen in den USA sind nicht mehr aktiv, liefern aber dennoch auf wundersame Weise Daten.

Der britische Blog „The Daily Sceptic“ bestätigte, dass keine dieser vier Stationen in der Liste der Standorte der Wetterbehörde mit einer Klassifizierung der Weltorganisation für Meteorologie (WMO) aufgeführt ist. Diesbezüglich erwähnte Sanders, dass die Wetterbehörde ihm mitteilte, ihre eigenen Überwachungsstandards für die Stationen zu verwenden. Allerdings habe sie nicht plausibel erklärt, warum sie die WMO-Standards außer Kraft setzt.

Sanders stellte in dem Brief die Frage: „Woher soll ein vernünftiger Beobachter wissen, dass die Daten nicht echt sind und einfach von einer Regierungsbehörde ‚erfunden‘ wurden?“

Standort Dover mitten am Strand

Ebenso fragwürdig ist die ebenfalls in der Grafschaft Kent befindliche Wetterstation in Dover. Die Standortangabe ist direkt am Strand, nur wenige Schritte vom Meer entfernt, wie das folgende Foto zeigt. Als Höhenlage ist auf der Seite der Wetterbehörde „null Meter über dem mittleren Meeresspiegel“ angegeben.

Ein Bild, das Wasser, Karte, Screenshot, Text enthält. Automatisch generierte Beschreibung

Der Strand von Dover. An der Markierung soll sich die Wetterstation befinden. Foto: Bildschirmfoto Google Maps

Es erscheint unwahrscheinlich, dass eine wissenschaftliche Organisation eine Wetter- und Temperaturmessstation an einem Ort aufstellt, der regelmäßig von einem temporär ansteigenden Meeresspiegel überflutet wird.

Des Weiteren erwähnte Sanders den Standort Lowestoft. Wenn man auf der Seite der Wetterbehörde hierzu auf „Daten anzeigen“ klickt, würden alle Zahlen ab 1914 mit einem Sternchen versehen. Dies weise darauf hin, dass es sich um „geschätzte“ Zahlen handelt. Doch auch diese Station ist bereits seit 14 Jahren geschlossen.

„Welche wissenschaftliche Organisation würde Zahlen über einen Zeitraum von mehr als 14 Jahren und länger ‚schätzen‘? Welchem wissenschaftlichen Zweck könnten solche ‚Schätzungen‘ dienen?“, fragte der Journalist daraufhin. „Durch Erfindungen kann kein wissenschaftlicher Zweck erfüllt werden.“

Ein Bild, das Gras, Ball, Kugel, Pflanze enthält. Automatisch generierte Beschreibung

Geisterstationen auch in den USA

Ungereimtheiten beim Sammeln von Wetterdaten gibt es jedoch nicht nur in Großbritannien. So haben bereits mehrere Forscher in den USA, darunter Meteorologen und Atmosphärenwissenschaftler, nachgewiesen, dass die offiziellen Temperaturmessungen mehrfach verfälscht werden.

Auch in den Vereinigten Staaten sammeln die zuständigen Behörden Messwerte für Wetterstationen, die schon seit Jahren oder Jahrzehnten außer Betrieb sind. Zudem finden in manchen Temperaturreihen regelmäßig Korrekturen statt. Dabei ist aufgefallen, dass ältere Temperaturwerte nahezu ausnahmslos kälter und jüngere Messungen wärmer gemacht worden sind. Somit entsteht deutlicher der Eindruck einer Erwärmung der Regionen.

An diesen Temperaturentwicklungen orientieren sich Politiker und große Organisationen. Diese Daten bilden die Grundlage für den sogenannten Klimaalarmismus, wobei angesehene Personen wie der Generalsekretär der Vereinten Nationen, António Guterres, beispielsweise von einem „Notruf“ sprechen, den die Erde aussende.

Der Beitrag erschien zuerst bei EPOCHTIMES hier

„Das ist kein Problem, sondern ein Segen“: Fachmann widerspricht UN-Alarmberichten

 




These: Ein steigender Kohlendioxidgehalt hat wahrscheinlich gar keine erwärmende Wirkung

Immer wieder werden wir von Lesern gebeten eigene Gedanken zum Thema Klima oder Energie zu veröffentlichen. Sind sie interessant dann tun wir das auch. D.h. aber nicht, dass wir mit dem Autor übereinstimmen, dagegen sind oder sonst irgendetwas. Im Folgenden ein Betrag von Andreas Becker.

 

Im Folgenden einige Gedanken und Beobachtungen zur Frage, ob der steigende CO2 – Gehalt der Atmosphäre global überhaupt eine erwärmende Wirkung entfalten kann.

Andreas Becker

An einer Tasse heißen Tees lassen sich einige Grundphänomene der Wärme beobachten. Die Tasse fühlt sich warm an. Der feste Stoff aus Keramik oder Glas nimmt durch Berührung die Wärme von der heißen Flüssigkeit auf und leitet sie nach außen an die umgebende Luft oder unsere Hand weiter. Wärme kann sich also durch ruhende feste Materie hindurchbewegen. Dabei fühlt sich eine Metalltasse heißer an als eine Keramik – oder Kunststofftasse, weil Metalle gute Wärmeleiter sind. Wenn der Tee noch sehr heiß ist, kann man die Wärme der Tasse auch spüren, ohne sie zu berühren. Diese Art der Wärmeübertragung wird als Wärmestrahlung bezeichnet. Genauere Beobachtungen zeigen, dass diese Strahlungswärme bei einer glänzenden Metalltasse nicht auftritt. Blanke Metallflächen sind schlechte Wärmestrahler; sie reflektieren dagegen die Wärmestrahlung der Umgebung. Richtet man einen Strahlungsthermometer gegen eine heiße Metalltasse, so zeigt er für viele überraschend die Temperatur des umgebenden Zimmers (also z.B. 20o C) an, die sich in der glänzenden Metallfläche spiegelt, obwohl die Tasse vielleicht 90o C warm ist.

Der heiße Tee zeigt besonders in einer schlanken und hohen Tasse eine deutliche Temperaturschichtung: ein Thermometer misst am Boden der Tasse (nicht rühren!) einige Grad weniger als im oberen Teil. Das ist eine allgemeine Erfahrung: Warmes Wasser steigt nach oben und kaltes sinkt nach unten. Nach diesem Prinzip lässt sich eine pumpenlose Schwerkraftheizung betreiben, in der die Wasserzirkulation in den Rohren allein durch diesen Dichteunterschied von warmem und kaltem Wasser aufrechterhalten wird.

Unmittelbar an der Teeoberfläche ist der Tee aber etwas kühler als direkt darunter. Dort findet eine intensive Wärmeübertragung durch Berührung mit der Zimmerluft statt, die sich, kaum erwärmt, nach oben bewegt und durch nachströmende kühlere Luft ersetzt wird. Diese Luftkühlung des Tees wird noch durch einen zweiten Vorgang kräftig verstärkt, nämlich die Verdunstung des Teewassers. Wer genau hinschaut, bemerkt, dass das verdunstete Wasser unmittelbar über der Oberfläche noch unsichtbar ist und erst kurz darüber durch Kondensation als nebelartiger Schleier sichtbar wird, der aufsteigt und sich nach einer kurzen Strecke wieder auflöst. Die zur Verdunstung notwendige Wärme wird dem Tee entzogen, wodurch er abkühlt. Die Verdunstungswärme ist im unsichtbaren Dampf enthalten und wird bei der Kondensation wieder frei. Wird die Hand unmittelbar über die heiße Teeoberfläche gehalten, kondensiert der Dampf teilweise in Form kleiner Tröpfchen auf der Haut und die dabei freiwerdende Kondensationswärme kann die Haut schmerzhaft überhitzen.

Alle diese Vorgänge haben den gleichen Antrieb, nämlich den Temperaturunterschied zwischen Teetasse und Umgebung. Hat sich der Tee abgekühlt, kommen alle Wärmebewegungsvorgänge zum Stillstand. Oder anders formuliert: die Wärme ist immer bestrebt, sich gleichmäßig auszubreiten. Dabei nimmt die Geschwindigkeit der Wärmeverteilung von Feststoffen über Flüssigkeiten zu den Gasen deutlich zu, allerdings nur, wenn die Gase nicht in kleinen unbeweglichen Portionen wie in Bekleidungsstoff oder lufthaltigen Baustoffen eingeschlossen sind, sondern frei zirkulieren können. Mit der Wärmeaufnahme reduziert sich auch die Gasdichte, so dass sich die wärmste Luft in einem Zimmer immer unter der Decke befindet, selbst in Räumen mit Fußbodenheizung. Dabei ist es unerheblich, wie groß oder hoch der Raum ist; der Effekt kann in kleinen Zimmern wie in hohen Kirchenräumen, Fabrikhallen, Viehställen oder auch in der Stuttgarter Oper wahrgenommen und gemessen werden. Ausnahmen sind blechgedeckte Hallen, in denen bei niedrigen Außentemperaturen die Luft direkt unter Decke etwas kühler als wenige Zentimeter darunter sein kann.

Möchte man, dass der Tee möglichst lang warm bleibt, sollte man die Tasse abdecken, wodurch die Verdunstungskühlung und die Konvektionskühlung durch vorbeistreichende Luft abgeschwächt werden. Außerdem wäre eine glasierte Leichtkeramik von Vorteil, die am besten innen und außen durch einen metallischen Überzug verspiegelt ist, so dass auch die Wärmeabstrahlung gebremst würde. Noch besser als eine schlecht leitende Keramik ist verdünnte Luft, was in Thermoskannen oder sogenannten Dewargefäßen dadurch erreicht wird, dass ein doppelwandiges Glasgefäß kunstvoll zwischen den beiden Glaswänden so weit wie möglich evakuiert wird. Diese Gefäße halten die Wärme sehr lange fest, da nur noch Wärme über den Verschluss und die Glasbrücke zwischen den beiden Glaswänden entweichen kann.

Wenn wir uns jetzt die Erde im All schwebend vorstellen, so bemerken wir, dass auch sie von einem noch viel dünneren Vakuum als in einer Thermoskanne umgeben ist, wodurch keine Wärme die Erde und ihre Atmosphäre auf dem Weg über die Konvektion verlassen kann. So ist also die Atmosphäre oben von der besten Isolation abgeschlossen, die es gibt. Da kann man sich schon wundern, warum die Luft in der freien Atmosphäre nach oben immer kälter anstatt wärmer wird, wie eigentlich zu erwarten wäre. Als Begründung für dieses paradoxe Phänomen liest man oft, dass sich die warme Luft beim Aufsteigen durch Ausdehnung abkühlen würde und darum oben kälter ankäme als sie unten gestartet wäre, und zwar um etwa 0,6° Celsius pro 100 Meter Höhenzunahme. Wenn das zuträfe, müsste dieser Effekt auch schon in einer 40 Meter hohen Halle mit einem Viertel Grad Abkühlung zu messen sein. Diese Begründung übersieht, dass sich Luft beim Ausdehnen in ein Vakuum nicht abkühlt, wie schon Gay-Lussac vor über 200 Jahren experimentell zeigen konnte. Die Abkühlung tritt nur ein, wenn die sich ausdehnende Luft gegen einen äußeren Druck „arbeiten“ muss, was ja in der Atmosphäre gegeben ist. Diese Arbeit geht aber nicht verloren, sondern wird an der umgebenden Luft verrichtet, die sich im gleichen Maß erwärmt, wie sich die aufsteigende Luft abkühlt. (Anmerkung der Redaktion: Berechnung absoluter Temperaturen mit dem konvektiv-adiabatischen Modell nach Maxwell, Poisson, Thomson und Schwarzschild, hier Vortrag EIKE - Temperaturberechnungen mit dem konvektiv-adiabatische Modell 20211114) Es werden also fortwährend durch aufsteigende Luft und Kondensationsvorgänge große Wärmemengen von der durch die Sonne aufgeheizten Erdoberfläche in die Atmosphäre geleitet, wo sie aber anders als in einem abgeschlossenen Raum zu keiner vergleichbaren stabilen Temperaturschichtung mit in der Höhe zunehmenden Temperaturen führen, obwohl die Atmosphäre von oben hervorragend isoliert ist. Woran liegt das?

Es gibt in der Höhe einen sehr leistungsfähigen Kühlmechanismus, durch den die Luft riesige Wärmemengen in das All abgibt, und zwar durch die Strahlungskühlung der strahlungsaktiven Gase CO2, Methan und N2O. Diese sogenannten IR-aktiven Gase (IR=Infrarot), denen man den irreführenden Namen „Treibhausgase“ gegeben hat, sind im gleichen Maße Strahlungsabsorber wie auch Emittenten. Eigentlich müsste man den Wasserdampf noch dazuzählen, der aber in den Luftschichten oberhalb der Troposphäre kaum noch vorhanden ist. Die Hauptbestandteile der Luft sind Stickstoff, Sauerstoff und Argon, und keines dieser Gase kann Wärmestrahlung aufnehmen oder abgeben. Anders formuliert: Ohne CO2 in der Atmosphäre würde sie nach oben immer wärmer und wäre auch am Boden deutlich wärmer als heute. Nur die Erdoberfläche könnte dann Wärme in das All abstrahlen und eine direkte Strahlungskühlung der oberen Atmosphäre wäre dann nicht möglich.

In den letzten Jahrzehnten machen sich viele Menschen Sorgen über die Frage, wie sich ein steigender CO2 Gehalt der Atmosphäre auf das „Weltklima“ auswirkt. Nach diesen Überlegungen müsste einerseits mehr Wärme in den unteren Schichten durch CO2 aufgenommen werden und andererseits mehr Wärme aus den oberen Schichten in das All gestrahlt werden, was sich in einem steileren Temperaturgefälle auswirken sollte. Welcher Effekt überwiegt, ist nicht einfach zu entscheiden und ähnelt ein bisschen der Frage, ob es nachts in einer nebligen Stadt heller oder dunkler wird, wenn der Nebel dichter wird. Wahrscheinlich heben sie sich gegenseitig auf. Dafür sprechen u.a. drei Phänomene und eine theoretische Überlegung:

  1. In den Ozeanen ist die 50fache Menge des atmosphärischen Kohlendioxids gelöst. Die Löslichkeit von CO2 im Wasser nimmt mit zunehmender Temperatur ab. Würden sich die Ozeane erwärmen, würde also ein Teil des gelösten Kohlendioxids ausgasen und die Konzentration des atmosphärischen CO2 s erhöhen. Hätte dies eine erwärmende Wirkung, würde diese positive Rückkopplung noch mehr Kohlendioxid aus den Ozeanen in die Atmosphäre treiben, und so weiter. Dieser Prozess würde sich selbst verstärken und eine galoppierende Erderwärmung verursachen. Das scheint sich aber weder gegenwärtig noch in der Vergangenheit zu ereignen bzw. ereignet zu haben.
  2. In den letzten 70 Jahren sind steigende CO2-Gehalte der Atmosphäre mit über Jahrzehnte steigenden oder fallenden Temperaturen korreliert. Das spricht eher für eine ausgleichende Wirkung der wärmenden und kühlenden Effekte des Kohlendioxids
  3. Im Obstbau sind die sogenannten Strahlungsnächte im Frühjahr gefürchtet, wenn die Obstbäume blühen und keine Wolken die nächtliche Wärmeabstrahlung der Erdoberfläche und der Blüten bremsen. Es gibt seit Jahrzehnten experimentell ermittelte Abkühlungstabellen, aus denen sich in Abhängigkeit der jeweiligen Luftfeuchte und Temperatur der Zeitpunkt des nächtlichen Frostbeginns ermitteln lässt. Laut einer persönlichen Mitteilung des Leiters des Stuttgarter Wetteramts haben sich diese Abkühlungsraten über die letzten dreißig Jahre nicht geändert, obwohl der deutlich gestiegene Kohlendioxidgehalt der Atmosphäre die nächtliche Abkühlung verlangsamen sollte. Wahrscheinlich ist auch hier, dass sich kühlende und erwärmende Wirkung aufheben. Ich konfrontierte den zuständigen Strahlungsmeteorologen vom MPI Potsdam mit diesem Phänomen, der mir dann zur Antwort gab, dass die sogenannte atmosphärische Gegenstrahlung der trockenen Luft sich über die letzten 150 Jahre um zwei Watt pro Quadratmeter erhöht hätte, bei einer mittleren Strahlungsleistung der Atmosphäre von 350 Watt/m2, also einem halben Prozent. Diese Angabe ist eine Schätzung, da für die Messung dieser Strahlung erst vor 70 Jahren die ersten Messgeräte entwickelt wurden.

Auch das spricht dafür, dass Änderungen des atmosphärischen CO2– Gehalts unterm Strich keinen wesentlichen Einfluss auf das Klima haben, eben weil sich erwärmende und abkühlende Wirkung gegenseitig aufheben.

  1. Die Dichte der Luft nimmt mit der Höhe ab und damit auch die Dichte von CO2. Die raumbezogene Absorbtionsleistung von CO2 nimmt ebenfalls mit der Höhe ab und genauso verhält es sich mit der raumbezogenen Strahlungsleistung. Die Absorbtionsleistung von CO2 nimmt also entlang der nach unten gerichteten Strahlung zu, während die unteren Schichten stärker nach oben strahlen können. Das gilt auf jeder betrachteten Höhenstufe, da der Dichtegradient auf allen Höhenstufen gleichgerichtet ist. Dieser Effekt führt dazu, dass das atmosphärische CO2 wie ein Strahlungsventil wirkt, das die Wärmestrahlung im Saldo nur nach oben durchlässt. Dieser Gradient bewirkt wahrscheinlich auch, dass die Konzentrationserhöhungen der letzten Jahrzehnte keine messbare Verstärkung der atmosphärischen Gegenstrahlung bewirken konnten.

Zusammengefasst ist es also denkbar, dass ein veränderter CO2 – Gehalt der Atmosphäre keine messbaren Temperaturveränderungen bewirkt. Das stärkste Indiz für die Gültigkeit dieser Annahme sind die unveränderten Abkühlungsraten in sogenannten Strahlungsnächsten, obwohl nach der gängigen Theorie die atmosphärische Gegenstrahlung durch den gestiegenen CO2 – Gehalt zugenommen haben müsste.

 




Deutscher Windstrom verstopft die Übergänge

Klagen französischer Experten

Edgar L. Gärtner

In Frankreich erzeugt inzwischen nicht nur die Tatsache Unmut, dass die teuren deutschen Gaskraftwerke aufgrund des europäischen Merit-Order-Systems indirekt auch in Frankreich die Strompreise bestimmen, sondern auch die Verstopfung der Übergänge zwischen den nationalen Übertragungsnetzen durch Windstrom aus der norddeutschen Tiefebene. Das vermindert die Versorgungssicherheit und führt zu steigenden Kosten.

Im Grünen Weltbild der Promotoren gelten Wind- und Solarstrom als „lokale Energien“. In Wirklichkeit fließen zwei Drittel dieser dezentral erzeugten Elektrizität über zentrale Transportnetze, weil der Strom nicht die geringste Entfernung, sondern den Weg des geringsten Widerstandes bzw. der niedrigsten Netzfrequenz wählt. So fließt die mithilfe von Windkraftwerken in der Norddeutschen Tiefebene, der Nordsee und in Skandinavien erzeugte Elektrizität zum großen Teil nicht direkt zu den stromhungrigen Industrien Süddeutschlands, sondern über die Niederlande, Polen, Tschechien, Österreich, Belgien oder Frankreich. Die zwischenstaatlichen Kopplungen zwischen den nationalen Stromnetzen werden, wie die in der Entsoe zusammengeschlossenen europäischen Netzbetreiber beklagen, bis zu 50 Prozent von diesen „Loop flows“ in Beschlag genommen. Diese gelten als blinde Passagiere, weil deren Kosten bislang in den Stromtarifen nicht berücksichtigt werden. Die bestehenden Abkommen verlangen hingegen, dass die Kapazität der Netzkopplungsstellen zu 70 Prozent für den internationalen Austausch von Elektrizität nach marktwirtschaftlichen Grundsätzen zur Verfügung steht.

Die französischen Experten Jean-Pierre Riou und Michel Gay beklagen, dass am 4. April 2022, als es für die Jahreszeit zu kalt war und die Elektroheizungen in Frankreich auf Hochtouren liefen, die französischen Kernreaktoren aber zu einem großen Teil wegen Reparatur oder Revision noch stillstanden, der Strompreis in Frankreich zwischen 7 und 9 Uhr morgens die schwindelerregende Höhe von 2987 €/MWh erklomm. Die Koppelstellen zwischen dem französischen und dem deutschen Stromnetz konnten damals die ihnen zugedachte Rolle der Preisdämpfung durch Elektrizitäts-Importe nicht spielen, weil starker Wind in der norddeutschen Tiefebene zu einem Windstrom-Überschuss führte, der über die Nachbarländer Richtung Süddeutschland floss und dadurch die Koppelstellen blockierte.

Jean-Pierre Riou und Michel Gay schließen sich dem offiziellen Think Tank „France Stratégie“, der französischen Energieregulierungskommission (CRE) sowie der Agentur für die Zusammenarbeit der Energie-Regulatoren (ACER) an, die sich schon 2015 darüber beschwerten, dass die „Loop Flows“ nicht honoriert bzw. die Transitländer nicht für die Verstopfung der Übergänge entschädigt werden. In ihrem Rapport vom Juni 2022 weist die CRE auf die enge Korrelation zwischen der Höhe der deutschen Windstrom-Produktion und der schrumpfenden Kapazität der Netzkopplungs-Stellen hin. Der geschilderte Engpass am 4. April 2022 gilt deshalb bei französischen Fachleuten als Hinweis auf grundlegende Fehler der deutschen Energiepolitik. Die Energie-Experten können sich auf den Bericht des deutschen Bundesrechnungshofes vom 7. März 2024 berufen, wenn sie die Aufspaltung des deutschen Elektrizitätsmarktes in zwei getrennte Tarifzonen anregen. Dann würden die Kosten der „Loop Flows“ berücksichtigt. Deutschland wäre gezwungen, seine eigenen Netze zu verstärken, um diese Kosten zu senken.

Im zitierten Bericht weist der Bundesrechnungshof darauf hin, dass in Deutschland 6.000 Kilometer Leitungen zum Abtransport „erneuerbarer“ Energien fehlen und zitiert die Bundesnetzagentur, die den Investitionsbedarf des Ausbaus der Transportnetze bis zum Jahre 2045 auf nicht weniger auf 460 Milliarden Euro schätzt. Hinzu kommen schätzungsweise 150 bis 250 Milliarden Euro für den Ausbau der Verteilernetze. Ganz zu schweigen von den wachsenden Kosten des Stromnetz-Managements, die schon im Jahre 2028 6,5 Milliarden Euro jährlich erreichen können. Ohne dabei allzu deutlich zu werden, kritisiert der Bundesrechnungshof auch die unzureichende Kapazität regelbarer Grundlast- bzw. Backup-Kraftwerke in Deutschland.

So wird verständlich, warum sich immer mehr Franzosen darüber aufregen, dass die deutsche Politik mithilfe ihres Einflusses auf die Instanzen der EU das illusorische Modell der deutschen „Energiewende“ ganz Europa aufzudrücken versucht. Die alte EU-Kommission hat nach hartem Ringen die Kernenergie, die je Kilowattstunde 4 Gramm CO2 erzeugt, zusammen mit Gaskraftwerken, die 400 g/kWh erzeugen, als „Übergangsenergien“ in Richtung auf „Net Zero“ eingestuft. Das ist postmoderne Arithmetik. Da sich der Bau neuer Gaskraftwerke, die zudem auch mit reinem Wasserstoff betrieben werden sollen, in Deutschland ohne massive Subventionen nicht lohnt, hat die Berliner Ampelregierung bzw. ihr grüner Vizekanzler Robert Habeck Anfang Oktober 2023 den Weiterbetrieb alter „schmutziger“ Braunkohlekraftwerke erlaubt. Der Betrieb stromfressender Wärmepumpen, die Habeck den Deutschen verordnet, wäre nach der Stilllegung der letzten deutschen Kernkraftwerke anders gar nicht vorstellbar.

 




Unser Müll: Die Plastiklüge – Klimawissen – kurz & bündig, Zuschauerzuschriften

 

 

 @EikeKlimaEnergie  Ich habe da auch eine eigene kleine Story.

Wir haben an neuen Biokunststoffen geforscht. Nach außen wurde immer von „Nachhaltigkeit“ und „Ressourcenschonung“ fabuliert (Plastik aus nachwachsenden Rohstoffen, anstatt aus Öl). Insbesondere wenn mal ein hoher Beamter oder Politiker zu Besuch kam und es um die nächste Finanzierungsrunde ging wurde das Umweltschutzfähnchen ganz ganz hoch gehalten. Bei Pressebesuchen ebenso. In der Realität hatte die Forschung wenig bis nix mit Umweltschutz zu tun. Es wurde an Hochleistungskunststoffen gearbeitet, die mengenmäßig nur den Bruchteil eines Bruchteils der Kunstoffproduktion ausmachen. Auf nachwachsende Rohstoffe hat man nur deshalb zurückgegriffen, weil sich in der Natur Strukturelemente finden, die ansonsten nur schwer zu synthetisieren sind. Man hat sich davon einfach Kunststoffe mit neuen Eigenschaften versprochen.

Jeder Professor weiß, dass er seine Anträge mittlerweile grün anstreichen muss. Intern wird oft auch ganz offen gesagt dass die offizielle Zielsetzung eigentlich nicht so interessant ist, aber vielleicht findet man ja auf dem Weg dorthin etwas nützliches.

 




Von wegen «erneuerbar»

Wind- und Solarstrom gelten als erneuerbar. Doch mit Blick auf den gewaltigen Materialverschleiss, der mit diesen Energieformen einhergeht, erscheint dieser Begriff wie Hohn. Dagegen könnte die Kernenergie bald eine echte erneuerbare Stromquelle sein.

Von Peter Panther

Der Wind und die Sonne, welche uns künftig den Strom liefern sollen, gehen nicht zur Neige. Darum gelten Wind- und Solarenergie als «erneuerbar». Anders ist es bei der Kernenergie: Es braucht Uran, damit Atomstrom entsteht. Uran kommt aber grundsätzlich nur in endlichen Mengen vor. Darum wird die Kernkraft als «nicht erneuerbar» bezeichnet.

Diese Unterscheidung, die den Fans von sogenanntem Ökostrom in die Hände spielt, ist allerdings Etikettenschwindel. Denn wenn man nicht nur den «Treibstoff» berücksichtigt, der bei den verschiedenen Energiearten genutzt wird, sondern auch alles andere, was es zur Herstellung des Stroms braucht, sieht die Bilanz ganz anders aus.

Ins Gewicht fällt vor allem das Material, das nötig ist, um Kraftwerke bzw. Energieanlagen zu bauen. Weil Sonne und Wind zwei Quellen mit einer sehr geringen Energiedichte sind, braucht es hier im Vergleich zu anderen Produktionsformen Unmengen an Beton, Aluminium, Kupfer, Glas und Stahl, um Strom zu erzeugen. Und alle diese Materialien sind endlich, also nicht erneuerbar.

Sonne und Wind haben einen ungünstigen Bergbau-Abdruck 

Eine Studie des amerikanischen Breakthrough-Institute hat dazu einschlägige Zahlen geliefert. Demnach braucht es bei Solaranlagen gewichtsmässig – je  nach Anlagetyp – 1,3 bis 2,9 mal soviel Material wie bei einem Kernkraftwerk, um eine bestimmte Menge Strom zu erzeugen. Bei Windrädern ist es im Vergleich mit Atomstrom sogar fünf- bis elfmal so viel.

Die Bilanz fällt für Wind und Sonne noch schlechter aus, wenn man berücksichtigt, welche Materialien nötig sind, und man deren Knappheit einbezieht. Denn ein Kernkraftwerk besteht zu 98 Prozent aus reichlich vorhandenem Eisen und Zement. Dagegen braucht es für Solarpanels und Windräder besonders viel an kritischen Rohstoffen wie Aluminium, Zink, Mangan oder Chrom. So gesehen schneiden Solar- und Windstrom sogar 4,5 – bis 12,5-mal schlechter ab als Atomstrom.

Das Breakthrough-Institute hat auch einen Bergbau-Fussabdruck der verschiedenen Energieformen berechnet. Dieser bemisst, wie viele Tonnen Gestein abgebaut werden müssen, um daraus diejenigen Materialien zu gewinnen, die für die Erzeugung einer bestimmten Strommenge notwendig sind. Bergbauabfälle stellen eine nicht unerhebliche Umweltbelastung dar. Der Bergbau-Fussabruck ist bei der Kernenergie drei- bis sechsmal kleiner als bei der Solar- und der Windenergie – wobei der Aufwand zur Gewinnung von Uran mitberücksichtigt ist.

Es braucht auch Material, um Dunkelflauten zu überbrücken

Anführen muss man zudem, dass viele Windräder und fast alle Solarmodule aus China kommen, wo die Herstellung dieser Anlagen zum grossen Teil mit Kohlestrom läuft. Und Kohle ist bekanntlich eine nicht erneuerbare Energiequelle.

Noch schlechter sieht die Materialbilanz von Sonne und Wind aus, wenn man in Rechnung stellt, dass diese Energieformen wetterbedingt stark fluktuierenden Strom erzeugen. Um Dunkelflauten zu überbrücken und eine sichere Versorgung zu garantieren, braucht es darum Speicher und Backup-Kraftwerke. Zudem muss das Stromnetz ungleich stärker ausgebaut werden als bei nuklearem Strom. Auch die Bereitstellung von Speichern und Notkraftwerken sowie die Verstärkung des Netzes gehen mit einem hohen Verbrauch nicht erneuerbarer Materialien einher. Für Batterien, die kurzfristige Versorgungslücken überbrücken können, sind etwa grosse Mengen an Lithium notwendig, das besonders knapp ist.

Man kann einwenden, dass die verwendeten Materialien recycliert und damit erneuert werden können. Das ist aber höchstens zum Teil realistisch. Denn ausgediente Solarpanels und Windräder in ihre Bestandteile zu zerlegen, um diese wiederzuverwenden, ist sehr aufwändig und zum Teil technologisch gar nicht machbar.

Das Recycling klappt meistens nicht

Die Internationale Agentur für erneuerbare Energien schätzte vor zwei Jahren, dass weltweit neun von zehn Solarpanels auf Deponien statt im Recycling landen. Ihre Zerlegung, um Glas, Silber oder Silizium zurückzugewinnen, lohnt sich meist nicht. Das ist besonders gravierend, weil das toxische Potential von Solarschrott – wieder verglichen mit der erzeugten Energiemenge – rund 300 mal höher ist als dasjenige radioaktiver Abfälle aus Kernkraftwerken. Für eingefleischte Atomgegner dürfte das eine unangenehme Botschaft sein.

Bei der Windenergie sieht es nicht besser aus: Vor vier Jahren gingen Bilder aus der Stadt Casper im amerikanischen Bundesstaat Wyoming um die Welt, welche die Überreste von 870 ausrangierten Rotorblättern zeigten. Diese lagen – fein säuberlich aneinandergereiht – in einer Deponie bereit, um demnächst verbuddelt zu werden. Auch wenn der Umgang in einigen Ländern wie Deutschland umsichtiger ist, so klappt das Recycling von Windkraft-Schrott in weiten Teilen der Welt nicht. Vor allem für die Rotorblätter, die aus synthetischen Verbundmaterialien bestehen, gibt es kaum Verwendung.

Uran aus dem Meer wäre ein «Gamechanger»

Es ist also ein Hohn, Solar- und Windstrom als «erneuerbar» zu bezeichnen. Diese Bezeichnung könnte hingegen für Atomstrom passen, falls die Technologie noch einige Fortschritte macht. Gelingt es, dank neuen Generation-IV-Reaktoren auch Uran-238 oder Thorium nutzbar zu machen, stünden der Kernenergie derart grosse Mengen an Brennstoff zur Verfügung, dass ihre theoretische Endlichkeit kaum mehr eine Rolle spielen würde.

Dazu kommt, dass selbst bei konventioneller Kerntechnologie Erze mit einem tiefen Urangehalt abgebaut werden könnten, sollte dieser Rohstoff tatsächlich knapp werden. Wegen der ungeheuer hohen Energiedichte von Uran würde sich das noch immer lohnen. Die Brennstoffkosten sind bei Atomstrom sowieso von untergeordneter Bedeutung.

Ein «Gamechanger» wäre es, falls es gelingt, Uran aus dem Meer zu gewinnen. Zwar ist die Konzentration dieses Elements im Wasser mit rund drei Mikrogramm pro Liter gering. Insgesamt sind aber geschätzte vier Milliarden Tonnen Uran in den Ozeanen gelöst. Das ist 500 bis 1000 Mal mehr als alle bekannten Vorräte in Erzlagerstätten. Zudem speist das umliegende Gestein die Weltmeere ständig mit neuem Uran, sollte dessen Konzentration abnehmen. Unter solchen Prämissen wäre Atomstrom definitiv «erneuerbar».