Wie der Klimawandel zur Religion wurde – und was man evtl. dagegen tun kann.

Ein Interview mit dem EIKE Vizepräsidenten Michael Limburg am 14.5.25 in seinem Büro.

Das Video wurde inzwischen von YouTube gesperrt! Gründe unbekannt, jetzt bei rumble verfügbar

In diesem Interview zeichnet der EIKE Vizepräsidenten Michael Limburg ein düsteres Bild der Lage in und um Deutschland, hervorgerufen durch die Klimareligion, die in der EU, aber insbesondere in Deutschland, von Staats wegen hervorgerufen wurde. Die Wirtschaft ist in einer immer steiler werdenden Abwärtsspirale, die auch durch neue Schulden, und Umfinanzierung bspw. der Energiekosten mittels Steuern, statt Umlagen, nicht gemildert werden kann.

Maurice Strong. Generalsekretär der Rio Nachhaltigkeitskonferenz 1992

„Was wäre, wenn eine kleine Gruppe von Weltführern zu dem Schluss kommen sollte, dass die Hauptgefahr für die Erde von dem Ver­halten der reichen Länder ausginge? Und wenn die Welt überleben soll, müssten die reichen Länder ein Abkommen unter­zeichnen, um ihre eigene Umweltbelastung zu redu­zieren.  Wer­den sie dem zustimmen? Die Gruppe kommt zu dem Schluss: Nein! Die reichen Länder wer­den nicht zustimmen. Sie wollen sich nicht verändern. Um den Planeten zu retten, beschließt die Gruppe:  Besteht nicht die einzige Hoffnung für den Planeten darin, dass die industriali­sierten Zivilisationen kollabieren? Ist es nicht unsere Verantwortung, das zu bewir­ken? Die Gruppe von Weltführern bildet eine Geheim­gesellschaft, um einen Wirtschaftszu­sammen­bruch herbeizuführen“. (Wood 1990) und Details dazu hier http://www.eike-klima-energie.eu/news-cache/erwaermungshysterie-und-2-ziel-warum-teil-2/

In diesem Interview werden die Hintergründe der Klimareligion dargestellt, aber vor allem ihre unglaublichen Folgen. Folgen, die uns alle betreffen, heute schon und jeden Tag, jeden Monat, jedes Jahr schlimmer. Eine der katastrophalen Folgen ist der sog. Blackout. Nach Limburgs Meinung ist dieser nicht mehr aufzuhalten, es ist nicht mehr eine Frage des ob, sondern nur noch des wann.

Hier jetzt die Version bei rumble.

In Minute 25:11 wurde die CO2 Messungen erwähnt, die Callendar nach 1955 erstellte, und bei dem eine Fülle von höheren CO2 Messungen nicht verwendet wurden. Gründe unbekannt.

Callendar Messungen des CO2 incl. aller Messungen die Callendar weggelassen hatte.

Ein weiterer ist bspw. der Nachhaltigkeitsbericht der Firmen, in dem sie ihren „CO2 Footprint“ offenlegen müssen. Und das betrifft nicht nur den eigenen sondern auch den der Zulieferanten nach dem schlimmen Lieferkettenegsetz. Näheres dazu hier.

Hier das Gegenstück dazu:

Im letzten Teil (ca. Min 52) wird bspw. skizziert wie man u.a. durch die Gesetzgebung erreichen kann, dass auch „Erneuerbare“ in den Markt integriert werden müssen, nämlich in dem man zunächst die Vorrangeinspeisung abschafft, die war eine politische Vorgabe den „Erneuerbare“ einen uneinholbaren Vorsprung zu verschaffen, den die anderen nicht mehr einholen können.

Edenhofer PIK zu Klimagesetzen: Sie sollen rentablen Technologien Klötze ans Bein binden, neuen grünen Technologien uneinholbare Vorteile verschaffen. (Heft „et“ – Energiewirtschaftliche Tagesfragen 5- 2007) fordert Dr. Edenhofer vom Potsdam-Institut für Klimafolgenforschung bereits 50 % Emissionsabsenkung weltweit, bis Ende des Jahrhunderts 90 %.)

Sie muss daher abgeschafft werden. Und das muss begleitet werden durch staatlich durchgesetzte Vorgaben, wer denn am Markt für Strom als Anbieter teilnehmen darf. Nämlich nur der, der – gleiches Recht für alle – dessen Vorgaben für Menge, Spannung, Frequenzstabilität und Phasenstabilität und Zeit erfüllt. Erfüllt man diese so eigentliche selbstverständlichen Voraussetzungen, so werden auch die Anbieter von „Erneuerbaren“ diese zu erfüllen versuchen, oder aus dem Markt ausscheiden. Der bis dahin erreichte Schaden bliebe allerdings bestehen, den auszugleichen sollten daher die Gewinner dieses „Erneuerbaren“ Stromes schlechter Qualität bezahlen müssen. Ein Rückblick auf das im Jahr 1954 erlassene Bundeslastenausgleichgesetz könnte da entsprechende Hinweise geben.

Das und noch viel mehr finden Sie in diesem Interview.

 




Die Stromversorgung im Zweifrontenkrieg

Die europäischen Stromnetze werden durch die Einspeisung von immer mehr wetterabhängiger Sonnen- und Windenergie immer störanfälliger. Wie schnell inzwischen ein Blackout ausgelöst werden kann, sah man jüngst in Spanien. Und dazu kommen nun noch Angriffe durchgeknallter Saboteure.

von Manfred Haferburg

Blackout heißt kein Strom und damit Zusammenbruch des gesellschaftlichen Lebens mit allen furchtbaren Folgen. Die Stromversorgung gehört zu den wichtigsten Leistungen, die ein Staat sicherstellen muss. Seit Jahren führen Politiker einen Kampf gegen die Stromversorgung, den sie Energiewende nennen. Zur Sicherheit werden die Kraftwerke nicht nur abgeschaltet, sondern möglichst effektiv gesprengt oder zersägt.

Es ist beängstigend – die europäischen Stromnetze, die ohnehin einen Krieg gegen die Energiewender schon fast verloren haben, werden nun von durchgeknallten Saboteuren angegriffen, die das Schweinesystem abschaffen wollen.

Es fing mit der Brandlegung an einem Strommast in Grünheide durch eine linksextreme „Vulkangruppe“ an, durch die das Tesla-Werk tagelang stillgelegt werden musste. Zehntausende Haushalte waren ohne Strom. „Wir haben heute Tesla sabotiert.“ Die Gruppe wirft Tesla in einer Mail „extreme Ausbeutungsbedingungen“ vor und fordert eine „komplette Zerstörung der Gigafactory“. Mir ist nicht bekannt, dass die Täter gefasst wurden.

Am letzten Wochenende kam es in Frankreich zu mehreren Sabotageakten gegen das Stromnetz, ebenfalls durch eine linksextreme Gruppe namens „Coupez!“, jedenfalls haben sie ein entsprechendes Bekennerschreiben veröffentlicht.

Blackout der iberischen Halbinsel

Am 28. April 2025 kam es um 11:33 Uhr in Spanien und Portugal zu einem großflächigen Blackout, der nahezu die gesamte iberische Halbinsel lahmlegte. Der Stromausfall begann mit plötzlichen Ausfällen in Umspannwerken in Granada, Badajoz und Sevilla, die innerhalb von Sekunden zu einem Erzeugungsverlust von 2,2 Gigawatt führten. Dies löste eine Kettenreaktion ähnlich dem Umfallen von Dominosteinen aus, die das gesamte Stromnetz zum Zusammenbruch brachte. Spanien und Portugal waren nahezu schwarz und das öffentliche Leben brach für einen Tag zusammen. Medienberichten zufolge kam es zu drei oder vier Todesopfern.

Die genaue Ursache des Blackouts wird weiterhin untersucht. Es kann Monate dauern, bis die Ergebnisse der Untersuchung der Netzbetreiber vorliegen. Die spanische Regierung schließt einen Cyberangriff auf das Hauptnetz aus.  Zudem wird geprüft, ob Netzschwankungen in Europa vor dem Vorfall eine Rolle gespielt haben.

Der Vorfall hat die Diskussion über die Stabilität des spanischen Stromnetzes und die Abhängigkeit von erneuerbaren Energien neu entfacht. Während einige Stimmen ein Überangebot an Solarstrom als mögliche Ursache sehen, gab es dafür bislang keine offiziellen Belege. Es wurde in den Medien sehr still um den Blackout.

Über ganz Spanien lacht die Sonne

Allerdings gibt es schon allerhand Stellungnahmen von Fachleuten über die möglichen Ursachen. Die sind aber für Nichtfachleute schwer zu verstehen und stoßen daher auf wenig Interesse. Von Bekannten wurde ich auf einen Bericht von INESC TEC’s Substack aufmerksam gemacht, in dem fünf Experten das Ereignis analysieren.

Ich habe mir vorgenommen, das, was bisher bekannt ist, in eine dem Nichtfachmann verständliche Sprache zu übersetzen. Was also ist geschehen?

Am Morgen des 28. April produzierte Spanien 33 Gigawatt (GW) Strom – etwa so viel wie 30 große Kraftwerke erzeugen. Spanien ist ein sonniges Land und setzt auf erneuerbare Energie. Aus Solar kamen an diesem Vormittag 23 GW und aus Wind 3 GW, in Summe also 26 GW. Die großen Turbinen der Kraftwerke erzeugten zu dieser Zeit nur 3,5 GW aus Kernkraft und der Rest aus Biomasse und Solarthermie – man hatte also die Kraftwerke zugunsten des Solarstroms weitestgehend heruntergefahren.

Das Stromnetz – die größte und komplizierteste Maschine, die je gebaut wurde

Ein Stromnetz ist eine trickreiche Maschine. Stellen Sie sich das Stromnetz wie eine starre Welle aus Stahl von Flensburg bis München vor. Auf diese Welle übertragen die Erzeugerturbinen ihre Leistung mittels großer Treibriemen, und die Verbraucher nehmen sie von dieser Welle mittels vieler kleiner Treibriemen ab. Es funktioniert aber nur, wenn zu jeder Zeit (Sekunde) genau die Leistung produziert wird, die auch verbraucht wird. Dann drehen sich unsere Stromnetzwelle und alle mit ihr verbundenen Erzeugermaschinen mit genau 3.000 Umdrehungen pro Minute. Wird jetzt plötzlich mehr gebraucht, muss die Stromerzeugung erhöht werden, oder das Stromnetz sinkt in der Drehzahl – ähnlich einem Auto, dessen Motor an einer Steigung an Drehzahl verliert. Wird plötzlich mehr Strom erzeugt, als gebraucht wird, dann steigt eben die Drehzahl.

So war es in der guten alten Zeit. Die Verbraucher machten, was sie wollten, und die Erzeuger passten sich an. Das war auch möglich, weil die großen Erzeugungsmaschinen sich mit 3.000 Umdrehungen pro Minute – das sind die berühmten 50 Hertz – drehten und damit eine riesige Schwungmasse wenigstens für ein paar Sekunden die Drehzahl auch bei großen Verbrauchssprüngen – wie z.B. die Halbzeitpause eines Weltmeisterschaftsspiels, wo plötzlich Millionen Fans den Kaffeekessel anwerfen – einfach durch ihre mechanisch gespeicherte Trägheitsenergie Schwankungen ausglich, um den Ingenieuren auf den Netzleitstellen Zeit zu verschaffen, die Leistung durch Hochfahren von Erzeugern oder Abschaltung von Großverbrauchern wieder anzupassen.

Alle machen, was sie wollen

In der schönen neuen Stromwelt werden aber durch die Energiewende mehr und mehr große Kraftwerkserzeugermaschinen verschrottet und durch kleine Windradgeneratoren oder gar Solarpaneele ersetzt. Und zu allem Übel machen jetzt nicht nur die Verbraucher, was sie wollen, nein, auch diese Erzeuger machen, was das Wetter so will. Zusätzlich erschwerend kommt hinzu, dass es immer weniger schwere, sich mit 3.000 Umdrehungen drehende Maschinen gibt, deren Masseträgheit eine Sekundenreserve darstellt, so dass das Netz immer empfindlicher auf Lastsprünge reagiert und die Ingenieure in den Netzleitstellen immer weniger Zeit zum Reagieren haben. Merken Sie etwas, lieber Leser? Das System wird immer sensibler, je weniger Dämpfung aus Masseträgheit einbezogen wird.

Das war an diesem Morgen in Spanien genau der Fall. Da Biogasanlagen und Solarthermie auch nur kleine Generatoren ohne viel Masseträgheit haben, waren eigentlich nur noch ein paar große Turbinen der Kernkraftwerke an unsere Welle angeschlossen, die zur Dämpfung zur Verfügung standen. Und keiner weiß bis heute, wie viel solche Massen mindestens für die Gewährleistung der Netzsicherheit und der konstanten 50 Hz benötigt werden. Ich kann mich des Eindrucks nicht erwehren, dass  das gerade ausgetestet wird.

Millionen kleiner schwarzer Kästchen

Dazu kommt noch eine weitere Krux. Selbst jedes Solarbalkonkraftwerk hat natürlich seinen eigenen kleinen Konverter. Das ist eine kleine Blackbox – meist aus China – die es ermöglicht, den in den Paneelen erzeugten Gleichstrom ins Netz zu speisen, indem es ihn in Wechselstrom umwandelt. Da sich aber hier nichts dreht, müssen diese 50 Hz irgendwie elektronisch erzeugt und geregelt werden. Außerdem muss auch die Spannung von dem kleinen schwarzen Kästchen geregelt werden. Und natürlich soll das Kästchen auch möglichst wenig kosten. Deshalb folgen die Frequenz- und Spannungsregler in dem Kästchen auch dem Vorgabewert, den sie gerade dem Netz entnehmen. Fällt oder steigt die Frequenz, machen sie einfach mit und verstärken so den bösen Effekt. Sie haben höchstens einen Schutzmechanismus eingebaut, der das Paneel abschaltet, wenn die Spannung zu hoch steigt, damit es nicht durch Überspannung zerstört wird. Das Gefährliche ist, dass es diese Kästchen jetzt in Millionenzahl gibt und die Netzbetreiber meist keinen Zugriff auf deren Steuerung haben. Nur große Solaranlagen haben teure Regelsysteme, die das Netz unterstützen, die 50 Hz und die Spannung zu halten.

Und es gibt meines Erachtens noch einen weiteren ungewollten Effekt – die unterschiedlichen kleinen Toleranzen der Regelung dieser Solarpaneele. Die sind ja nicht genormt. Und selbst wenn, so hat doch jeder Hersteller zwar im Großen und Ganzen den Sollwert auf 50 Hz eingestellt, aber schon allein die Mess- und die Regelgenauigkeit können von Gerät zu Gerät geringfügig abweichen. Von Spannungshaltung und Phasenwinkel gar nicht zu reden. Eigentlich nicht schlimm. Aber was, wenn Millionen dieser Geräte mit der einen Welle verbunden sind? Da können sich die unterschiedlichsten Graubereiche der Werte überlagern und zu Fehlreaktionen aufschwingen, bis hin zur Notabschaltung ganzer Solarfelder wegen unzulässigen Spannungsanstiegs durch Schwingungen.

Netz-Schwingungen und eine Störung als Anlass

Und tatsächlich, ab 10:19 Uhr wurden am 28. April 2025 im spanischen Netz solche Schwingungen von zwei Spezialmessgeräten erfasst und aufgezeichnet. Die Frequenz und Spannung schwangen sich im Minutentakt zu mehr oder minder großen Ausschlägen auf. Die Ausschläge waren nicht sehr groß, aber das System hatte aufgehört, stabil zu sein. Sie können sich davon ein Bild machen, wenn Sie das nächste Mal im Stau stehen und im Stop and Go die völlig unbegründeten Schwingungen des Staus erleiden, die dadurch entstehen, dass sich die minimal unterschiedlichen Verhaltensweisen von hunderten Fahrern zu einer Ziehharmonika-ähnlichen Bewegung aufschaukeln. Die von den zwei Messgerät aufgezeichneten Schwingungen deuteten darauf hin, dass im iberischen Netz nicht mehr genügend Dämpfung vorhanden war. Nun brauchte das schwingende Netz nur noch einen Anlass fürs Kollabieren. Der kam um 12:33:16 Uhr, als ein Kraftwerk in Südspanien ausfiel, dem zwei Sekunden (sic) später ein zweites Kraftwerk folgte. Jetzt waren plötzlich zwei Gigawatt Leistung verloren.

Was dann kam, übersteigt die Vorstellungskraft eines bescheidenen Ingenieurs. Es muss zu einer großen Spannungsschwankung im spanischen Netz geführt haben, denn fünf Sekunden (sic) später trennten sich 15 Gigawatt-Solarleistung – also Großsolaranlagen – durch ihren Spannungsschutz vom Netz – etwa die Hälfte der gesamten Erzeugung. Das System hatte das Gleichgewicht verloren.

Die Netzfrequenz fiel schlagartig um dramatische 1,5 Hz ab. Daraufhin schalteten sich alle Stromerzeuger in Spanien und Portugal automatisch ab. Die Schutzsysteme des Netzes funktionierten und eines davon unterbrach die Grenzkuppelstellen der Hochspannungsleitungen zu Frankreich und Deutschland – was wohl Europa vor dem ganz großen Blackout rettete. Man kann es auch so beschreiben: Die vielen großen rotierenden Massen der französischen Kernkraftwerke verhinderten durch ihre dämpfende Trägheit das Durchbrechen des spanischen Frequenzabfalls auf den Rest von Europa.

Die gute und die schlechte Nachricht

Erst mal die gute Nachricht: So unangenehm wie der iberische Blackout auch war – die Wiederherstellung der Stromversorgung innerhalb eines Tages ist einfach eine großartige Leistung der spanischen und portugiesischen Netzbetreiber. Sie haben das Schlimmste verhindert. Und auch den Spaniern und Portugiesen steht ein Kompliment zu. Sie haben sich weitestgehend als hochzivilisierte Bürger erwiesen und Disziplin gehalten.

Dann noch die schlechte Nachricht: Es gab in den letzten Tagen zwei Terroranschläge auf das französische Stromnetz in Südfrankreich. In der Ortschaft Tanneron in der Nähe von Cannes wurde am Samstag an einer Umspannstation ein Feuer gelegt und drei der vier Stützen eines Hochspannungsmastes durchgesägt. Dadurch fiel der Strom für etwa 160.000 Haushalte in Südfrankreich kurzfristig aus.

In Nizza fiel der Strom in der Nacht zum Sonntag für 45.000 Haushalte aus, weil jemand einen Stromtransformator in Brand gesteckt hatte.

Die französischen Behörden gehen von Sabotage aus. Es ist auf Indymedia, einer linken Plattform, ein Bekennerschreiben aufgetaucht. In dem Schreiben heißt es, die Aktion habe nicht nur das Filmfestival stören, sondern auch Forschungseinrichtungen, Rüstungsfirmen, Start-ups, den Flughafen und weitere Einrichtungen in der Region lahmlegen sollen. In dem Text wird mehrfach der Ausdruck „Coupez!“ verwendet – ein Begriff aus der Filmsprache, der das Ende einer Szene markiert. Zudem enthält das Schreiben scharfe Kritik an der französischen Rüstungsindustrie und an einem „System“, das als lebensfeindlich beschrieben wird.

Der Beitrag erschien zuerst bei ACHGUT hier

 




Trinkwassermangel wegen Klima. Stimmt das?

Von Uta Böttcher.

Die Angst vor Wasserknappheit ist nicht unbegründet – allerdings nicht wegen des Klimawandels, sondern wegen maroder Wasserleitungen. 800 Milliarden Euro würde die Sanierung kosten.

Ist „Sondervermögen“ nicht ein wunderschöner Name für die Neuverschuldung des Staates? Fast so schön wie der Name „Elster“ für die Online-Plattform des Finanzamtes! Am 21. März 2025 wurden 500 Milliarden Euro Staatsverschuldung beschlossen, für die Finanzierung zusätzlicher Maßnahmen für Infrastruktur und Klimaneutralität. Durch die Lockerung der Schuldenbremse im Grundgesetz könnte dies bis zum Jahr 2036 eine Neuverschuldung von rund einer Billion Euro bedeuten, wenn alle nun ermöglichten Verschuldungsspielräume ausgenutzt werden (siehe auch hier).

Eine große Summe. Doch 800 Milliarden Euro Sanierungsbedarf hat allein unsere Wasserinfrastruktur, wie ein brandneues Gutachten zeigt. Das ganze schöne Sondervermögen müsste also direkt in die Sicherung unserer Trinkwasserversorgung fließen. Die Angst davor, dass bald kein Tropfen mehr aus dem heimischen Wasserhahn kommt, ist nicht unbegründet – allerdings nicht wegen des menschengemachten Klimawandels, sondern wegen maroder Wasserleitungen.

Das Gutachten, vom Verband kommunaler Unternehmen (VKU) in Auftrag gegeben, ergab, dass bis zum Jahr 2045 etwa 800 Milliarden Euro in die Infrastruktur der Wasserversorgung gesteckt werden müssen. Dies ging aus einer Befragung von Unternehmen der Wasserversorgung und Abwasserentsorgung im Januar 2025 hervor.

In den vergangenen 22 Jahren flossen jährlich rund 10 Milliarden Euro in Erhalt und Erneuerung der Trinkwasser- und Abwasseranlagen. Doch bald überschreitet ein großer Teil der vorhandenen Infrastruktur seine Lebensdauer – beim Trinkwasserversorgungsnetz sind das 60 Jahre – so dass in den kommenden Jahren deutlich höhere Investitionen notwendig sein werden.

In den nächsten 20 Jahren müssen Bestandsanlagen erneuert, Kapazitäten erweitert und vorhandene Anlagen modernisiert werden. Dafür sind zwischen 2025 und 2034 rund 45 Milliarden Euro und zwischen 2035 und 2044 rund 34 Milliarden Euro jährlich an Investitionen notwendig, also 40 Milliarden Euro pro Jahr anstatt wie bisher 10 Milliarden. Insgesamt ergeben sich rund 800 Milliarden Euro: Bei 800.000.000.000 Euro Finanzbedarf und gut 80.000.000 Einwohnern entfallen in den nächsten 20 Jahren also etwa 10 000 Euro auf jeden Einzelnen in Deutschland, das sind 500 Euro pro Kopf (nicht etwa pro Haushalt!) und Jahr. Das ist nicht wenig.

Enorm hoher Investitionsstau

Das bedeutet: Ohne staatliche Zuschüsse werden die Wasserpreise steigen müssen. Denn die Wasserversorgung ist Sache der Kommunen, die sich ihre Investitionen über den Preis für das Trinkwasser von den Bürgern zurückholen müssen. Die Kommunalabgabenordnung fordert das Kostendeckungsprinzip – mit dem Trinkwasser darf kein Gewinn erzielt werden. Die Kosten für Betrieb, Wartung und Sanierung der Trinkwasserinfrastruktur wird über die Wassergebühren der Haushalte und Unternehmen finanziert. Die Wasserversorgungsunternehmen sind meist kommunal organisiert, zum Beispiel in Form von Stadtwerken.

Um größere Sanierungen und Modernisierungen, beispielsweise umfassende Leitungsnetzerneuerung, zu finanzieren, die mit den laufenden Einnahmen nicht gestemmt werden können, müssen die Kommunen Kapital bereitstellen: Sie nehmen dafür Kredite auf, zum Beispiel bei der KfW. Weil eine Erhöhung der Trink- und Abwasserwassergebühren politisch heikel ist – denn sie belastet die Haushalte ganz direkt – wurden notwendige Investitionen lieber hinausgezögert. Das ist ein Grund für den enorm hohen Investitionsstau.

Das Gutachten besagt auch, dass bis zu 15 Prozent der Investitionen auf „die zukünftig notwendige Anpassung an den Klimawandel und weitere Ereignisse“ zurückzuführen sind. Für diesen Teil der Ausgaben könnten also die Geldtöpfe des Bundes in Anspruch genommen werden. Prinzipiell sieht der Bund die Wasserversorgung zwar als kommunale Aufgabe. Aber es gibt Förderprogramme, die speziell auf die Finanzierung von Projekten zur Anpassung an den Klimawandel oder zur Modernisierung von Infrastruktur ausgelegt sind. Und nun gibt es eben auch das neue Sondervermögen für Infrastrukurmaßnahmen. Dieses „Extrageld“ vom Bund müsste nicht über den Wasserpreis direkt an den Bürger weitergegeben werden. Selbstverständlich muss am Ende trotzdem der einzelne Bürger für die Kosten geradestehen, aber er merkt es nicht gleich.

Klimabegründete Maßnahmen

Welche Maßnahmen für den Klimaschutz in der Trinkwasserversorgung sind damit gemeint? Sind sie sinnvoll oder unnötig?

Zu den klimabegründeten Maßnahmen gehört der Ausbau der Fernwasserversorgung, um Trinkwasser aus wasserreichen Regionen in Gebiete mit wenig Wasserverfügbarkeit liefern zu können. Das ist in jeder Hinsicht sinnvoll, denn hydroklimatisch gesehen ist Deutschland zwar ein wasserreiches Land mit Süßwasserressourcen von im Mittel 188 Milliarden Kubikmetern (siehe dazu auch hier und hier), aber mit großen regionalen Unterschieden. Bedingt durch die geologischen Untergrundbedingungen gibt es Regionen mit ausgedehnten und ergiebigen Grundwasservorkommen genauso wie Bereiche ohne nennenswerte Grundwasserspeicherung. Auch die Niederschlagsmengen sind regional sehr verschieden (siehe auch hier). Für kleinere Kommunen ist die Instandhaltung und Modernisierung der Wasserversorgung finanziell oft schwer zu stemmen. Durch den Eintritt in einen Wasserverband wird hier für Entlastung gesorgt.

Auch die Schaffung von Redundanzen, also zusätzlicher Gewinnungs-/ Aufbereitungs- und Speicheranlagen als Reserve- und Sicherheitsmaßnahme kann dem Klimaschutz zugeordnet werden. Diese werden benötigt, um Ausfälle und Störungen in den technischen Anlagen zu verhindern oder deren Auswirkungen zu minimieren. Das ist in jeder Hinsicht sinnvoll, genauso wie der Bau zusätzlicher Speicheranlagen, um Verbrauchsspitzen abfangen zu können.

Ebenfalls in diesen Bereich gehört die Anpassung der Systeme auf sich ändernde gesetzliche Vorgaben, wie die Herabsetzung von vorhandenen Grenzwerten für bestimmte Inhaltsstoffe oder die Einführung neuer Grenzwerte für weitere Inhaltsstoffe. Das ist eine vernünftige Herangehensweise, weil solche Gesetzesänderungen bereits in der Diskussion sind.

Fazit: Unser Trinkwasser muss in den nächsten Jahren beträchtlich teurer werden, damit es weiterhin zuverlässig zur Verfügung steht.

Der Bürger soll wieder einmal erzogen werden

So gesehen ist der „Wassercent“ der Stadt Wiesbaden nur dreist zu nennen: Die Wiesbadener Stadtverordnetenversammlung beschloss diese Abgabe nämlich mit den Stimmen von SPD, Grünen, Linken und Volt im Dezember 2023. Dieser „Wassercent“ fließt nicht etwa in die Wasserinfrastruktur, sondern soll die marode Stadtkasse auffüllen und kann für alles Mögliche ausgegeben werden.

Es ist eine Wasserverbrauchssteuer, zusätzlich zu der zu erwartenden Erhöhung des Wasserpreises. Das hessische Innenministerium als Kommunalaufsicht stoppte den „Wassercent“ zunächst, da mit den Wassergebühren nur die Kosten gedeckt und keine Gewinne erzielt werden dürfen. Eigentlich.

Doch die Stadt Wiesbaden klagte dagegen und bekam kürzlich Recht vor dem örtlichen Verwaltungsgericht. In der Begründung heißt es, diese Wasserverbrauchssteuer sei gerade hoch genug für einen Lenkungseffekt ohne dabei erdrosselnde Wirkung zu haben (siehe auch hier). Der Bürger soll also wieder einmal erzogen werden, weil’s gut für’s Klima ist! Was sich bei den Verwaltungsrichtern wohl noch nicht herumgesprochen hat: Die erdrosselnden Wirkungen addieren sich zurzeit gewaltig, und der Einzelne ist ohnehin schon bis an die Grenze des Möglichen finanziell belastet.

 

Uta Böttcher ist Diplom-Geologin mit dem Fachbereich angewandte Geologie, speziell Hydrogeologie. 

Der Beitrag erschien zuerst bei ACHGUT hier

 




Nur verfügbarer Strom hat Wert !

Eine sichere und preiswerte Energieversorgung ist nur mit fossilen und nuklearen Brennstoffen möglich. Wind- und Solarstrom ist nicht sicher verfügbar. (Hydro- und Biogas-Strom ist für Deutschland mengenmäßig bedeutungslos)

 

Prof. Dr. Ing. Hans-Günter Appel
Pressesprecher NAEB

Energie hat nur Wert, wenn sie bei Bedarf verfügbar ist. Das ist bei den vom Wetter gesteuerten Wind-, Solar- und Laufwasser-Stromerzeugern nicht der Fall (Fakepower). Mal gibt es zu wenig, mal zu viel Strom. Gibt es zu wenig Strom, müssen Kraftwerke oder teure, verlustreiche Speicher die Strommenge auf den Bedarf regeln. Zuviel Strom führt zur Überlastung des Netzes. Dann müssen rechtzeitig Fakepoweranlagen abgeschaltet werden. Sonst unterbrechen Überlastsicherungen die Stromzufuhr (Blackout).

Das heißt: Wir können auf Kraftwerke nicht verzichten. Die Vision, Deutschland  in 20 Jahren ausschließlich mit Fakepower zu versorgen, ist Utopie. Regelkraftwerke müssen die Netzleistung sichern. Darüber hinaus kann in Deutschland mit Fakepoweranlagen nicht die für das Land benötigte Energie gewonnen werden. Der Flächenbedarf dafür ist zu groß und die Energieverluste bis zum Verbraucher steigen durch lange Leitungen und unzureichende Speicher in nicht bezahlbare Höhen. Deutschland ist und bleibt ein Energie-Importland.

 

Energiespeicher sind keine Lösung

Energiespeicher in der benötigten Kapazität sind weder darstellbar noch bezahlbar. Für weitere Pumpspeicherwerke fehlen Platz und Fallhöhe. Batteriespeicher sind teuer und schwer. Sie brauchen seltene Metalle, die nur begrenzt verfügbar sind. Die Betriebsdauer ist mit etwa 10 Jahren kurz. Beide Speichertypen haben Verluste von rund 20 Prozent. Die Speicherung von Energie als Wasserstoff ist die Zauberformel der Energie-Ideologen. Sie wissen offensichtlich nicht, dass bei der elektrolytischen Erzeugung, dem Transport und der Speicherung von Wasserstoff, sowie der Wiederverstromung in Gaskraftwerken mehr als 80 Prozent der eingesetzten Fakepower verloren geht. Darüber hinaus muss das Speichervolumen verdreifacht werden, weil Wasserstoff nur ein Drittel der Energiedichte (kWh/m³) von Erdgas hat. Damit steigen auch die Transportkosten auf das Dreifache. Für die Speicherung von Wasserstoff fehlen geeignete Kavernen. Zurzeit wird erst getestet, ob er in Salzkavernen ohne wesentliche Verluste eingelagert werden kann.

Fakepower kann Deutschland nicht sicher und ausreichend mit bezahlbarer Energie versorgen. Die Erzeugung ist unzuverlässig und teuer. Auf dem Weg zum Verbraucher geht viel Energie verloren. Günstig sind dagegen Energieträger, die pro Kilogramm oder pro Kubikmeter viel Energie gespeichert haben. Sie können preiswert zum Verbraucher transportiert und gelagert werden. Erst dort sollte die gespeicherte Energie entsprechend dem Bedarf freigesetzt und in geforderte Energieform (Wärme, Strom, Arbeit) umgewandelt werden.

 

Wir brauchen Energieträger hoher Dichte

 

Die Tabelle zeigt die geringe Energiedichte der sogenannten erneuerbaren Energien im Vergleich mit fossilen Brennstoffen. Das Einsammeln und Verdichten von Fakepower erfordert viel Fläche, neue Leitungen, Transformatoren, Gleich- und Wechselrichter sowie Speicher, die in der erforderlichen Größenordnung nicht realisierbar sind. Die Energiewende muss scheitern. Ohne fossile und Kernbrennstoffe ist die Versorgung eines Industrielandes nicht möglich. Wir werden auch in hundert Jahren noch diese Energiequellen nutzen.

 

Energieträgern für Kraftwerke

Energieträger Energiedichte

 

Anmerkungen
Kernbrennstäbe 5.000.000 kWh / kg Strahlung
Erdöl             12 kWh / kg Wärme
Steinkohle               8 kWh / kg Wärme
Braunkohle               5 kWh / kg Wärme
Erdgas             10 kWh / m³ Wärme
Wasserstoff              3,5 kWh / m³ Wärme
Holz               5 kWh / kg Wärme

 

Energiedichte „regenerativer“ Energieträger

Energieträger Energiedichte
Wasser   0,00028 kWh / kg Fallhöhe 100 m
Wind 0,000016 kWh / m³ Windgeschwindigkeit 10 m/s
Sonne 100 kWh / m² . Jahr Photovoltaik
Biomasse 6 kWh / m² . Jahr Wärme
Batterie 0,3 kWh / kg Strom

 

Wir können auf Treibstoffe aus Erdöl und Erdgas und Kohle wegen ihrer hohen Energiedichte nicht verzichten. 1 Kilogramm Benzin hat mehr Antriebsenergie als 10 Kilogramm Batterie. Die Ladeleistung für fossile Treibstoffe übersteigt 7000 kW an jeder normalen Tankstelle. Ein mit 70 Liter gefüllter Tank mit einem Gewicht von weniger als 100 kg hat genug Energie für 1000 Kilometer. Ersatztreibstoff kann in einfachen Kanistern im Kofferraum mitgenommen werden.

 

Batterien sind teure und schwere Energiespeicher

Batterien sind dagegen teure und schwere Energiespeicher, ungeeignet. für Flugzeuge, längere Notstromversorgung, weite Schiffstransporte und viele andere Antriebe. Das hat auch die EU in Brüssel verstanden. Einsatzfahrzeuge der Polizei, Krankentransporte  usw. sind vom zukünftigen Verbot fossiler Treibstoffe ausgenommen. Lange Ladezeiten und hohe geforderte Ladeleistungen verstärken das Problem.7 Stunden dauert das Laden einer 80 kWh-Batterie mit der 11 kW-Wallbox zu Haus. Öffentliche Ladestellen haben meist 22 kW Leistung und verkürzen die Ladezeit auf die Hälfte. Die höchsten Ladeleistungen, die an wenigen Stellen angeboten werden, erreichen 400 kW. Damit wird die Ladezeit auf knapp 7 Minuten verringert. Gleichzeitig verringert sich aber auch die Betriebszeit der teuren Batterie merklich.

 

Hohe Energieverluste auf den Weg zum Verbraucher

Energie ist nur wertvoll, wenn sie genutzt wird. Sie muss mit möglichst geringen Verlusten zum Verbraucher gebracht werden. Das gilt sowohl für die Transport- wie auch für die Lagerkosten. Die fossilen Energieträger Kohle, Erdöl und Erdgas haben wegen ihrer hohen Energiedichte geringe Transportkosten pro Kilowatt. Sie können beim Verbraucher in größeren Mengen gelagert werden. Am günstigsten ist  Kohle. Sie kann einfach auf Halde geschüttet werden und bleibt über viele Jahre verfügbar. Erdöl braucht dagegen große Behälter. Bewährt haben sich Kavernen in Salzstöcken. In solchen Salzkavernen sind in Deutschland Erdöl und Treibstoffe für 3 Monate als Notreserve eingelagert. Für Kohlekraftwerke wurde eine verpflichtende Notreserve mit der Energiewende abgeschafft. Erdgas wird gleichfalls in Kavernen unter 70 bis 250 Bar Druck für die Winterzeit bevorratet. Ob mit dem Einfuhrstopp für russisches Gas das Angebot aus anderen Ländern für die Winterzeit ausreicht, wird die Zukunft zeigen. In jedem Fall wird es Flüssiggas sein, das dreimal teurer ist als Pipelinegas.

 

Transport- und Speicherverluste

Transport und das Lagern von Strom aus Wind- und Solaranlagen ist dagegen ein großes Problem mit hohen Verlusten. Die Anlagen erzeugen Strom nach Wetterlaune. Zur Befriedung des Bedarfs müsste er in großen Mengen gespeichert werden. Das ist jedoch nicht möglich. Die einzigen bekannten Speicher sind Kondensatoren. Sie haben eine sehr geringe Kapazität, die eine Stromversorgung nicht sichern kann. Strom kann nur in Energieträgern mit hohen Verlusten gespeichert werden: In Pumpspeichern oder Druckspeichern als mechanische Energie mit Verlusten von 20 bis 40 Prozent, in Batterien mit Verlusten von 20 Prozent, als Wasserstoff mit Verlusten von mehr als 80 Prozent. Wenn alle Speicher voll sind, reicht die Kapazität zur Vollversorgung von Deutschland für weniger als eine Stunde!

 

Unsinnige Klimaziele

Es ist ein Trauerspiel. Klimahysterie und einseitige Bewertung des Kohlendioxids nur im Hinblick auf eine unbewiesene Erderwärmung führt Deutschland in den wirtschaftlichen Niedergang. Wir brauchen mehr jederzeit verfügbare Energie für die Industrie, aber auch für Hilfsgeräte zur Betreuung der alternden Bevölkerung. Wohlstand ist nur mit mehr verlässlicher und bezahlbarer Energie möglich. Doch die alte und die neue Bundesregierung halten an den Klimazielen fest und haben sie sogar in der Verfassung verankert. Ein Unsinn. Man muss an dem  gesunden Menschenverstand der Bundestagsabgeordneten zweifeln, die dafür gestimmt haben.

Die grünen Ideologen und die Profiteure der Energiewende indoktrinieren die Bevölkerung mit ständiger Wiederholung, die Energiewende sei notwendig zur Rettung des Klimas. Wir werden ständig von fast allen Medien darauf hingewiesen, der Klimawandel sei schuld an Trockenheit und zu viel Regen, an hohen Temperaturen und zu großer Kälte, an Stürmen und Überschwemmungen, an Missernten und vielem mehr. Unterstützt wird die Indoktrination durch Wissenschaftler, die ihre Fachkenntnisse verleugnen und Forschungsergebnisse einseitig im Sinne der Regierung veröffentlichen. Veröffentlichungen, die die Klimapolitik hinterfragen, werden mit Entzug von staatlichen Forschungsgeldern bestraft. Wie weit muss Deutschland noch sinken, bis eine realistische und marktwirtschaftliche Energiepolitik ohne Subventionen die Wirtschaft wieder antreibt?

 

 

 

 




Treibhausdämmerung: Der Faktor 4 macht aus unserer Erde eine Halbdunkelwelt

Uli Weber

Von UN und IPCC über Politik, Medien, zehntausende GONGOs, MINT- und MINT-ferne Wissen­schaften, Kirchen aller Konfessionen sowie demokratische Institutionen bis hin zum Bundesver­fassungs­gericht ist man einhellig der Meinung, die Welt würde verglühen, wenn der Mensch weiterhin fossile Energieträger zur Aufrechterhaltung seiner industriellen Kultur verwendet, weil er damit den CO2-getriebenen „natürlichen atmosphärischen Treibhauseffekt“ verstärken würde. Wenn Kirchen und Wissenschaft an einem Strang ziehen, muss man sehr vorsichtig sein. Und wenn dann noch ein hohes Gericht dazu kommt, dann beginnt der alte Galileo schon mal vorsichtshalber im Grab zu rotieren. Also fangen wir mal ganz von vorne an. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ soll durch sogenannte Infrarot-aktive Gase die Abstrahlung unserer Erde behindern und so die vorgeblich „natürliche“ Temperatur um 33 Grad auf die gemessene Durchschnitts­temperatur erhöhen. Schon mit dem Begriff „atmosphärischer Treibhauseffekt“ entfernt man sich aber von der seriösen Physik, wie die nachstehende Abbildung beweist:

Abbildung 1: Die Unterbrechung des konvektiven Luftaustauschs in einem Treibhaus

Die Sonne erwärmt die Erdoberfläche – und natürlich auch den Boden eines Treibhauses. Das Glasdach dieses Treibhauses verhindert nun aber ganz profan das Abfließen von Wärme durch das Aufsteigen warmer Luft, und deshalb ist es im Treibhaus wärmer als in seiner Umgebung. Dieses Aufsteigen warmer und deshalb leichterer Luft hilft in freier Wildbahn den Greifvögeln und Segelfliegern, weite Strecken ohne Kraftanstrengung beziehungsweise eigenen Antrieb zurückzulegen. Konvektion ist also ein von der Schwerkraft angetriebener Materietransport und hat überhaupt nichts mit Strahlung zu tun. Denn der Treibhauseffekt erzeugt physikalisch nicht etwa zusätzliche Wärme, sondern verhindert lediglich das Abfließen von bereits erzeugter Wärme. Die Nationale deutsche Akademie der Wissenschaften Leopoldina erklärt nun den ominösen atmosphärischen Treibhauseffekt in ihrem „Factsheet“ nun folgendermaßen, Zitat:

Der Treibhauseffekt: Eine einfache Energiebilanz bestimmt die Temperatur auf der Erde

  • Der Schlüssel zum naturwissenschaftlichen Verständnis der menschengemachten globalen Erwärmung liegt in der Energiebilanz unseres Planeten und der Physik des Treibhauseffekts.
  • Die Sonneneinstrahlung trifft auf die Erde, ein Drittel dieser Strahlung wird reflektiert, der Rest aufgenommen. Die Erde strahlt langwellige Wärmestrahlung ab und gleicht dadurch die von der Sonne kommende kurzwellige Strahlung aus (stabiles Klima).
  • Wasserdampf, Kohlendioxid- und Methan-Moleküle in der Atmosphäre behindern die Abstrahlung von Wärme von der Erdoberfläche und strahlen einen Teil davon wieder zurück. Ohne diesen natürlichen Treibhauseffekt läge die globale Durchschnittstemperatur nicht bei rund 14°C, sondern bei −18 °C. Leben wäre dann nicht möglich.
  • Durch die Verbrennung fossiler Stoffe hat sich die Konzentration von Kohlendioxid in der Atmosphäre erhöht. Dadurch wird mehr Wärme auf die Erde zurückgestrahlt. Die Temperatur an der Erdoberfläche und in der unteren Atmosphäre erhöht sich.
  • Der durch den Menschen verursachte Treibhauseffekt verändert die Energiebilanz der Erde und hat zu einem Überschuss des Energieflusses von 0,6 Watt/m2 geführt.
  • Rückstände der Verbrennung fossiler Stoffe in der Atmosphäre (Aerosole) haben jedoch gleichzeitig einen kühlenden Effekt.“

Und das nachstehende Faktor4-Bildchen für „die Energiebilanz der Erde“ soll diese Zusammenhänge offenbar erklären – mag ja sein, dass die aktuell geehrten Gelehrten der Leopoldina den Unterschied zwischen Energie und Leistung noch nicht ganz verstanden haben. Von ihren mehr als 7.000 ernannten Mitgliedern hebt die Leopoldina Marie Curie, Charles Darwin, Albert Einstein, Johann Wolfgang von Goethe, Alexander von Humboldt, Justus von Liebig und Max Planck besonders hervor. Zumindest die Herren Einstein und Planck wären sicherlich mit der Erklärung über­fordert, wie denn aus einer absorbierten solaren Strahlungsleistung von 160 W/m² an den Hauptsätzen der Thermodynamik vorbei eine Oberflächenabstrahlung von 398 W/m² entstehen sollte – und eine ominöse „Gegenstrahlung“ von 342 W/m² bringt diese fehlerhafte Physik auch nicht in Ordnung. Das Paradoxon dieser „Gegenstrahlung“, die selbst erst ihre eigenen Entstehung bewirkt, hatte ich als „paranormalen Chuck-Norris-Kreisprozess“ in diesem Artikel ausführlich aufgedröselt.

Abbildung 2 (Leopoldina): „Der Klimawandel bringt die Energiebilanz der Erde aus dem Gleichgewicht“ (in Watt pro Quadratmeter), Bildunterschrift: „Wie kommt es zum Klimawandel? Die Erwärmung der Atmosphäre entsteht dann, wenn die Rückstrahlung der Sonnenenergie durch die Erhöhung der Konzentrationen der Treibhausgase reduziert wird. Die Erhöhung der Konzentrationen der Treibhausgase bewirkt eine Abstrahlung aus größerer Höhe der Atmosphäre, wo es kälter ist. Dadurch gelangt weniger Wärmestrahlung zurück in den Weltraum. Den Überschuss an Energie messen wir als Erwärmung der Erdoberfläche und der unteren Atmosphäre. Die in Klammern angegebenen Zahlen geben den Unsicherheitsbereich an.“

Wir können dem „Factsheet“ der hoch wissenschaftlichen Leopoldina also schon mal folgende „harten“ physikalischen Informationen über diesen natürlichen Treibhauseffekt (THE) entnehmen:

  1. Die Erde erhält (340-100=) 240 W/m² temperaturwirksame Sonneneinstrahlung.
  2. Ohne den THE läge die globale Durchschnittstemperatur bei −18 °C.
  3. Erst der THE erhöht die Durchschnittstemperatur der Erde um 32K auf 14°C.

So, und jetzt schauen wir uns die wirklichen geometrischen Verhältnisse auf der sonnenbestrahlten Erde mit den originären Eckpunkten einmal genauer an:

Abbildung 4: Die geometrischen Verhältnisse auf der sonnenbestrahlten Erde im Äquinoktium mit der sogenannten „gemessenen globalen NST“, die beim Faktor4-Modell einen THE erfordert

Das Flächenverhältnis zwischen der auf einer Kreisfläche mit dem Erdradius einfallenden Sonneneinstrahlung, der Tagseite der Erde und ihrer Gesamtfläche beträgt [1:2:4]. Und jetzt erkennen wir auch sofort den alten Feind des Stefan-Boltzmann-Gesetzes, nämlich die globale Mittelung der Sonneneinstrahlung mittels des ominösen Faktors „4“. Denn es ist intellektuell schon ziemlich abgedreht, einen linearen Durchschnittswert über Tag und Nacht mathematisch in einer physikalischen T^4-Beziehung zu verwursten und damit dann auch noch einen weltbewegenden Klimaalarm anzuzetteln.

Die Sonneneinstrahlung auf unserer Erde ist von der Tageszeit, der Jahreszeit und von der geografischen Breite abhängig, wird aber als eindimensionaler Durchschnitt dargestellt:

Im Klimawahn berechnet man die Kreisfläche der einfallenden Sonnenstrahlung in Quadratmetern, multipliziert diese mit der Solarkonstanten sowie den 86.400 Sekunden des 24h-Tages und erhält eine Energiemenge in Joule. Diese teilt man dann wiederum durch die 86.400 Sekunden des 24h-Tages und die Gesamtfläche der Erde in Quadratmetern und – schwuppdiwupp – behauptet man, mit dieser Viertelung der Solarkonstanten auf 340 W/m² sogar die Erddrehung berücksichtigt zu haben. Die Klimakirche multipliziert also mit und dividiert durch 86.400 Sekunden, und das ergibt erstaun­licherweise gar keine Veränderung. Und auch die Multiplikation mit 10^6 von qkm auf qm bei Kreis­fläche und Erdoberfläche ergibt keinerlei Veränderung des originären Flächenverhältnisses von 1:4; es bleibt einfach beim Faktor4. Denn wie man es auch dreht und wendet, im Grunde teilt man die Solarkon­stante einfach nur durch den ominösen Faktor4 und berücksichtigt dabei überhaupt nichts.

ERKENNTNIS: Bei der Faktor4-Mittelung vergeht der Unterschied zwischen Tag und Nacht in einem Einheitsgrau. Denn man kann jede Formel durch eine Multiplikation mit X/X „aufpeppen“, ohne dass sich das Ergebnis verändert. Ob man also eine Berechnung erst mit einer beliebigen Anzahl von Sekunden multipliziert und dann wieder durch dieselbe Zahl teilt oder in China platzt ein Sack Reis, das ist völlig egal und ändert gar nichts am Ergebnis – außer dass man damit dreist über die Tatsache hinwegtäuschen kann, die Solarkonstante nicht nur über die sonnenbeschienene Tagseite, sondern auch gleich noch über die dunkle Nachtseite der Erde mitgemittelt zu haben.

Und erst dieser Umstand schafft dann den Raum für einen sogenannten „natürlichen atmosphäri­schen Treibhauseffekt“ von 155 W/m² als Korrekturfaktor gegenüber der gemessenen Realität. Selbstverständlich können Sie diesen antiwissenschaftlichen Hokuspokus auch mit den Sekunden für ein ganzes Jahr machen und behaupten, damit die Jahreszeiten berücksichtigt zu haben, oder, noch anspruchsvoller, Sie nehmen die WMO-Klimadefinition von 30 Jahren und haben damit sogar das Weltklima berücksichtigt (Sarc aus). Die Klimakirche vereinheitlicht also eben mal eindimensional über Tag und Nacht, Sommer und Winter sowie alle Klimazonen unserer Erde durch eine Viertelung der Solarkonstanten. Eine solchermaßen fehlerhaft „berechnete Normaltemperatur“ unserer Erde ignoriert eine Menge Phänomene, die uns realphysikalisch eigentlich lieb und teuer sein sollten:

  • Den regelmäßigen Wechsel von Tag und Nacht.
  • Den regelmäßigen Wechsel der Jahreszeiten.
  • Die höchst unterschiedlichen natürlichen Klimate auf unserer Erde.

Die genannten Unterschiede lässt eine eindimensionale „globale Durchschnittstemperatur“ von 15°C, die vorgeblich auf einem konstanten THE von 33K beruht, nämlich einfach verschwinden – und in der weiteren Betrachtung der Klimakirche spielen all diese zyklisch solar gesteuerten Phänomene dann auch überhaupt keine Rolle mehr; denn man fokussiert da lieber auf das menschengemachte CO2.

In keiner einzelnen Sekunde der Sonneneinstrahlung spielt die Erdrotation irgendeine Rolle. Der sogenannte „natürliche atmosphärische Treibhauseffekt“ ist lediglich ein frei erfundener eindimen­sionaler Korrekturwert, der eine missbräuchliche lineare Tag&Nacht-Durchschnittsberechnung mit dem Stefan-Boltzmann-Gesetz an die gemessene und durchschnittsverwurstete Realität anpasst. Von der ominösen „globalen Durchschnittstemperatur“ führt daher kein Weg mehr zurück in die solar gesteuerte Realität, sondern er führt direkt in den selbstzerstörerischen CO2-Klimawahn.

Selbstverständlich werden wir trotzdem mit panikerzeugenden Veränderungen charakter­istischer Klimaeigenschaften bombardiert: Die polaren Gletscher werden weniger, die Wüsten dagegen mehr, die tropischen Regenwälder brennen und der Meeresspiegel frisst Inseln und Hafen­städte. Wenn wir uns jetzt einmal die tatsächliche Sonneneinstrahlung über 24 Stunden im Äquinoktium ansehen, dann können wir eine einheitliche Tag&Nacht-Verteilung über alle Breitenkreise erkennen, wobei der jeweilige Halbstundenwert als Mittelwert für das angegebene Zeitfenster aufgetragen wurde:

Abbildung 5: Die Netto-Strahlungsleistung in W/m² für alle Breitenkreise von 90°N bis 90°S über 24 Stunden im Äquinoktium mit 12:00 Uhr=Sonnenstand im Zenit

Diese und die nachfolgende Abbildung sind farbcodierte Excel-Tabellen. Am linken Rand ist jeweils die geografische Breite von 90°N bis 90°S aufgetragen und horizontal die Stundenintervalle des 24h-Tages, die eine ebene 360°-Projektion der Erde repräsentieren. Als Durchschnittswerte für die Stundenintervalle sind jeweils die Halbstundenwerte angegeben.

Über den Tagesverlauf (6h-18h) verändert sich die örtliche solare Strahlungsleistung (bei einem Sonnenstand im Zenit um 12:00 Uhr) in Abhängig­keit vom örtlichen Azimut und Zenitwinkel – und nachts (18h-6h) ist es dann stockdunkel. Auch das generelle Absinken der solaren Strahlungs­leistung zu den Polen hin (hier: nach oben und unten) ist in dieser Abbildung deutlich zu erkennen. Die Erwärmung unserer Erde ist nun mal ein solarer Echtzeitvorgang, denn es erwärmt an jedem Ort immer nur die augenblickliche Sonneneinstrahlung – und nachts ist’s dort halt dunkel!

So, und jetzt machen wir mal die Faktor4-Probe: Wir addieren die hier dargestellte und von einer Kreis­fläche einfallende solare Strahlungsleistung über die 86.400 Sekunden des 24h-Tages auf, teilen die solare Ein­strahlungsfläche durch die Gesamtfläche der Erde und rechnen dann wieder auf eine Sekunde zurück. Und siehe da, die gesamte Tag&Nacht-Fläche der Grafik inklusive der Nachtseite wird mit einer Nettoeinstrahlung von 235W/m² mittelgrau, denn es kommt dabei genau der ominöse Faktor4 heraus. Und zwar ist es ganz egal, ob Sie über eine Sekunde, eine Minute, eine Stunde, einen Tag oder eine Woche mitteln. Und deshalb gibt es auch zwischen dem Faktor4-THE-Modell und der Realität auf unserer Erde überhaupt keine Verbindung. Nichts, aber auch gar nichts am THE-Modell weist auf eine Breitenabhängigkeit oder gar eine Tag/Nacht-Abhängigkeit der örtlichen solaren Einstrahlung hin. Dagegen zeichnet das aus der solaren Nettostrahlungsleistung abgeleitete S-B-Temperaturäquivalent für alle Breiten­kreise von 90°N bis 90°S die Abhängigkeit der terrestrischen Temperaturgenese von Tageszeit und geografischer Breite deutlich nach:

Abbildung 6: Das S-B-Temperaturäquivalent in °C aus der Netto-Sonneneinstrahlung für alle Breitenkreise von 90°N bis 90°S über 24 Stunden im Äquinoktium
(Wert für Std:30 als Mittelwert für Std-Std+1 mit 12:00 Uhr= Sonnenstand im Zenit)

Um es von vorn herein nochmal ganz deutlich zu machen: Das hier dargestellte S-B-Temperatur­äquivalent wird nirgendwo auf unserer Erde tatsächlich erreicht. Vielmehr wird sofort mit Beginn der örtlichen Erwärmung ständig Wärme in die globalen Zirkulationssysteme abgeleitet, überwiegend durch Konvektion und Verdunstung. Wasser und Wasserdampf spielen hier eine überragende Rolle. Während die Temperatur in den Tropen über 24h nur schwach um die 30°C schwankt, können die Temperaturen in Wüstengebieten tagsüber gerne mal über 50°C ansteigen, um nachts auf einstellige Werte zurückzufallen. Und in der Polarnacht fällt die Ortstemperatur nicht etwa auf Minuswerte jenseits 200°C, sondern sie wird durch die Wärmezufuhr aus den globalen Zirkulationen deutlich oberhalb von minus 100°C gehalten. Wie die nachfolgende Abbildung beweist, reicht bereits die einfache Berechnung des breitenabhängigen S-B-Temperaturäquivalents aus, um ganz grob die geografischen Klimazonen nach Köppen und Geiger nachzuzeichnen:

Abbildung 7: „Present and future Köppen-Geiger climate classification maps at 1-km resolution“

Quelle: Wikipedia aus Nature Scientific Data DOI:10.1038/sdata.2018.214

Mit Overlay S-B-Temperaturäquivalent in °C aus der Netto-Sonneneinstrahlung für alle Breitenkreise von 90°N bis 90°S zwischen 11-13h im Äquinoktium (12:00 Uhr= Sonnenstand im Zenit)

Bereits das einfache Bild der breitenabhängigen solaren Einstrahlung im Äquinoktium als Overlay des mittäglichen S-B-Temperaturäquivalents ist in der Lage, die geografischen Klimazonen unserer Erde ganz grob nachzuzeichnen. Für das eindimensionale Faktor4-THE-Modell sind dagegen keinerlei Grafiken mit globalen Verteilungen bekannt. Vielmehr gilt die physikalisch fehlerhaft gemittelte temperatur­wirksame solare Durchschnittsstrahlungsleistung von 235 W/m² sogar eindimensional für die Polarnacht der Winterhemisphäre – was für ein pseudowissenschaftlicher Riesenbullfisch.

Wie wir also gesehen haben, leitet sich die ominöse „natürliche“ Temperatur der Erde von -18°C aus einer mathematischen Fehlanwendung des physikalischen S-B-Gesetzes her. Diese fehlerhafte globale Durchschnittsberechnung für die Sonneneinstrahlung kann daher weder Tag und Nacht, noch die Jahreszeiten oder gar die Klimazonen unserer Erde abbilden, sondern vereinheitlicht das alles einfach zu einem eindimensionalen orwell’schen Einheitsbrei: Tag ist Nacht, die Jahreszeiten sind alle gleich und Polkappen, Wüsten und tropische Regenwälder unterscheiden sich klimatisch überhaupt nicht voneinander. Erst mit einer hemisphärischen Betrachtung eröffnet sich der Bezug zur Realität. So übersteigt die tatsächliche örtliche solare Strahlungsleistung in den Tropen den fehlerhaften globalen Faktor4-Durchschnitt um ein Vielfaches. Dort in den Tropen, dem Klimamotor unserer Erde, erreicht das S-B-Temperatur­äquivalent leicht über 80°C, was bei einer real um 30°C schwankenden Orts­temperatur in der Spitze zu einem Abfluss von etwa 460 Joule pro Quadratmeter und Sekunde in die globalen Zirkulationen führt. Einen Abgleich zwischen dem fehlerhaften Faktor4-THE-Modell und meinem hemisphärischen Konvektionsmodell finden Sie am Ende dieses Artikels.

Im Verlauf eines 24h-Tages im Äquinoktium wird die Erde während ihrer 360° Grad Drehung einmal vollständig beleuchtet und bleibt gleichzeitig im selben Zeitraum, um 180 Grad (=12 Stunden) verschoben, völlig dunkel, wenn wir einmal von Streulicht absehen:
Wenn wir nämlich die Erddrehung aus der Sonnenperspektive mit 12:00 Uhr „Sonnenzeit“ für den senkrechten äquatorialen Sonnenstand betrachten, dann dreht sich die Erde unter der Sonneneinstrahlung kontinuierlich nach Osten weg. Aber in jeder Sekunde des 24h-Tages ist immer eine Hemisphäre beleuchtet und eine dunkel, auf der beleuchteten Hemisphäre herrscht Tageslicht und auf der gegenüber liegenden Hemisphäre herrscht Nacht. Infolge der Umdrehung unserer Erde um ihre Achse leiten sich daraus im Äquinoktium im Verlauf von 24 Stunden zwei völlig unterschiedlich beleuchtete Flächen her:

Fläche [Tag]: Im Verlauf von 24 Stunden dreht sich die Erde einmal komplett unter der Sonnenein­strah­lung hindurch, was in Summe zu einer nacheinander vollständig beleuchteten Erdoberfläche führt.

Fläche [Nacht]: Die der Sonne abgewandte dunkle Hälfte der Erde wandert, um 180° gegen die Tagfläche versetzt, in 24 Stunden ebenfalls nacheinander über die gesamte Erdoberfläche.

Im Ergebnis müssen wir also für den 24h-Tag auf der Erde die Fläche [Tag] und die Fläche [Nacht] unterscheiden und gesondert betrachten. Dem Grunde nach stehen sich zwei ganz unterschiedliche Betrach­tungsweisen für die Sonneneinstrahlung auf unserer Erde unvereinbar gegenüber, eine realistische Darstellung von Tag & Nacht und eine völlig falsche, weil eindimensionale globale Faktor4-Mittelung. Denn bei einer solchen Betrachtung zählt im wahrsten Sinne des Wortes nur die Physik der allerersten Sekunde – alles andere kürzt sich nämlich rechnerisch wieder gegeneinander heraus:

Das Faktor4-Modell (@4 PI R²): Die Klimakirche hat nun nicht einmal die Flächen [Tag] und [Nacht] gemittelt, was zumindest die Breitenabhängigkeit der solaren Einstrahlung erhalten und damit auch ein breitenabhängiges Hilfskonstrukt THE begründet hätte. Der Faktor4-Trick besteht vielmehr darin, die auf der Tagseite der Erde einfallende Sonnenstrahlung ganz platt und gleichmäßig über die gesamte Erdoberfläche zu verteilen. Und dabei werden dann eben mal sämtliche astrono­mischen Gesetzmäßigkeiten der Rotation unserer Erde und deren Bewegung um die Sonne vernichtet:

  • Der regelmäßige Wechsel von Tag und Nacht.
  • Der regelmäßige Wechsel der Jahreszeiten.
  • Die breitenabhängigen natürlichen Klimate unserer Erde.

=> Das Faktor4-Modell mittelt also die einfallende Sonnenstrahlung über die Gesamtfläche der Erde zu einer eindimensionalen 24h-Halbdunkelfläche. Dieser Vorgang stellt eine völlige Negierung der vorliegenden geometrischen und astronomischen Verhältnisse dar; denn von Vereinfachung kann man hier wirklich nicht mehr sprechen. Trotzdem, oder vielmehr gerade deshalb, sind diese eindimensionalen Werte für die solare Strahlungsleistung, die „natürliche“ Durchschnittstemperatur und den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ für einen MINT-fernen Nachrichtenverbraucher mit abgeschlossener Grundschulausbildung völlig plausibel und nachvollziehbar. Es ist also eine hervorragende Missionierungsleistung der Klimakirche, den variablen Beleuchtungseffekt bei einer komplexen Planetenbewegung in leicht verständliche eindimensionale Glaubenswerte umgewandelt zu haben.

Das hemisphärische Modell (vereinfacht: @2 PI R²): Die auf der Tagseite der Erde einfallende Sonnenstrahlung wird breitenabhängig korrekt nach Azimut und Zenitwinkel für jede individuellen Ortslage berechnet. Und wenn die Sonne nicht scheint (Nachtseite), dann ist‘s halt dunkel.

=> Im hemisphärischen Modell bestehen die beiden 24h-Flächen [Tag] und [Nacht] gleichberechtigt nebeneinander. Dieses Modell ist daher in der Lage, den regelmäßigen Wechsel von Tag und Nacht, den Wechsel der Jahreszeiten sowie grob die breitenabhängigen Klimate unserer Erde darzustellen:

Abbildung 8: Die Netto-Strahlungsleistung in W/m² für alle Breitenkreise von 90°N bis 90°S über 24 Stunden im Äquinoktium mit 12:00 Uhr= Sonnenstand im Zenit
Oben rechts: Die aus dem Faktor4 abgeleitete 24h-Halbdunkelfläche der Erde zum Vergleich

Der Faktor4 für die Verteilung der solaren Einstrahlung auf die gesamte Erdoberfläche vermischt also Tag & Nacht über alle geografischen Breiten und macht unsere Erde damit zu einer Halbdunkelwelt mit einer antiphysikalischen „natürlichen Temperatur“, die im Abgleich mit der Realität sogar noch einen sogenannten „natürlich­en atmosphärischen Treibhauseffekt“ als artifiziellen Korrekturwert erfordert. Die übliche finale Ausrede der Klimakirche, diese ominöse Temperatur durch ein religions­stiftendes „Reverse Engineering“ aus der terrestrischen Abstrahlung hergeleitet haben zu wollen, ist physikalisch eben­falls nur notdürftiges Klimagefasel. Denn eine solche Herleitung ignoriert über die vorstehende Kritik hinaus sogar noch die natürliche Abfolge der solar induzierten Temperaturgenese auf unserer Erde [Einstrahlung -> Temperaturgenese -> Abstrahlung] und damit die materiebedingte natürliche Umkehrung der Vektorrichtung zwischen Einstrahlung und Abstrahlung. Wie man unschwer erkennen kann, findet die terrestrische Temperaturgenese zwischen Einstrahlung und Abstrahlung statt. Die Berechnung einer „natürlichen“ Temperatur aus der Abstrahlung unserer Erde ist demnach eine THE-erzeugende antiphysikalische Übersprunghandlung.

Am Ende stehen wir damit vor einer vorsätzlichen Inversion des Lebens auf unserer Erde, denn der Homo climaticus hat den Klimaeinfluss unseres Zentralgestirns willkürlich marginalisiert und verleumdet stattdessen das Photosynthesegas allen Lebens als Beelzebub der Selbstverbrennung. Die sogenannte Klimakatastrophe ist also tatsächlich menschen­gemacht. Erst durch das auf Grundschulniveau reduzierte Tag=Nacht-Faktor4-Beleuchtungsmodell unserer Erde, das einen eindimensionalen THE als artifiziellen Korrekturfaktor benötigt, hat der Mensch selber die religiöse Grundlage für diese imaginäre CO2-Bedrohung erschaffen. Und wir versuchen jetzt gerade verzweifelt, unseren höchstrichterlich bestätigten Einfluss auf diese menschengemachte THE-Erfindung zu unterbinden, indem wir unsere industrielle Lebensgrundlage und die Zukunft unserer Nachkommen zerstören…

Weitere Informationen: Die korrekte Berechnung für die Durchschnittstemperatur der Taghemisphäre unserer Erde wird in dem Artikel „Anmerkungen zur hemisphärischen Mittelwertbildung mit dem Stefan-Boltzmann-Gesetz“ vorgestellt. Den Grund, weshalb die durch den Faktor4 „globalisierte“ Sonnenein­strahlung physikalisch gar nicht in der Lage ist, die gemessenen Temperaturen auf der Erde darzustellen, hatte ich in dem Artikel „Kelvin allein zu Haus: Der Unterschied zwischen zwei Watt ist deren Umgebungstemperatur“ ausführlich beschrieben. Die im THE-Paradigma ungelöste Problematik zwischen den Vektorrichtungen von Einstrahlung und Abstrahlung wird in dem Artikel „Zeigt der Poynting-Vektor auf „Mittelerde“ oder auf die sogenannte ‚Abstrahlungshöhe‘?“ beleuchtet. Und die Aufrechterhaltung der Nachttempera­tur durch den Wärmeinhalt der globalen ozeanischen Zirkulationen wird in dem Artikel „Die sogenan­nte ‚gemessene globale Durchschnittstemperatur‘ wird von den Ozeanen bestimmt“ erläutert. Einen Wegweiser durch meine hemisphärischen EIKE-Artikel hatte ich in „BACK TO EARTH…“ zusammengefasst.

PS: Bevor sich jetzt die üblichen Verdächtigen ganz furchtbar aufregen bitte ich diese um eine Erklärung, wie denn die durchschnittliche globale temperaturwirksame Solarleistung, nach unterschiedlichen Quellen 235-240 W/m², eigentlich in die Polarnacht kommt – vielleicht in lichtundurchlässig verspiegelten Spezialcontainern der Marke Schilda?
Und der abgedrehte Modefuzzi möge mir bloß mit seinen Wintermänteln vom Leibe bleiben und sich darauf beschränken, meine EIKE-Beiträge für die Klimainquisition zu zählen und zu dokumentieren…