22 anstatt 500.000 Atombomben: Wie man eine existenzielle Gefahr für den Klimawahn beseitigt

von Uli Weber

Der Startbildschirm von MS EDGE poppte am 5. Juli 2024 mit einer interessanten Meldung von StarsInsider hoch, die dort bereits vom 31. Jan. 2024 datiert. In der MSN-Überschrift heißt es, „Wie 22 Atombomben: Der Asteroid, der auf der Erde einschlagen wird, heißt Bennu“:

Abbildung: Screenschot der MS EDGE-Meldung vom 5. Juli 2024

Nun stolpert der physikalisch vorbelastete Betrachter aber sofort über die dort angegebene Einschlagenergie von 22 Atombomben für einen extraterrestrischen Körper, der sich ja mit Geschwindigkeiten im Bereich von 10-er Kilometern pro Sekunde fortzubewegen pflegt. So soll beispielsweise vor 66 Millionen Jahren ein etwa 14 km großer Kumpel von Bennu die Dino-Familie ausgelöscht haben. Zwar hat Bennu nur einen mittleren Durchmesser von einem halben Kilometer, aber trotzdem erscheint eine niedrige 2-stellige Anzahl von Atombomben, die üblicherweise in Hiroshima-Stärke ausgedrückt werden, für den Einschlag eines extraterrestrischen Körpers auf der Erde extrem mickerig.

Also schaunmermalgenauerhin:

Die Energie der Hiroshima-Bombe wird mit 56 Terajoule angegeben, 22 davon haben dann also 1.232 Terrajoule.

Laut Wikipedia hat Bennu eine mittlere Geschwindigkeit V von 27,75 Kilometern pro Sekunde und ein Gewicht M von etwa 70 Millionen Tonnen.

Die Physik liefert die Formel für die Energie: E = (M/2) * und das Ergebnis lautet dann auf eine Energie von 27.000.000 Terrajoule.

Und 27.000.000 TJ geteilt durch 1.232 TJ ergibt dann mal eben das 21.916-fache der Energie von den 22 Atombomben in der Überschrift.

Im Ergebnis hatten sich die dort zitierten „F_orscher“ nur mal eben um einen Multiplikator von 22×103 verrechnet, denn Bennus Einschlagenergie entspricht vielmehr 22.000 x 22 Hiroshimabomben. Auf der anderen Seite spielen in unseren MINT-fernen postwissenschaftlich-hochemotionalen Zeiten drei Zehnerpotenzen auch nicht mehr die gleiche Rolle wie noch zu alten D-Mark-Zeiten. So wird heute beispielsweise ausgabentechnisch der Unterschied zwischen Millionen und Milliarden nur noch als marginal empfunden – jedenfalls solange es sich dabei „nur“ um unsere Steuergelder handelt. Nennen wir solche Steuerleute unter Beibehaltung der obigen Schreibweise also einfach mal „P_olitiker“, um auch diese Art von Potenzschwäche einmal klar und deutlich hervorzuheben…

Man könnte diesen Text jetzt mit ein paar lustigen Worten beenden, beispielsweise: Der berechnete Multiplikator von 22×103 gilt für 22 Atombomben von Hiroshimastärke, was am Ende bedeutet, dass wir bei Bennu mit einer Einschlagenergie von etwa 500.000 Hiroshima-Bomben zu rechnen haben – was immer sich die oben zitierten MINT-fernen „F_orscher“ auch zusammengerechnet haben mö­gen; vielleicht waren es ja 22 „F_orscher“ , dann bekommt immerhin jeder von denen seine eigene…

Allerdings haben dieselben „F_orscher“ dazu auch noch das genaue Einschlagdatum ermittelt, Zitat:

Die Wissenschaftler glauben jedoch, dass der 24. September 2182 das Datum sein könnte, an dem ein echtes Risiko einer Kollision zwischen der Erde und dem Asteroiden besteht.

Kann es vielleicht sein, dass die besagten Wissenschaftler Bennus mögliches Einschlagdatum richtig und seine Einschlagenergie falsch berechnet haben? – Wohl eher nicht!

Aber noch vor Bennus Einschlagdatum liegt ein epochaler zwangsgesteuerter Umbruch in der Menschheitsgeschichte, nämlich die Dekarbonisierung der ganzen Welt bis zum Jahre 2100. Erstmalig in der Geschichte der Menschheit wird der freie Wettbewerb der landwirtschaftlich-technischen und der zivilisatorisch-kulturellen Entwicklung vorsätzlich über menschengemachte Gesetze zurückentwickelt, im Grunde von zuverlässiger industrieller Bereitstellung einer pro Kopf Energiemenge vom 90-fachen des menschlichen Grundbedarfs, vergleichbar mit einem römischen Kaiser, hin zu einer volatilen Energieversorgung mit dem spätmittelalterlichen 30-fachen des menschlichen Grundbedarfs. Der Grund dafür ist die panische Angst vor einer Selbstverbrennung unserer Erde durch den industriellen CO2-Ausstoß bei der Nutzung fossiler Energiequellen. Und diesem hehren Ziel darf nach einer grenzdebilen Zieldefinition nichts, aber auch gar nichts entgegenstehen; denn heute ist man ja bereits im irrealen Endstadium des festen Glaubens, in landschaftlichen Schutzgebieten die Natur schützen und dort gleichzeitig klimafreundliche Energie aus Sonne und Wind erzeugen zu können. Es interessiert auch keinen Menschen mehr, dass alle Beweise für die sogenannte Klimakatastrophe menschengemacht sind. Nicht nur, dass man den Klimawahn von seinen physikalischen Grundlagen her auch ganz anders sehen kann, selbst die vorgeblichen Beweise halten einer wissenschaftlichen Überprüfung nicht stand. Und die vorgeblich beweis­trächtigen Temperaturreihen sind schlecht gemachte Manipulationen unzureichender Daten von Glaubenseiferern, denen längst abgebaute Temperaturstationen bis heute Temperaturwerte zuliefern, die dann in solche Berechnungen eingehen. Kluge Klimarealisten lehnen es daher grundsätzlich ab, überhaupt auf die sogenannte „globale Durchschnittstemperatur“ einzugehen. Das hilft nur leider gar nix, denn hunderte Millionen Menschen werden ständig mittels dieser herbeiphantasierten Kunstgröße in Angst und Schrecken versetzt, und deshalb muss deren Sinnfälligkeit nun einmal für alle nachvollziehbar in Frage gestellt werden.

Ein Exkurs zur „globalen Durchschnittstemperatur“:

Abbildung: Vergleich der globalen Temperaturstationen zum Ende des 19. Jahrhunderts und heute

Wenn wir einmal die beiden Abbildungen für die globalen Temperaturstationen „1861-1890“ und „2023“ vergleichen, so hat sich in den vergangenen 130 Jahren also nicht wirklich viel verändert. Wo im 19. Jahrhundert bereits kontinuierliche Temperaturaufzeichnungen durchgeführt worden waren, ist deren Dichte noch weiter angewachsen. In der restlichen Welt ist ein dünnes Stationsnetz entstanden und auf den Ozeanen schwimmen jetzt zusätzlich noch ein paar tausend Argo-Bojen herum, das war’s auch schon. Noch immer geht es nicht um den direkt berechneten Mittelwert aus Temperaturmessungen, die zur selben Weltzeit über Tag&Nacht, Sommer&Winter, Frühling&Herbst auf der Nord- und Südhalbkugel gemessen werden. Nein, es geht immer noch darum, mit statistischen Computerprogrammen aus einem sporadisch verteilten globalen Stationsnetz mit Riesenlücken ein globales Temperaturgrid zu interpolieren, wobei den individuellen geografischen Gegebenheiten der jeweiligen Ortslagen eine ganz wesentliche Rolle zukommen dürfte. Erst aus dieser Kunstfigur lässt sich dann wiederum die sogenannte Globaltemperatur herleiten. Gegenüber den eigentlichen Temperaturmessungen spielen also die eingesetzten statistischen Verfahren die entscheidende Rolle für diese Berechnung und man kann sich leicht vorstellen, dass der Wechsel von Gridgröße und statistischer Rechenmethode einen wesentlich größeren Einfluss auf die sogenannte „Globaltemperatur“ ausüben dürfte als ein kapitaler Vulkanausbruch.

Die eigentlichen Beweise für die befürchtete Klimakatastrophe werden also lediglich mit High-Tech-Computerspielen hergestellt, bei denen CO2 als fest vorgegebener „Klimakiller“ einprogrammiert ist. Solche High-Tech-Computer erfordern für ihren Betrieb wiederum eine zuverlässige Energieversorgung, wie wir sie im Moment ja meist noch haben, und auch alle arbeitsteiligen Prozesse unserer Hochtech­nologie hängen davon ab. Denn keine Einzelperson, kein Unternehmen und kein Firmenkonglomerat ist heute noch in der Lage, ohne die Zulieferung von Fremdunternehmen mit Rohstoffen definierter Reinheit und/oder Halbfertig- und Fertigprodukten von definierter Qualität noch irgendein Hochtechnologieprodukt allein aus eigener Kraft herzustellen. Erinnern Sie Sich vielleicht noch an die Corona-Lockdowns, in denen auch die nationalen und internationalen Lieferketten auseinander gerissen worden waren und wichtige Zulieferer einfach aufgehört hatten zu produzieren? Es heißt dem Hörensagen nach, führen­de Regierungspolitiker seien höchst pikiert darüber gewesen, dass Letztere nach den Lockdowns nicht einfach dort weiterproduziert hatten, wo sie noch vor Corona wirtschaftlich gestanden hatten – so kann’s den nassforschen Adepten der Klimareligion bei fehlender Wirtschaftskompetenz halt schon mal gehen.

Und das Ende der fossilen Energieerzeugung im Jahre 2100 bedeutet dann natürlich auch das Ende unserer High-Tech-Industrie.

Im Jahr 2100 ist dann also auch die Hochtechnologie der Industrienationen Geschichte, während der Asteroid Bennu unseren Nachkommen schon sehr viel näher auf die Pelle gerückt ist, denn es verbleiben dann nur noch 82 Jahre bis zum möglichen großen Knall – aber das nötige Geld für Gegenmaßnahmen ist ja dann zusammen mit der erforderlichen Hochtechnologie bereits für den Klimawahn verbrannt worden. Und was machen unsere Nachfahren im Jahr 2100? – Sie leben in einer spätmittelalterlich-ökologischen Zwei-Erden-Agrarlandschaft* mit volatiler Energieerzeugung, essen ihr Brot im Schweiße Ihres Angesichts und beten zur fröhlichen Mutter Gaia.

Ist da noch irgendwas zu retten? – Wohl eher nicht, denn dazu leben inzwischen viel zu viele Menschen und Organisationen von den Brosamen klimawahnbedingter Steuern in Saus und Braus. Und jede neue menschengemachte Katastrophe, sei es aus Dummheit, Ignoranz oder Absicht, bringt weitere Scharen von Flachmänner:innen gegen den Klimawandel in Lohn und Brot. Der Klimawahn ist viel zu weit fortgeschritten, viele zu viele Menschen verdienen damit heute ihren Lebensunterhalt, und Regier­ungen gründen darauf Macht und Einfluss. Man stelle sich nur einmal vor, man würde wegen Bennu weltweit plötz­lich hundert­tausende von Kernphysikern und Raketeningenieuren benötigen, was würde dann wohl mit den MINT-fernen Klima-Mietmäulern aus den brotlosen Geschwätzkünsten geschehen?

Kann also vor dem Hintergrund höchst pekuniärer CO2-Interessen von UN, EU, Regierungen, Klimareligion sowie deren NGO-Adep­ten und Mietmäulern irgendjemand ernsthaft die mainstream-mediale Schlagzeile erwarten: „Am 24. September 2182 könnte der Asteroid Bennu mit der Kraft von 500.000 Atombomben auf unserer Erde einschlagen“? – Nein, das geht doch nun wirklich nicht!

*) Zwei-Erden-Agrarlandschaft: Der Bioanbau von Lebensmitteln führt zu deutlich verringerten Flächenerträgen, sodass die aktuelle Weltbevölkerung die Anbaufläche von zwei Erden für eine bioalimentierte Ernährung benötigen würde. Wenn wir jetzt einmal die weltweite Anbaufläche für Nahrungsmittel und die gegenwärtige Weltbevölkerung auf eine einzige Erde herunterrechnen, erhalten wir einen sehr nachhaltigen Einblick in die unterlegte hinterhältig-elitäre Zielsetzung…

 




Der Elefant im Raum

Von Dr. Klaus-Dieter Humpich

Wenn unsere Regierung von der „Energiewende“ spricht, erzählt sie gern von ihren „Erfolgen“ bei der Installation von Windmühlen und Sonnenkollektoren. Inzwischen sollen über 40% der elektrischen Energie damit erzeugt werden. Das ist schon mal die halbe Lüge: Erzeugung ist nicht zu verwechseln mit der notwendigen Produktion für den jeweiligen Verbrauch. Während jeder Dunkelflaute muß der Strom durch konventionelle Kraftwerke bzw. Import bereitgestellt werden (Verbrauch). Weht der Wind bzw. scheint die Sonne in verbrauchsschwachen Zeiten, muß der „Erneuerbare Strom“ teuer entsorgt werden (negative Strompreise bei Überproduktion). Die Physik läßt sich nicht überlisten. In jedem Augenblick müssen sich Verbrauch und Erzeugung genau die Waage halten.

Vollends sinnlos wird die Investition von über 500 Milliarden Euro (500000000000€) für die „Energiewende“ aber, wenn man den Endenergieverbrauch in Deutschland betrachtet: 50,4% Wärme und Kälte, 25,4% Verkehr (ohne Strom und int. Luftverkehr) und lediglich 24% Stromverbrauch im Jahr 2022. Der Elefant im Raum – über den kein „Grüner“ gern reden mag – ist der Wärmeverbrauch. Davon spielt sich der größte Teil wiederum als sog. Niedertemperaturwärme für die Gebäudeheizung und Warmwasser ab (über 3400 Petajoule jährlich). Das ist rund das Fünffache der gesamten derzeitigen Wind- und Sonnenproduktion. Wie soll das gehen? Da helfen auch keine elektrischen Wärmepumpen. Die Heizung läuft nur im Winterhalbjahr, wo kaum die Sonne scheint und aller Strom vorher (Langzeitspeicherung) durch die Windmühlen produziert werden müßte. Selbst, wenn das technisch möglich wäre, wäre es wirtschaftlicher Irrsinn.

Der finnische Ansatz

In Finnland dauert der Winter noch länger und ist meist auch kälter als in Deutschland. Will man fossile Energieträger verbannen – warum auch immer – muß man sich auf die Gebäudeheizung konzentrieren. Für die Art der Wärmeversorgung ist die Bebauungsdichte pro Grundstücksfläche das entscheidende Kriterium: Gibt es viele m2 Wohnfläche pro km2 Siedlungsfläche, bietet sich Fernwärme an. Schon frühzeitig erkannte man den Nachteil von Einzelfeuerstätten (Luftverschmutzung). In Finnland gibt es 160 lokale Netze.

Fernwärmenetze erfordern hohe Investitionen. Die Rohrleitungen müssen isoliert werden und (zumeist) in der Erde verlegt werden, wo sie mit anderen Medien (Strom, Internet, Wasser, Abwasser etc.) um den knappen Raum konkurrieren. Damit sind wir bei dem Thema Betriebstemperatur. International hat sich eine Vorlauftemperatur zwischen 120°C bis 150°C etabliert. Physikalisch hängt die transportierte Wärmeleistung von der Temperaturdifferenz zwischen Vor- und Rücklauf ab. Je größer die Temperaturdifferenz, desto kleiner die Rohrdurchmesser, die Wärmeübertrager und Pumpen und damit die notwendigen Investitionen. Es gibt aber noch eine hygienische Mindesttemperatur von 60°C (Legionellen usw.) bei der Brauchwassererwärmung. Will man auch noch Klimaanlagen bzw. Absorptionskälteanlagen (Sommerbetrieb) versorgen, liegt die Mindesttemperatur bei 120°C. Schon diese beiden Temperaturen entlarven den Sachverstand unserer derzeitigen Regierung: Die Einspeisung von Abwärme – wenn möglich – ist durchaus sinnvoll, wenn sie genug Temperatur hat. Unsere Bürokraten wollen aber nun die Grenze bei 20°C installieren. Wärme mit 20°C ist faktisch Abfall.

Wie nun die Wärme bereitgestellt wird, ist eine wirtschaftliche Frage – neuerdings aber auch ein Glaubensbekenntnis. Klassisch sind fossil befeuerte Kessel. Möglich – wenngleich fragwürdig – sind Wärmepumpen. Die Leistungszahl (Verhältnis von gewonnener Wärme zur eingesetzten Arbeit) ist abhängig von der Temperatur der Wärmequelle und der Temperatur im Netz. Man benötigt daher eine Quelle mit möglichst hoher Temperatur und großem Volumen (z. B. einen See) in der Nähe. Ein immer wieder auftauchender Klassiker – oder sollte man besser sagen Blödsinn – ist die Nutzung der Kanalisation. Kühlt man die Abwässer ab, geht der ohnehin geringere Wirkungsgrad der Kläranlagen im Winter drastisch runter. Bakterien mögen es halt warm. Schon im 19. Jahrhundert hat man Dampf aus Kraftwerken ausgekoppelt. Allerdings büßt man dadurch Stromproduktion ein. Im 20. Jahrhundert kamen die Blockheizkraftwerke hinzu. Wirtschaftlich fragwürdig, da man den zwangsweise produzierten Strom günstig verkaufen muß und andererseits im Sommer kaum Wärme benötigt. Solche Anlagen werden in der Branche gern als „rotierende Öfen“ bezeichnet, vergleicht man die Investitionen mit einfachen Gaskesseln. Wirtschaftlich sind BHKW nur in speziellen Anwendungsfällen. Es verwundert daher nicht, wenn getrennte Kesselanlagen für die Wärme und Kraftwerke zur reinen Stromgewinnung dominieren.

LDR-50 Fernwärme- Kleinreaktor

Der Reaktor ist eine Entwicklung des VTT Technical Research Centre of Finland. Inzwischen ist daraus das Startup Steady Energy hervorgegangen. Der Reaktor soll eine maximale Heizleistung von 50 MWth haben. Das reicht für die Versorgung einer Kleinstadt aus. Der Reaktor soll eine Betriebstemperatur von etwa 150°C haben und bei einem Druck von nur 10 bar betrieben werden. Daraus ergibt sich ein enormer Kostenvorteil gegenüber einem konventionellen Druckwasserreaktor (176 bar, 362 °C). Die erforderliche Wandstärke des Druckbehälters kann nur wenige Zentimeter betragen. Der Reaktor funktioniert im Naturumlauf: Das heiße Wasser steigt aus dem Reaktorkern nach oben, kühlt sich an den Wärmeübertragern ab und strömt infolge seiner höheren Dichte wieder unten in den Kern ein. Es werden deshalb keine Kühlmittelpumpen benötigt. Was man nicht hat, kann auch nicht kaputt gehen.

Zwischen dem Reaktor (Primärkreislauf) und dem Fernwärmenetz (Tertiärkreislauf) befindet sich ein Sekundärkreislauf. Das Verschleppen jedweder Radioaktivität in das Fernwärmenetz ist damit ausgeschlossen. Dies läßt sich sehr einfach und sicher überwachen. Hinzu kommt, (große) Fernwärmenetze werden mit Drücken zwischen 16 und 25 bar betrieben. Es läßt sich daher einfach ein Druckgefälle in Richtung Reaktor aufbauen: Bei einer Leckage würde Wasser vom Netz in Richtung Reaktor strömen und nicht umgekehrt.

Eine aktive Notkühlung gibt es auch nicht. Der Reaktordruckbehälter ist von einem Sicherheitsbehälter umgeben. Der Zwischenraum ist teilweise mit Wasser gefüllt. Kann der Reaktor – aus welchen Gründen auch immer – seine Wärme nicht mehr los werden, fängt dieses Wasser irgendwann an zu verdampfen (Dampfdruck bei 150°C beträgt 4,8 bar). Dieser Wasserdampf kann in einem Kühlwasserbecken niedergeschlagen werden und strömt dann wieder zurück. Dieses Konzept hat sich bei zahlreichen Reaktoren bereits bewährt.

Der skandinavische Pragmatismus

Der LDR-50 befindet sich seit 2020 beim VTT Technical Research Centre of Finland in der Entwicklung. Von Anfang an hat man die technische und politischen Rahmenbedingungen im Auge behalten. Im Februar 2024 konnte der entscheidende politische Durchbruch erzielt werden: Die finnische Behörde für Strahlung und nukleare Sicherheit hob die entfernungsbasierten Sicherheitszonen für neue Kernkraftwerke auf. Diese Änderung ermöglicht es, Kleinreaktoren in der Nähe von Wohngebieten zu bauen und betreiben. Im Mai-Juni führte das Forschungsunternehmen Aula Research per E-Mail und Telefoninterview eine Umfrage bei insgesamt 184 kommunalen Entscheidungsträgern durch. Die Zustimmung für einen Reaktor ergab in Tampere (94%), Espoo (93%), Lahti (94%), Turku (91%) und Helsinki (89%). Wichtiger noch als die Zustimmung, ist dabei die frühzeitige Einbeziehung und Diskussion in den Gemeinden – nicht gegen, sondern mit und für die Bevölkerung.

2025 beginnt der Bau einer Pilotanlage. Dabei handelt es sich um einen vollständigen Reaktor mit elektrischen Heizstäben anstelle von einem nuklearen Kern. Man gewinnt so Zeit für das notwendige Genehmigungsverfahren. Man schiebt nicht nur einfach Papier hin und her, sondern kann alle Komponenten bereits unter realen Betriebsbedingungen testen und betreiben. Dies ist auch für den Aufbau kompletter Lieferketten nötig. Später soll diese Anlage dann für Schulungs- und Ausbildungszwecke dienen. 2028 will man dann mit dem Bau des ersten Reaktors beginnen (alle nötigen Genehmigungen vorausgesetzt), der 2030 seinen Betrieb aufnehmen soll. Bisher gibt es Vorverträge für 15 Heizreaktoren (5 mit Kuopion Energia in Ostfinnland und 10 mit Helen) in Finnland. Inzwischen ist auch die schwedische Kärnfull Next eine Partnerschaft mit den Finnen eingegangen. Laut den Partnern beträgt Schwedens Fernwärmeverbrauch insgesamt etwa 50 TWh pro Jahr, von denen zwei Drittel aus Biomasse stammen. Die Brennstoffkosten sind in den letzten Jahren stark gestiegen. Im Allgemeinen wird die Zukunft der Biomasse in der Fernwärme diskutiert, nicht zuletzt, da sie wertvollere alternative Verwendungen hat. Darüber hinaus führt die Verbrennung von Biomasse zu Emissionen und erheblicher Verkehrsbelastung. „Die Heizung einer großen Stadt mit Biomasse erfordert jeden Tag einen Haufen Baumstämme von der Größe eines Fußballfeldes, mit einem konstanten Strom von Lastwagen rund um die Uhr“, sagte Tommy Nyman, CEO von Steady Energy. „Es ist höchste Zeit, daß unsere Gesellschaften das Verbrennen von Holz einschränkt um damit unsere Häuser zu heizen.“ Ob das wohl unser Habeck gehört hat?

Die Lage in Europa

In Europa gibt es ungefähr 3500 Fernwärmenetze, die 60 Millionen Menschen versorgen. Die finnische Idee könnte deshalb schnell zu einem Exportschlager werden. Für die ersten 15 Reaktoren (Vorverträge) geht man von Investitionen deutlich unter 70 Millionen EUR pro Stück aus. Die Auslegungslebensdauer beträgt 60 Jahre – die tatsächliche noch viel länger. Nicht nur, weil die Belastung durch Druck und Temperatur sehr viel geringer als in einem konventionellen Kernkraftwerk sind. Auch die Brennstoffkosten sind geringer. Technisch gesehen, kann es sich um konventionelle Brennelemente handeln. Es wird aber nur schwach angereichertes Uran (geplant 2%, vielleicht sogar abgenutzter Brennstoff aus KKW?) benötigt, was die ohnehin geringen Brennstoffkosten noch einmal mildert.

Ein weiterer Punkt ist die hohe Energiedichte des Uran. Man kann mehrere Jahre einen solchen Reaktor betreiben, ohne frischen Brennstoff zu benötigen. Dies sorgt auch für langfristig kalkulierbare Heizkosten ohne Angst vor Ölpreis- und Gaspreisschwankungen. In Finnland kommt noch die Erfahrung mit dem Krieg in der Ukraine hinzu. Da solche Reaktoren sehr klein sind, ist es kein Problem sie unterirdisch in Felskavernen zu installieren.

Der Elefant im Raum

 




Energiewende bis zum bitteren Ende

Die Ampelparteien haben sich auf einen Haushaltsentwurf für 2025 mit vielen Kürzungen geeinigt. Nur der Aufwand für die kostentreibende Energiewende im Namen der „Weltklimarettung“ wurde fortgeschrieben. Deindustrialisierung und Wohlstandsverluste gehen weiter.

Von Prof. Dr. Ing. Hans-Günter Appel Pressesprecher NAEB e.V. Stromverbraucherschutz

Fast alle Medien berichten über Streit in der Ampelregierung zum Haushaltsentwurf für 2025.  Viele Ministerien sollen mit weniger Geld auskommen, als sie geplant hatten. Selbst im Bundeswehretat wurde trotz der zunehmenden Kriegsgefahr gestrichen. Doch an der Geldverschwendung zur Durchsetzung der Energiewende wurde festgehalten. Laut Bundeskanzler Scholz sollen weiterhin mehr als 100 Milliarden Euro jährlich für die Stützung und den Neubau von Fakepower-Anlagen (Wind- und Solarstromanlagen) aufgewendet werden, die immer öfter überschüssigen Phantomstrom erzeugen, den Niemand braucht und der kostenpflichtig entsorgt werden muss. Im ersten Halbjahr dieses Jahres wurden bereits 267 Stunden mit negativen Börsenpreisen registriert. Fast so viel wie im ganzen letzten Jahr.

 

Gemeinden werden bestochen 

Neben den bekannten Kosten der Energiewende (Einspeisevergütungen nach dem EEG, CO2-Emissionskosten, Ausbau der Stromnetze und Ladestationen für E-Autos, Umlagen für abschaltbare Lasten und Kraft-Wärme-Kopplung, Beihilfen für Wärmepumpen, Anschieben der Wasserstoffwirtschaft sowie Zuschüsse für Pilotanlagen) werden die Gemeinden weiterhin bestochen, damit sie Fakepower-Anlagen genehmigen.  Von jeder auf ihrem Gebiet erzeugten Kilowattstunde erhalten sie 0,2 Cent. Als Begründung wird angegeben, die Gemeinden sollen an der „Wertschöpfung“ teilhaben. Doch diese Anlagen sind keine Wertschöpfungen, sondern ein Versenken von Steuergeldern. Und die 0,2 Cent Gemeindeanteil sind bei genauen Hinsehen Steuern, die über die Fakepower-Betreiber eingezogen werden.

 

Volksvermögen wird vernichtet

Das Abschalten intakter Kern- und Kohlekraftwerke ist ein großer Verlust an Volksvermögen. Es werden damit nicht nur große Werte vernichtet, sondern es wird auch die Stromversorgung geschwächt und wesentlich verteuert. Ein deutliches Beispiel ist das Heizkraftwerk Moorburg in Hamburg. Mit einem hohen Wirkungsgrad und Nutzung der Abwärme zum Beheizen großer Bereiche von Hamburg lag es weltweit mit an der Spitze derjenigen Kraftwerke, die den Brennstoff optimal nutzten. Doch gearbeitet hat es nur wenige Jahre und wurde gegen hohe Entschädigungen aufgegeben.

Eine sachlich arbeitende Bundesregierung müsste, zumal bei der derzeitigen Weltlage, eine sichere und unabhängige Energieversorgung fördern. Sichere und ausreichende Energie ist die Basis für die Wirtschaft und die Verteidigung unseres Landes. Nach mehr als 20 Jahren teurer Großversuche – es wurden über 500 Milliarden Euro aufgewendet oder besser: verschwendet – müsste es auch verblendeten Ideologen dämmern, dass eine Energieversorgung mit Fakepower eine Utopie ist.

 

Sichere Energieversorgung durch heimische Energieträger

Sicher ist nur eine Versorgung mit heimischen Energieträgern. Da die Kernkraftwerke abgeschaltet sind, bleiben nur noch Kohle, Erdöl und Erdgas. Energie aus Wasserkraft und Biomasse kann nur einen geringen Anteil des Bedarfs decken. Braunkohle ist am preiswertesten und reichlich vorhanden. Erdgas und Erdöl gibt es noch für Jahrzehnte in den Schiefergesteinen vorwiegend in Norddeutschland. Diese Energieträger sollten genutzt werden. Fracking zur Förderung ist bekannt. Deutsches Erdöl und Erdgas wäre in wenigen Jahren verfügbar. Die Verstromung von Braunkohle sollte ausgebaut werden, statt Braunkohlenkraftwerke zu schließen. Gleiches gilt für die Steinkohlenkraftwerke, die mit Importkohle betrieben werden. Gas und Öl sollten weitgehend zum Heizen und für die chemische Industrie genutzt werden. Nur so können wir die Anforderungen der Zukunft meistern.

 

Energiewende zerstört die Volkswirtschaft

Würde die Energiewende beendet, deren Sinnlosigkeit immer deutlicher wird, wären die staatlichen Finanzen auf einen Schlag im Gleichgewicht, und der Strompreis würde halbiert und stabilisiert. Doch die CDU als größte Oppositionspartei fordert kein Ende der Energiewende. Im Gegenteil. In ihrem Parteiprogramm ist die Fortsetzung der Energiewende festgeschrieben. Dies ist kein Zufall. Ihr Vorsitzender, Friedrich Merz, war als Vorsitzender der Vermögensverwaltung BlackRock-Deutschland Profiteur der Energiewende und dürfte dies bis heute weiterhin sein. Mit einer CDU-Regierung würde die teure und unsinnige Energiewende, die Industrie vertreibt und Wohlstand abwürgt, weitergehen.

 

 




Die potenten Geldgeber der Klimalobby

Weitherum herrscht die Vorstellung, dunkle Mächte würden enorme Summe aufbringen, um sogenannten Klimaschutz zu verhindern. Wahr ist jedoch das Gegenteil: Die Klimaschützer verfügen über weit mehr finanzielle Mittel als die fossile Branche, um ihre Interessen durchzusetzen.

Von Peter Panther

Verborgene Kräfte, die «Klimaleugner» unterstützen und finanzieren: Dieses Bild ist in der Öffentlichkeit weit verbreitet. Insbesondere herrscht die Vorstellung, dass «Big Oil» zusammen mit amerikanischen Milliardären dank ihrem Einfluss seit Jahrzehnten effektiven Klimaschutz verhinderten.

Befeuert werden solche Verschwörungstheorien durch zahlreiche Publikationen. Der eigentliche Klassiker dazu ist das Buch «Merchants of Doubt» («Händler des Zweifels») von 2010. Die amerikanischen Wissenschaftshistoriker Naomi Oreskes und Erik M. Conwy machten darin Glauben, dass ein dunkles Netzwerk an Geldgebern, Thinktanks und willfährigen Wissenschaftlern die Botschaft des menschengemachten Klimawandels seit Jahren hintertreibe.

Tatsächlich mag es stimmen, dass insbesondere die fossile Branche eine Zeit lang etliche finanzielle Mittel aufgewendet hat, um ihren Einfluss gegen eine ausufernde Klimapolitik geltend zu machen. Nur liegen diese Zeiten mutmasslich längst zurück. Dennoch wird die Vorstellung der finanziell potenten Hintermänner, welche die Rettung der Welt verhindern wollen, weiter kräftig am Leben erhalten.

«Männer, die die Welt verbrennen»

Ein Beispiel ist das Buch «Männer, die die Welt verbrennen», das vor einigen Monaten erschienen ist. Der deutsche Klimajournalist Christian Stöcker schreibt darin, es gebe «ein Netzwerk aus real existierenden Verschwörungen, die durch gemeinsame Interessen und Ziele verbunden sind». Diese Interessen und Ziele stünden im Widerspruch zum Fortbestand der menschlichen Zivilisation. «Es geht darum, für möglichst lange Zeit möglichst viel Geld damit zu verdienen, fossile Brennstoffe aus der Erde zu extrahieren und zu verkaufen, um so noch reicher und mächtiger zu werden.»

Entschieden anderer Meinung ist Axel Bojanowski, Chefreporter Wissenschaft bei der «Welt» und selbst ehemaliger Klimaforscher. Er ist wohl der einzige kritische Klimajournalist in ganz Deutschland und hat seine Befunde vor einigen Wochen im Buch «Was Sie schon immer übers Klima wissen wollten, aber bisher nicht zu fragen wagten» dargelegt (Buchbesprechung siehe hier: https://eike-klima-energie.eu/2024/07/09/eine-buchbesprechung-von-axel-bojanowski-was-sie-schon-immer-uebers-klima-wissen-wollten-aber-bisher-nicht-zu-fragen-wagten/)

Bojanowski kommt zum Schluss, dass der öffentliche Diskurs von einer «Klimalobby» geprägt werde, einem Netzwerk aus Organisationen, Forschungsinstituten, Milliardären und Journalisten, das den Ausstoss von Klimagasen bekämpfe. Diese Klimalobby habe «quasi ein freies Spiel», sagte er in einem Interview. «Es stellt sich ihr kaum jemand entgegen.» Auf die Bemerkung des Interviewers, man höre aber immer, dass die Ölkonzerne einen so grossen Einfluss hätten, meinte der «Welt»-Journalist: «Die finanziellen Mittel der Klimalobbby sind mittlerweile deutlich grösser als die der fossilen Lobby. Das lässt sich belegen.»

Ölmillionen für Klimaaktivisten

Belegen lässt sich etwa das Sponsoring von Gruppierungen wie «Extinction Rebellion» oder «Just Stop Oil». Für diese Klimaaktivisten, die damit auffallen, sich auf Strassen zu kleben und Gemälde zu verunstalten, kommen potente Geldgeber aus den USA auf. Namentlich der amerikanische Climate Emergency Fund hat Millionenbeträge aufgeworfen, um die teils illegalen Aktionen der Klimaaktivisten zu ermöglichen – auch in Europa.

Zu den Financiers der Aktivisten gehören ironischerweise auch Personen, deren Millionen- oder gar Milliardenvermögen aus dem Ölgeschäft stammt. Dazu zählen etwa Aileen Getty, die Enkelin des Erdöl-Tycoons Jean Paul Getty, der einst als reichster Mann der Welt galt, oder Rebecca Rockefeller Lambert und Peter Gill Case als Vertreter der Rockefeller-Familie, die ebenfalls mit Erdöl reich geworden ist.

Diese direkte Finanzierung von Klimaaktivisten durch reiche Amerikaner dürfte sich inzwischen auf einige Dutzend Millionen Dollar summiert haben. Das sind aber alles kleine Beträge im Vergleich zu weiteren Geldflüssen von reichen Leuten an die Klimalobby.

Warren Buffet, Bill Gates, George Soros

So haben amerikanische Stiftungen bereits 2008 die Organisation ClimateWorks mit 1,1, Milliarden Dollar ausgestattet – mit dem Ziel, «die Philanthropie zur Lösung der Klimakrise zu mobilisieren». Hinter der Gründung von ClimateWorks standen Leute wie Michael Bloomberg, Warren Buffet, Bill Gates, David Rockefeller Junior und George Soros. Es kamen später weitere Stiftungen für mehr Klimaschutz dazu – wie etwa 2021 die Climate Imperative Foundation mit einem Jahresbudget von fast 200 Millionen Franken, gegründet vom Lobbyisten Hal Harvey.

Gemäss Schätzungen der konservativen Organisation Capital Research Center sollen Grossstiftungen allein 2019 gut 2,4 Milliarden Dollar für Klimaschutz ausgegeben haben – was das Budget der fossilen Industrie für Lobbying um ein Mehrfaches in den Schatten stellt.

Laut dem US-Kommunikationswissenschaftler Matthew Nisbet haben die 19 grössten amerikanischen Umweltorganisationen zwischen 2011 und 2015 stattliche 556 Millionen Dollar für die Interessenvertretung von Klimawandelthemen bereitgestellt. Ein Viertel der Mittel soll dabei an Medien gegangen sein, zur Beeinflussung von Journalisten. Und laut dem britischen «Guardian» hat allein der US-Politiker Michael Bloomberg über seine Stiftungen von 2011 bis 2018 rund 164 Millionen Dollar in die Lobbyarbeit gegen Kohle investiert.

Der Klimanotstand als «perfekte Gelegenheit»

An einer Tagung namens «Climate Action Summit» stellten vor sechs Jahren 29 Stiftungen insgesamt vier Milliarden US-Dollar in Aussicht, um für den Übergang zu erneuerbaren Energien zu lobbyieren. Bereits 2014 war dank eines Berichts der US-Regierung publik geworden, dass neben ClimateWorks zehn weitere Grosssponsoren zugunsten von Klima und Umwelt ein Vermögen von 23,2 Milliarden Dollar gemeldet hatten. Von 2010 bis 2013 hatten sie damit 23 Kampagnen mit insgesamt 202 Millionen Dollar gefördert.

Gemäss Matthew Nisbet ist der sogenannte Klimanotstand für Milliardäre «die perfekte Gelegenheit, noch grösseren Einfluss auf das Weltgeschehen geltend zu machen, da sie die Zivilgesellschaft mit Milliarden an Philanthropie überschütten und ihre Geschäfte und Investitionen vor kritischer Prüfung schützen zu können».

Die Mär, wonach die Klimapolitik durch dunkle fossile Mächte gesteuert werde, wird zwar kaum so schnell verschwinden. Es gibt aber doch einige Argumente, wie man ihr entgegnen kann.

 




„Klimaforschung“ aus Sicht eines naturwissenschaftlich ausgebildeten Quereinsteigers Teil 2: Die Erde ist kein schwarzer Körper. Die Erde ist ein blauer Planet!

Die „wissenschaftlichen“ Methoden der Klimawissenschaft kommen mir und vielen anderen Klima-Realisten vor, wie wenn Klima-Alarmisten mit verbundenen Augen in einem stockdunklen Raum eine schwarze Katze jagen, die gar nicht da ist, und dabei rufen; “Jetzt hab‘ ich sie!“

Prof. Dr. Klaus-D. Döhler

Der atmosphärische Treibhauseffekt, eine Idee, die viele Autoren auf die traditionellen Arbeiten von Fourier (1824), Tyndall (1861) und Arrhenius (1896) zurückführen und die in der globalen Klimatologie immer noch vertreten wird, beschreibt im Wesentlichen einen fiktiven Mechanismus, bei dem eine Planetenatmosphäre als Wärmepumpe fungiert, die von einer Umgebung angetrieben wird, die mit dem atmosphärischen System in Strahlungswechselwirkung steht, aber mit ihm im Strahlungsgleichgewicht ist. Nach dem zweiten Hauptsatz der Thermodynamik kann eine solche planetarische Maschine niemals existieren. Dennoch wird in fast allen Texten der globalen Klimatologie und in einer weit verbreiteten Sekundärliteratur davon ausgegangen, dass ein solcher Mechanismus real ist und auf einer soliden wissenschaftlichen Grundlage steht.

Bitte nehmen Sie es mir nicht übel, wenn ich in diesem Artikel wiederum so frei heraus meine Meinung sage wie im Teil 1 „Wissenschaft oder doch eher Hokus-Pokus?“ (1). Von einem Wissenschaftler sollte man auch nichts anderes erwarten. Ich wundere mich immer wieder, wie abstrakt und realitätsfern in der Klimawissenschaft Themen behandelt werden, die die Bevölkerung sechs Billionen (= sechstausend Milliarden) Euro kosten sollen. Das ist so, als wenn der gesamte deutsche Bundeshaushalt 12 Jahre lang für nichts anderes verwendet würde als für den Klimawandel. Ebenso unplausibel, widersprüchlich, realitätsfremd und Verwirrung-stiftend sind die zur Erklärung des „Treibhauseffektes“ verwendeten und nicht gerade übersichtlichen mathematischen Formeln. Für mich ist das ein Zeichen, dass diejenigen, die mit solchen Methoden arbeiten, entweder selbst nicht verstanden haben, um was es eigentlich geht, oder aber mit voller Absicht Verwirrung stiften wollen. Bislang konnte mir noch niemand den angeblich durch menschengemachtes Kohlendioxid (CO2) induzierten Treibhauseffekt so erklären, dass es logisch schlüssig und plausibel „rüberkam“. Bereits Albert Einstein sagte: „Man muss ein Thema selber gut verstanden haben, um es anschließend auch gut erklären zu können und wenn du es einem Sechsjährigen nicht erklären kannst, dann hast du es selber nicht verstanden“.

Nicht nur ich sondern auch andere Klimarealisten sehen mit Verwunderung wie Treibhaus-Hypothetiker die Temperatur von einem Himmelskörper berechnen, den es gar nicht gibt. Eine Erde ohne Atmosphäre, ohne Ozeane und Flüsse, ohne Berge und Täler, ohne Städte und Straßen, ohne Pflanzen, Tiere und Menschen. Wie kann man etwas berechnen das es gar nicht gibt? Selbst in der Mathematik macht es wenig Sinn, mit etwas zu rechnen, das es nicht gibt, wie z.B. mit der „Null“.

Um die „Temperaturstrahlung“ der Erde als „idealer schwarzer Körper“ gemäß Stefan-Boltzmann Gesetz berechnen zu können, muss man nach Max Planck gedanklich die Erde zu einem „winzigen Kohlestäubchen“ in einem abgeschlossenen Hohlraum miniaturisieren. Die Erde wird damit wieder zum Mittelpunkt des Sonnensystems und die Sonne selbst zu einer, den Hohlraum gleichmäßig von allen Seiten erwärmenden Heizspirale. Irgendwie erinnert mich dieses „Weltbild“ an Vorstellungen aus dem Mittelalter.

Um einen “Treibhauseffekt“ berechnen zu können, griff der schwedische Forscher Svante Arrhenius in die irrationale Trickkiste, zwängte gedanklich das stets offene Ökosystem Erde in einen perfekt isolierten und abgeschlossenen Hohlraum hinein und deklarierte die Erde als „schwarzen Körper“. Er berechnete die Temperatur dieser (wohlgemerkt „nicht existierenden“) atmosphären-freien Erde mit Hilfe des Stefan-Boltzmann-Gesetzes. Dieses dient dazu, die Leistung, die ein schwarzer Körper (ein idealisierter physikalischer Körper, der alle einfallende Strahlung absorbiert) pro Flächeneinheit abstrahlt, in Abhängigkeit von seiner Temperatur zu beschreiben. Genauer gesagt, besagt das Gesetz, dass die gesamte emittierte Strahlungsleistung (P) eines schwarzen Körpers proportional zur vierten Potenz seiner absoluten Temperatur (T) ist.

Mathematisch ausgedrückt lautet das Stefan-Boltzmann-Gesetz:

P = sigma x T4

Dabei ist:

P = die Strahlungsleistung pro Flächeneinheit (Watt pro Quadratmeter, W/m²),

sigma = die Stefan-Boltzmann-Konstante, mit einem Wert von etwa 5,67 x 10-8 W/m2 K-4

T = die absolute Temperatur des „schwarzen Körpers“ in Kelvin (K).

Mit Hilfe dieses Gesetzes berechnete Arrhenius die globale Durchschnittstemperatur dieses nicht existierenden „schwarzen Körpers“ mit 255°K = -18°C, und schloss daraus, dass die Erde ohne Atmosphäre eine globale Durchschnittstemperatur von -18°C haben müsse. Dabei vergaß er zu erwähnen, was er eigentlich unter „globaler Durchschnittstemperatur“ versteht. Frank Henning brachte es in einem EIKE-Kommentar auf den richtigen Nenner: „Die Benennung einer globalen Durchschnittstemperatur macht wenig Sinn, ähnlich einer durchschnittlichen Telefonnummer“.

Der Erde wie wir sie kennen gab Arrhenius eine „globale Durchschnittstemperatur“ von +15°C. Die Differenz zwischen minus 18°C und plus 15°C (= 33°C) deklarierte er als „Treibhauseffekt“. Ich frage mich, warum „Treibhauseffekt“? Dieser Effekt hat mit einem Treibhaus überhaupt nichts zu tun! Warum nannte Arrhenius diesen Effekt nicht sinnvollerweise „Atmosphäreneffekt“? Dann wäre uns heute viel dummes Geschwätz und noch mehr zum offenen Fenster hinausgeworfenes Steuergeld erspart geblieben.

Um zu erklären, wie dieser „Treibhauseffekt“ entsteht, nahm Arrhenius das gesamte CO2 der Luft von (damals) 0,03 Volumenprozent, komprimierte dieses zu einer, die Erde umhüllenden Schicht und hängte diese in einer Höhe von 380 mm Quecksilbersäule auf, was etwa einer Höhe von 6.000 Metern entspricht (siehe Abbildung 1). Dann erklärte er den Luftraum dazwischen als homogen, isotrop, Wasserdampf-frei, unbeweglich und durchlässig für Wärmestrahlen, ohne selbst nennenswert erwärmt zu werden (diatherman).

Abbildung 1 aus: Wolfgang Thüne: „Der Treibhausschwindel“ (2). Nach Svante Arrhenius soll sich eine CO2-Schicht in etwa 6.000 Metern Höhe befinden, die von der Erdoberfläche ausgehende Infrarot-Strahlung reflektiert.

Wie es zu Wetter und Leben in einer Wasserdampf-freien und unbeweglichen Atmosphäre kommen soll, darüber schwieg sich Arrhenius aus. Max Planck entgegnete jedoch: „Nur das Vakuum ist diatherman, sonst nichts“.

Weshalb sah Arrhenius diese CO2-Schicht ausgerechnet in 6.000 Meter Höhe, wo doch bereits jedes Kind weiß – vermutlich mit Ausnahme der „Freitags-zurück-zum-Mittelalter“ Schule Schwänzenden – dass CO2 schwerer ist als Luft und sich deshalb in der Atmosphäre eher am Boden absetzen müsste als in 6.000 Meter Höhe? Die Tatsache, dass CO2 schwerer ist als Luft, ist bereits seit dem 18. Jahrhundert bekannt. Joseph Black (1728-1799) identifizierte CO2 als ein eigenständiges Gas und stellte fest, dass dieses Gas schwerer als normale Luft ist. Svante Arrhenius (1859 – 1927) hätte dies wissen müssen.

Nun, die Berechnung der Temperatur einer Erde als schwarzer Strahler bezieht sich auf den Außenrand der Atmosphäre in etwa 100 Km Höhe über dem Erdboden. Dort empfängt die Erde auf einem Flächenquerschnitt senkrecht zur Strahlrichtung der Sonne eine Strahlung der Flussdichte (Energie pro Zeit und Flächeneinheit) von 1373 Watt pro Quadratmeter. Die berechneten -18°C beziehen sich somit auf den Außenrand der Atmosphäre, also auf eine Höhe von etwa 100 Km. Selbstverständlich passen die berechneten -18°C nicht zu einer CO2-Reflexionsschicht in einer Höhe von 100 Km, wenn man berücksichtigt, dass die Temperatur der Atmosphäre mit 5,7°C pro Höhenkilometer abnimmt.

Deshalb nahm man folgende Rechnung vor: 33°C : 5,7°C = 5,8 km und man hängte die angebliche CO2 Reflexionsschicht in knapp 6 Km Höhe. Das bedeutet aber auch, dass es sich beim angeblichen Treibhauseffekt nicht um die Temperaturdifferenz zwischen einer fiktiven Erde ohne Atmosphäre und der Erde wie sie tatsächlich besteht handeln kann (horizontale Differenz), sondern um eine vertikale Differenz zwischen der Erdoberfläche und der Atmosphäre in 6 Km Höhe. Weiterhin bedeutet dies, dass die Temperaturdifferenz nichts mit einem „Treibhauseffekt“ zu tun hat, sondern es ist ein weiteres Indiz dafür, dass Wärme von der Erde wegfließt, die Erde also kälter werden muss, nicht wärmer.

Die Erde ist kein schwarzer Körper. Die Erde ist ein blauer Planet. Sie strahlt zwar auch etwas Wärme aus, aber was man von ihr zu sehen bekommt, ist fast ausschließlich teilreflektiertes Sonnenlicht. Die Erde ist ein stets offenes Ökosystem, das nicht in einen geschlossenen Hohlraum verbannt werden kann, der zudem luftleer gemacht worden ist. Die Erde kann also auf gar keinen Fall als idealtypischer Körper im „Strahlungsgleichgewicht“ dargestellt werden. Die Anwendung des Stefan-Boltzmann-Gesetzes ist deshalb in Bezug auf die Erde nicht zulässig.

Die Erde wird in ihrer 24-Stunden Rotation um die eigene Achse immer als „Halbkugel“ bestrahlt und nicht als stets senkrecht zur Sonne stehende „Scheibe“. Der Berechnungsmodus des IPCC, die Erde erst einmal als eine Scheibe mit der Oberfläche pr2 anzusehen, diese dann zu einer Halbkugel mit der Oberfläche 2 pr2 aufzuwölben und dann per gedanklich unendlich schneller Rotation in eine Kugel zu verwandeln mit der Oberfläche 4pr2, ist physikalisch inkorrekt, weil die Modellvorstellung selbst nicht annähernd mit den wirklichen Verhältnissen übereinstimmt. Schon die „Alten Griechen“ waren sich bewusst, dass die Erde keine Scheibe ist. Eratosthenes berechnete bereits im 3. Jahrhundert v. Chr. den Kugelumfang der Erde, ohne einen Zwischenschritt über eine Halbkugel zu machen.

Die Erde ist nun mal keine Scheibe und unser Sonnensystem ist kein von total reflektierenden Wänden umschlossenes Vakuum, kein Hohlraum, und von daher ist es von vornherein unmöglich, dass je ein stationärer Strahlungszustand eintreten könnte. Das Modell „schwarzer Hohlraum“ ist nicht auf die Erde übertragbar, weil die physikalischen Realitäten auf der Erde den Modellvorstellungen total widersprechen.

Bereits seit über 100 Jahren wird das Narrativ eines menschengemachten Treibhauseffekts angezweifelt (3). Kramm, Dlugi & Mölders (2017) weisen darauf hin (4), dass beim Treibhaus-Narrativ nur ein planetarisches Strahlungsbudget der Erde in Abwesenheit einer Atmosphäre betrachtet wird, d.h. jegliche Wärmespeicherung in den Ozeanen (falls in einem solchen Fall überhaupt vorhanden) und Landmassen wird vernachlässigt.

In den Publikationen 4, 5, 6, 7 und 8 wurde bereits nachgewiesen, dass der atmosphärische Treibhauseffekt und insbesondere seine klimatische Wirkung auf unbegründeten Vermutungen beruhen.

Am 28.02.2020 schrieb Ralf D. Tscheuschner in einer Email:

„Die Erdoberfläche emittiert ein Kontinuum, allerdings nicht genau das Kontinuum, welches ein ideal schwarzer Körper emittiert. Gasstrahlung von Molekülen besteht aus Banden. Um nun den Strahlungstransport auszurechnen, muss man unter anderem die Temperaturprofile der verschiedenen Schichten kennen. Man kann das auch durch Messung der Gegenstrahlung, wenn man sie so nennen will, ermitteln, wenn man vorher kalibriert hat. Das heißt, man müsste etliche Probemessungen für Temperaturen und andere Größen durchführen und dann empirische Beziehungen zwischen empfangener Strahlung und Temperatur aufstellen. Leider ist es fast unmöglich, hier genau zu arbeiten. Es fehlt immer an Wissen. Wenn man Sonden hochsteigen lässt, können diese nie ausreichende Information gewinnen. Ein Pyrgeometer, ein modernes Infrarotthermometer mit Halbleiter-Sensoren, ein Josephson-Junction müssten dennoch kalibriert werden, wobei die Eigenstrahlung der Detektoren ebenfalls eingeht. Hypothesen wie „Lokales Thermodynamisches Gleichgewicht“ (LTE) und „Scattering Atmosphere“ werden verwendet, weil man es einfach nicht besser weiß. Immer aber gilt der zweite Hauptsatz. Strahlungstransport ist nicht Spektroskopie. Wärmeübergänge in der Troposphäre beschränken sich nicht auf Strahlungstransport. All das ist bei Gerlich und Tscheuschner genau erklärt. Die angeblichen CO2-Erwärmungseffekte sind Artefakte in übervereinfachten Modellen, die ein lange Tradition haben.“ 

Im Übrigen stellt sich die Frage, wie die Treibhaus-Befürworter den seit einigen Jahrzehnten erfolgenden Anstieg der Temperaturen auf den übrigen Planeten des Sonnensystems erklären, z.B.

  • dem Mars (9 ),
  • dem Jupiter (10)
  • oder dem Pluto (11 ).

Als „menschengemacht“ kommt wohl kaum in Frage!

„Der Klimawandel auf der Erde ist nur ein Glied in einer ganzen Kette von Ereignissen, die in unserem Sonnensystem stattfinden“ sagte 1997 Prof. Dr. Alexander Dmitriew, Mitglied der Akademie der Wissenschaften Russlands. Als Ursache für diese Ereignisse wird das Eindringen eines hochenergetischen Feldes in unser Sonnensystem angeführt. Diesem Feld werden signifikante Veränderungen auf allen Planeten unseres Sonnensystems zugeschrieben (12).

NASA SCIENCE berichtete am 23.12.2009 von einer Entdeckung durch die Sonde Voyager, wonach unser Sonnensystem in eine interstellare Wolke geraten ist. Gemäß der NASA besitzt diese Wolke eine Ausdehnung von rund 30 Lichtjahren und wird von einem magnetischen Feld zusammengehalten. Mit diesem Bericht unterstützt die NASA die Aussagen der Akademie der Wissenschaften Russlands vom Jahre 1997 und präzisiert diese aufgrund der gelieferten Daten von Voyager (12).

Entgegen den Modellannahmen sind die solare Strahlung wie auch atmosphärische Abschirmung (Albedo) keine konstanten Größen, sondern unterliegen zyklischen Schwankungen, die entscheidenden Einfluss haben auf klimatische Veränderungen.

Bei der Berechnung des Gleichgewichts zwischen der einfallenden solaren Strahlung und der von der Erde abgestrahlten Wärmeenergie spielt die Solarkonstante von 1361 W/m2 eine zentrale Rolle. Das Gesamtemissionsvermögen der Erde variiert aber mit der Entfernung der Erde von der Sonne und ist bei Sonnennähe um fast 100 W/m2 größer als bei Sonnenferne (Abbildung 2).

undefined

Abbildung 2: Schematische Darstellung der Periheldrehung (blaue Punkte: Perihel, gepunktete Linien: Ellipsenachse). Die Umlaufbahn der Erde um die Sonne ist kein Kreis sondern eine Ellipse mit Dynamik und damit ist die Entfernung der Erde zur Sonne keineswegs konstant (13).

Einfach die Differenz zwischen der wie auch immer ermittelten „globalen Mitteltemperatur“ von +15°C und der mit Hilfe des Stefan-Bolzmann-Gesetzes für den Oberrand der Atmosphäre berechneten und dann auf 6 Km Höhe reduzierten „Effektivtemperatur“ von minus 18°C zu nehmen und daraus willkürlich die Definition „natürlicher Treibhauseffekt“ von + 33°C abzuleiten, ist physikalisch unzulässig und mit dem wissenschaftlichen Ethos objektiver Wahrheitsfindung nicht vereinbar. Man sollte bei Fragen zum Klimawandel stärker die seit Jahrtausenden bekannten und stets verlässlichen astronomischen Parameter zur Berechnung heranziehen (siehe Abbildung 3), nicht den Unsinn mit der Erde als Hohlkugel oder als Scheibe, nur um sie für das Stefan-Boltzmann Gesetz gefügig zu machen.

Abbildung 3: Wesentliche Faktoren können das Klima langfristig beeinflussen. Hierauf hat der Mensch keinen Einfluss

Warum eigentlich soll ein Stefan Boltzmann Gesetz, das auf einer nicht existierenden Erde ohne Atmosphäre und ohne Ozeane basiert, die sich auch noch – um dem Gesetz Folge leisten zu können – zu einem Kohlestäubchen verkleinert in einem Sonnensystem befindet, das mit einer dunklen Barriere umzäunt ist, besser eignen, um Klimawandel zu erklären als die Milanković-Zyklen, die seit Jahrtausenden Ihre Wirksamkeit bei der Berechnung von Klimawandel-Zyklen bewiesen haben?

Bei den Milanković-Zyklen (nach dem serbischen Mathematiker Milutin Milanković, 1879–1958) handelt es sich um langperiodische Veränderungen der globalen Verteilung der auf der Erde eintreffenden Sonnenstrahlung über die jährliche Schwankungsbreite hinaus. Die Erdbahn um die Sonne, die Präzession der Erdrotationsachse sowie die Neigung der Erdachse und damit die wechselnden Einfallswinkel der Sonneneinstrahlung auf der Nord- und Südhemisphäre unterliegen verschiedenen Orbitalzeitskalen mit einer Dauer von 25.800 bis etwa 100.000 beziehungsweise 405.000 Jahren. Sie erklären teilweise die natürlichen Klimaveränderungen und sind daher für die Klimatologie und Paläoklimatologie von großer Bedeutung. Zumindest sind die Milanković-Zyklen reell und ihr Einfluss auf das Klima ist vielfach belegt (14), ganz im Gegensatz zu einer nicht existenten Erde ohne Atmosphäre.

Zusammenfassend ergibt sich für mich und für viele andere Klima-Realisten, mit denen ich kommuniziere, folgendes Bild, das bereits Dr. Wolfgang Thüne in seinem Buch “Der Treibhausschwindel“ (2 ) treffend darstellt: „Der Hypothese des „Strahlungsgleichgewichtes“, geht die Hypothese des „thermischen wie thermodynamischen Gleichgewichtes“ in einem hypothetisch abgeschlossenen und hypothetisch perfekt isolierten, vollkommen schwarzen Hohlraum voraus, in den man hypothetisch die Erde als fiktiven „idealen schwarzen Körper“ hineindenkt. Das Hypothesenchaos setzt sich fort bei der Hypothese einer reflektierenden Obergrenze der Atmosphäre, für die man eine hypothetische Effektivtemperatur berechnet, die man mittels weiterer Hypothesen auf die Erdoberfläche herunterzoomt, um diesen Wert hypothetisch – wenn auch unerlaubt – mit einer hypothetisch berechneten „Globaltemperatur“ in Beziehung setzt, um wiederum die Hypothese eines „natürlichen Treibhauseffektes“ als Wahrheit (!) zu propagieren. Jeder Person mit gesundem Menschenverstand dürfte klar geworden sein, dass sowohl die Hypothese des „natürlichen Treibhauseffektes“ als auch die Hypothese der daraus hypothetisch abgeleiteten „Klimakatastrophe“ rein idealistische Gedankenkonstrukte sind, die mit der Natur und dem Wettergeschehen nichts, aber auch gar nichts zu tun haben.“

Wenn dann am Ende gar nichts mehr hilft, um die Mär von einem „Treibhauseffekt“ zu begründen, dann wird eben ein imaginärer positiver Feedback zwischen CO2 und Wasserdampf hervorgezaubert, der genauso wenig nachgewiesen wurde, wie die Erde als schwarze Hohlkugel oder als Scheibe.

Dem staunenden Klima-Realisten kommt das alles vor wie Jahrmarktgauklerei!

Die „wissenschaftlichen“ Methoden der Klimawissenschaft kommen mir und vielen anderen Klima-Realisten vor, wie wenn Klima-Alarmisten mit verbundenen Augen in einem stockdunklen Raum eine schwarze Katze jagen, die gar nicht da ist, und dabei rufen; “Jetzt hab‘ ich sie!“

Ich möchte aber an dieser Stelle auch erwähnen, dass ich immer gerne bereit bin, dazuzulernen und auch meine Meinung zu ändern, vorausgesetzt ich werde mit realistischen und plausiblen Argumenten oder noch besser mit wissenschaftlich manifesten Beweisen überzeugt. Ich wäre ja schon zufrieden, wenn mir jemand ein technisches Gerät nennen würde, welches den angeblichen „Treibhauseffekt“ aktiv nutzt. Nur ein einziges! Irgendeins! 200 Jahre nach Erfindung dieses „Treibhauseffekts“ sollte es doch irgendeine praktische Anwendung von ihm geben?!

Referenzen:

  1. Döhler, K.-D. (2024): Klimaforschung“ aus Sicht eines naturwissenschaftlich ausgebildeten Quereinsteigers, Teil 1: Wissenschaft oder doch eher Hokus-Pokus? www.eike-klima-energie.eu.
  2. Thüne, W. (2024): Der Treibhausschwindel. Lindenbaum Verlag. https://lindenbaum-verlag.de/produkt/wolfgang-thuene-treibhaus-schwindel/
  3. Döhler, K.-D. (2021): https://www.epochtimes.de/meinung/gastkommentar/co%E2%82%82-aus-atmosphaere-zu-entfernen-ist-sinn-und-zwecklos-a3574685.html).
  4. Kramm G., Dlugi R. & Mölders N. (2017). https://www.scirp.org/pdf/NS_2017083014381959.pdf
  5. Gerlich G., & Tscheuschner R.D. (2009): Falsification of the atmospheric CO2 greenhouse effects within the frame of physics. Int. J. Mod. Phys. B, 23, 275-364 (http://arxiv.org/abs/0707.1161v4).
  6. Gerlich G. & Tscheuschner R.D. (2010): REPLY TO “COMMENT ON ‘FALSIFICATION OF THE ATMOSPHERIC CO2 GREENHOUSE EFFECTS WITHIN THE FRAME OF PHYSICS’ BY JOSHUA B. HALPERN, CHRISTOPHER M. COLOSE, CHRIS HO-STUART, JOEL D. SHORE, ARTHUR P. SMITH, J¨ORG ZIMMERMANN” (https://arxiv.org/abs/1012.0421).
  7. Kramm G. & Dlugi R. (2011): Scrutinizing the atmospheric greenhouse effect and its climatic impact. Natural Science, 3, 971-998 (https://www.researchgate.net/publication/276048562_Scrutinizing_the_atmospheric_greenhouse_effect_and_its_climatic_impact).
  8. Kramm G. Berger M., Dlugi R. & Mölders N. (2020): Meridional distributions of historical zonal averages and their use to quantify the global and spheroidal mean near-surface temperature of the terrestrial atmosphere, Natural Science, 12, 80-124. https://www.scirp.org/journal/paperinformation?paperid=98786
  9. https://www.wissenschaft.de/astronomie-physik/klimawandel-auf-dem-mars-2/
  10. https://www.space.com/2071-storm-jupiter-hints-climate-change.html.
  11. https://www.space.com/3159-global-warming-pluto-puzzles-scientists.html.

 

  1. https://hores.org/wp-content/uploads/2019/07/Problemfall_Kohlendioxid.pdf

 

  1. https://de.wikipedia.org/wiki/Erdbahn

 

  1. https://www.researchgate.net/publication/318366114_Harmonic_Analysis_of_Worldwide_Temperature_Proxies_for_2000_Years