Deutschlands nukleare Zukunft – welche kann das sein?

von Hans Hofmann-Reinecke

Die Energiewende ist gescheitert und wir stehen vor einem Scherbenhaufen: stillgelegte, teils unbrauchbare Kernkraftwerke, Sondermüll von Zigtausenden ausgedienter Windräder und eine instabile Stromversorgung, die für die Industrie zu teuer ist. Früher oder später muß mit dem Wiederaufbau der elektrischen Infrastruktur in Deutschland begonnen werden. Welcher Technologie sollte man dann folgen?

Eine Lüge nationaler Tragweite

Eine gutgläubige Bevölkerung war auf die Lüge hereingefallen, Kernkraft sei riskant. Diese Behauptung wurde von Ideologen ohne naturwissenschaftliches oder technisches Verständnis aufgestellt, und von den Medien durch dramatische Propaganda verbreitet. Mit dem Abschalten der letzten Kernkraftwerke im April dieses Jahres war dann allerdings ein erster Gesinnungswandel unter den Deutschen zu beobachten.

Die öffentlichen Rundfunkanstalten werden wohl bald zugeben müssen, dass 2011 in Japan zwar 18.000 Personen durch Tsunami und Erdbeben Ihr Leben verloren, aber nur eine im Kernkraftwerk von Fukushima. Und man wird mit Schrecken einsehen müssen, dass Inkompetenz beim Krisenmanagement der Flut im Ahrtal mehr Menschenleben gefordert hat (über 135) als der Reaktorunfall von Tschernobyl 1986 (weniger als 100).

Die Qual der Wahl

Beim Wiederaufbau der deutschen Energieversorgung wird man dann eines Tages vor einer Reihe nuklearer Optionen stehen, die sich hinsichtlich Große und Funktionsweise deutlich unterscheiden. Einige dieser Technologien sind schon seit Langem verfügbar, andere sind innovativ. Über alle wird aber schon heute geschrieben und diskutiert.

Zur Erläuterung ein kurzer Blick auf den Atomkern. Sein Durchmesser ist etwa ein Hunderttausendstel des ganzen Atoms, und er ist seinerseits aus noch kleineren Teilchen, den Nukleonen zusammengesetzt. Der kleinste Kern besteht aus nur einem Nukleon, die schwersten haben über 200. Schwere Kerne können Energie freisetzen, wenn sie sich in kleinere Bruchstücke zerteilen. Das ist Kernspaltung. Umgekehrt geben leichte Kerne Energie ab, wenn sie sich in einer Fusion zu einem größeren Kern zusammenballen.

Bei diesen Vorgängen wird pro Atom das Millionenfache der Energiemenge frei, wie sie bei Verbrennung entsteht.

KKW – Das bewährte Arbeitstier

Die traditionellen Kernkraftwerke, so wie wir sie kennen, gingen zum ersten Mal Mitte der 50er Jahre in der UdSSR und in England ans Netz. Heute sind weltweit 440 in Betrieb, mit einer Gesamtleistung von 390 Gigawatt elektrisch. Pro Kraftwerk sind das ca. 900 Megawatt; die älteren liegen unter diesem Durchschnitt, die modernen deutlich darüber.

Rund zwei Drittel sind vom Typ PWR (Druckwasserreaktor). Sie arbeiten mit niedrig angereichertem Uran. Als Kühlmittel und Moderator wird Wasser verwendet, welches über Wärmeaustauscher Dampf erzeugt, der eine Turbine antreibt. Andere sind vom Typ BWR (Heißwasserreaktor), in denen das Wasser aus dem Reaktor direkt den Dampf für die Turbinen liefert. Und es gibt vereinzelt noch andere Typen.

Zurzeit sind 60 KKW im Bau, alle vom Typ PWR. Die werden einst rund 100 GW liefern. Bis 2050 rechnet die International Energy Agency mit einem Anstieg der KKW-Gesamtleistung auf 590 GW.

SMR – Der Kraftzwerg

Diese Arbeitstiere mit Leistungen bis zu 1.600 Megawatt – genug, um einige Millionen Haushalte zu versorgen – sind von gigantischen Ausmaßen. Insbesondere haben sie Bauteile, die zu groß für den Transport sind, sodaß sie vor Ort aufwändig und teuer gefertigt werden müssen. Es scheint also attraktiv, kleinere Reaktoren zu bauen.

Dazu gibt es derzeit intensive Entwicklungsarbeit, aber es gibt auch Erfahrung aus dem militärischen Bereich, wo solche „Kleinreaktoren“ (Small Modular Reactors = SMR) zum Antrieb von „Atom-U-Booten“ und Flugzeugträgern seit langer Zeit genutzt werden.

Eine zivile Anwendung schwimmt im Eismeer vor Sibiriens Küste, auf einem Kahn namens „Akademik Lomonossow“, und versorgt die Stadt Pevek mit Strom und Wärme.

Der SMR muß allerdings mit höher angereichertem Uran betrieben werden als sein großer Bruder. Statt ca. 4% sind jetzt 20 % erforderlich, um in dem kleineren Reaktorvolumen die Kettenreaktion zur Kernspaltung aufrecht zu halten.

Wenn auch die technische Machbarkeit des SMR gesichert ist, so bleibt die Frage nach der Wirtschaftlichkeit. Braucht ein SMR mit einem Zehntel der Leistung eines großen KKW auch nur ein Zehntel an Personal und Infrastruktur? Die Baukosten pro Megawatt mögen niedriger sein, aber der Betrieb ist vermutlich beim großen KKW billiger, dank der Economies of Scale (große Einheiten sind effizienter, siehe Flugzeuge oder Schiffe, Prinzip von Brunel).

FBR – Der Schnelle Brüter

Reaktoren funktionieren mit Neutronen, die bei der Kernspaltung entstehen, und die dann weitere Spaltungen verursachen. Damit sie das tun werden sie im KKW und im SMR erst in Wasser abgebremst, welches gleichzeitig zum Abtransport der Hitze zu den Turbinen dient. Dabei wird nur ein kleiner Prozentsatz des Brennstoffs genutzt, und im restlichen Material entstehen unerwünschte radioaktive Substanzen, mit teilweise sehr langen Halbwertszeiten.

In einem schnellen Reaktor (Schneller Brüter, Fast Breeder Reactor, FBR) werden die Neutronen nicht abgebremst; die dadurch verursachten nuklearen Prozesse erlauben nun einerseits eine wesentlich bessere Nutzung des Brennmaterials, andererseits entsteht weniger langlebige Radioaktivität.

Das sind wichtige Vorteile. Die technologischen Herausforderungen sind allerdings gewaltig. Es gibt derzeit einige FBRs in Rußland im kommerziellen Einsatz. Im Westen gab es mehrere Prototypen (z.B. Dounray, Superphénix), die ein kurzes Leben hatten, geplagt von technischen und politischen Problemen.

Eine vielversprechende Entwicklung ist heute der „Dual Fluid Reactor (DFR)“, mit Kernbrennstoff und Kühlung in getrennten Kreisläufen.

Kernfusion – zu schön, um wahr zu sein?

Fusion ist zwar auch Kernphysik, hat aber mit der Spaltung nichts gemein. Hier müssen zwei leichte Atomkerne, beide positiv geladen, erst einmal die gegenseitige Abstoßung überwinden, bevor sie verschmelzen können. Seit den 1950ern arbeitet man an einer Lösung. Wann wird es klappen? „Es dauert noch 30 Jahre“, ist die Antwort, „…und es wird immer so sein.“

Zwei gigantische Projekte sind ITER und NIF. In letzterer Anlage wurde kürzlich ein Netto-Energiegewinn erzielt: 3,15 Megajoule Output durch Fusion bei 2,05 Megajoule Input durch Laserstrahlen (n. b. 3,60 Megajoule wäre dasselbe wie eine Kilowattstunde; bei NIF spielt sich alles jedoch in Micro- oder Nanosekunden ab). Das ist ein phantastischer Meilenstein, aber:

Scientists have warned that the technology is far from ready to turn into viable power plants”. (Wissenschaftler haben gewarnt, daß die Technologie noch lange nicht bereit ist, in realisierbare Kraftwerke umgewandelt zu werden).

Kontrollierte Fusion ist um Größenordnungen komplizierter als Kernspaltung. Das wird deutlich, wenn man den ersten von Enrico Fermi gebauten Reaktor mit den gigantischen Baustellen von ITER oder NIF vergleicht. Fermis „Pile 1“ stand im Keller unter einem Sportplatz.

Neben ITER und NIF gib es noch eine ganze Reihe anderer Projekte, darunter auch Startups, die es mit Hilfe von Venture Capital versuchen. Man kann ihnen und uns nur viel Glück wünschen.

Fazit

Welche dieser Option sollte man eines Tages für Deutschland realisieren?

Zu dem Zeitpunkt, da die Mehrzahl der Windräder ihre Laufzeit beendet haben wird, und zu dem die Mehrheit der Bürger der Kernenergie mit vorsichtiger Aufgeschlossenheit gegenüber stehen wird, müssen Unfälle oder Ausfälle um jeden Preis vermieden werden. Das wird keine Zeit für Experimente sein. Da wird man auf die bewährten Arbeitstiere zurückgreifen, die PWR, von denen derzeit weltweit 60 im Bau sind.

Und wer soll die in Deutschland bauen und betreiben, wo Ingenieure und insbesondere die Kerntechnik abgeschafft wurden? Das machen dann die Chinesen, so wie sie das auch in anderen Entwicklungsländern tun.

(n. b. Abkürzungen wie SMR oder FBR etc. sind nicht standardisiert. Sie finden in der Literatur möglicherweise andere Bedeutungen als hier).

Dieser Artikel erschien zuerst im Blog des Autors Think-Again. Sein Bestseller „Grün und Dumm“ ist bei Amazon erhältlich.




Schweizer TV-Wetterdienst liefert regelmäßig falsche Temperatur-Vorhersagen

von AR Göhring

SRF Meteo, ein Schweizer Analog zur ARD/ZDF-Wettervorhersage, hat nach Informationen der Weltwoche bei weitem zu hohe Temperatur-Vorhersagezahlen geliefert. Grund laut Chef Bucheli: die außerordentliche Hitze! Mit dieser sei das Meßsystem überfordert.

Ich war vor kurzem in Zürich und wurde von Regen und 18°C begrüßt – Anfang August! Mit den „außerordentlichen Temperaturen“ meinte Meteo-Chefmeteorologe Thomas Bucheli wahrscheinlich die heißen Tage im Juli, die im Tal auch in der Schweiz nicht ungewöhnlich waren.

Die Weltwoche beobachtete die Seite des Wetterdienstes und stellte fest:

Gerade bei beliebten Ferienzielen im Mittelmeerraum lieferten die Wetter-App und die Webseite von SRF Meteo in den letzten Wochen übertriebene Zahlen, wie die Weltwoche in der aktuellen Ausgabe schreibt. Sie lagen höher als die eigentlichen Werte – bis zu acht Grad.

In den anderen DALCH-Ländern kennt man den Unfug von den 48°C (Bodentemperatur?) der ESA, die in Südeuropa herrschen sollten.

Bucheli gab immerhin zu, daß falsche Daten angegeben wurden, die aber nicht manuell geändert werden können. Daher müsse es die Elektronik sein, die spann. Denn wenn die Temperaturfühler zu heißen Temperaturen ausgesetzt seien, würden sie „überschießen“. Selbst wenn das stimmen würde: Sind die Meteo-Meßfühler so schlecht, daß sie keine Toleranz nach oben haben? Unglaubwürdig.

Seltsame Erklärungen für falsche Vorhersagen sind beim SRF-Meteo nicht unbekannt: Wetterfrosch Luzian Schassmann erklärte im April, in Mitteleuropa der kälteste April seit über 20 Jahren, die Temperaturen würden nur so kühl empfunden, weil es sonst immer so heiß sei. „Empfinden“ bei SRF-Meteo auch die elektronischen Thermometer? Sonst messen sie ja….




Der US Senatsausschuss zeigt sich „besorgt“, dass die Luftwaffe keine Elektrohubschrauber einsetzt

Ein Originalbild eines Batterie-Hubschraubers finden Sie bitte hier:

©Volocopter, Pressebild , https://www.volocopter.com/de/newsroom/volocopter-fliegt-ueber-incheon-flughafen-in-suedkorea/

Volocopter-Testpilot Damian Hischler vor dem Vocopter 2X  nach dem erfolgreichen Testflug auf dem Flughafen Gimpo in der Republik Korea

Jake Smith, 31. Juli 2023, Daily Caller News Foundation

Der Haushaltsausschuss des Senats sagte, er sei „besorgt“, dass die Elektro-Hubschraubertechnologie nicht von der Luftwaffe getestet und eingesetzt werden, wie aus dem am Freitag veröffentlichten Bericht des Ausschusses über den Entwurf des Haushaltsentwurfs des Verteidigungsministeriums für 2024 hervorgeht.

Nach dem Bericht des Ausschusses hat die Luftwaffe 90 Tage Zeit, um aktuelle Forschungs- und Entwicklungsfortschritte bei elektrischen Senkrechtstartern und Landefahrzeugen (electric vertical take-off and landing vehicles  eVTOLs) zu berichten, sowie einen Zeitplan, wann der Dienst die Technologie operativ einsetzen will.

Laut einem Bericht von Amprius Technologies werden eVTOLs, die die vertikale Start- und Landefähigkeit von Hubschraubern nachahmen, mit Batterieenergie angetrieben und erzeugen keine Emissionen – haben aber auch eine viel geringere Nutzlastkapazität und Reichweite.

„Der Ausschuss ist davon überzeugt, dass ein erhebliches Potenzial für die Entwicklung kosteneffektiver [eVTOLs] besteht, die den Bedürfnissen des Soldaten im Kampf [warfighter] gerecht werden können, insbesondere in der Rolle der Personalrettung, Medevac [Ab-Transport verletzter Personen] und logistischen Nachschubversorgung“, heißt es im Bericht des Ausschusses. „Der Ausschuss ist besorgt darüber, dass die Luftwaffe nicht über einen ausreichenden Plan für die Erprobung, den Erwerb und den Einsatz dieser Fähigkeit in der nahen Zukunft verfügt.“

„Deshalb weist das Komitee den Sekretär der Luftwaffe an, den Verteidigungsausschüssen des Kongresses spätestens 90 Tage nach Inkrafttreten dieses Gesetzes einen Bericht über zukünftige Pläne der Luftwaffe für eVTOLs vorzulegen, der… einen Status der aktuellen und zukünftigen eVTOL-Forschung und… vorlegt Entwicklungsprogramme … [und] Eigenschaften und Probleme, die bei den Bemühungen zur Anschaffung von eVTOL-Flugzeugen für den operativen Einsatz in der Luftwaffe aufgetreten oder zu erwarten sind“, heißt es im Bericht des Ausschusses.

Amprius Technologies, ein von der US-Armee unterstützter Hersteller von Lithium-Ionen-Batterien für Mobilitätsanwendungen,stellt heraus, dass eVTOL-Flugzeuge zwar leiser sind und im Vergleich zu Hubschraubern keine Emissionen verursachen, sie aber erst dann „allgemein zugänglich oder erschwinglich“ sein werden, wenn die Technologie weiter verbreitet ist.

„eVTOLs werden in ihrer jetzigen Form wahrscheinlich nicht die volle Reichweite oder Nutzlastfähigkeit von [konventionellen] Hubschraubern erreichen. Die Reichweite von eVTOL-Flugzeugen wird zunächst auf 50 Meilen geschätzt, während die Hubschrauber mit der größten Reichweite auf einer Reise bis zu 500 Meilen weit fliegen können … ein eVTOL mit geringer Reichweite und geringer Nutzlastkapazität hat möglicherweise nur begrenzten praktischen Nutzen.“

Amprius wies darauf hin, dass es noch viel Zeit und Investitionen erfordern wird, bis eVTOLs mit den Fähigkeiten und der Praktikabilität von Hubschraubern mithalten können.

Amprius führt weiter aus: „Bis sich die Technologie verbessert, werden wir möglicherweise sehen, dass eVTOLs die Hubschrauber in einigen begrenzten Anwendungen ersetzen oder ergänzen, aber nicht in allen Szenarien … Da sich eVTOLs in der Entwicklungsphase befinden, erfordern sie auch erhebliche Investitionen in die Infrastruktur, die Zeit brauchen werden. … Wie oben erläutert, werden die Kosten für Betrieb, Bau, Wartung und Nutzung eines eVTOL in dieser Anfangsphase ebenfalls höher sein. Sie benötigen außerdem eine behördliche Genehmigung, was den Prozess verlängert.“

Die Demokraten brachten in 2022 einen Gesetzentwurf im Senat ein, der vorsieht, dass mindestens 75 % der vom Militär gekauften nicht-taktischen Fahrzeuge vollelektrisch sein müssen und in Amerika hergestellt werden. Die US-Armee hat sich verpflichtet, ihre leichte, nicht-taktische Flotte bis 2027 auf teilweise elektrischen Antrieb und bis 2035 auf vollelektrischen Betrieb umzustellen.

Energieministerin Jennifer Granholm sagte im April, dass sie eine vollständige Umstellung der nicht-taktischen Fahrzeugflotte des Verteidigungsministeriums auf Elektroantrieb bis 2030 unterstütze.

 „Ich denke, dass wir auch dort hinkommen können … und ich denke, dass wir unsere Abhängigkeit von der Volatilität [!? – der Übersetzer] global gehandelter fossiler Brennstoffe reduzieren können, wo wir wissen, dass globale Ereignisse wie der Krieg in der Ukraine die Preise für die Menschen in der Heimat in die Höhe treiben können.“ „Das trägt nicht zur Energiesicherheit bei“, sagte Granholm .

Die Luftwaffe und der Haushaltsausschuss des Senats reagierten nicht sofort auf eine Bitte der Daily Caller News Foundation um einen Kommentar.

https://dailycaller.com/2023/07/31/senate-committee-concerned-that-air-force-isnt-using-electric-helicopters/

Übersetzt durch Andreas Demmig

 

Zum Thema:

https://eike-klima-energie.eu/2023/05/01/joe-biden-will-dass-jedes-us-militaerfahrzeug-klimafreundlich-ist/

https://eike-klima-energie.eu/2023/07/30/batteriefahrzeuge-fuer-das-militaer-der-usa/

 




Gute Nachrichten! Nobelpreisträger Dr. John F. Clauser unterzeichnet die Clintel World Climate Declaration

CLINTEL

John F. Clauser, Träger des Physik-Nobelpreises 2022 für seine Arbeiten zur Quantenmechanik, hat beschlossen, die Weltklimaerklärung von Clintel mit ihrer zentralen Botschaft „Es gibt keinen Klimanotstand“ zu unterzeichnen. Clauser ist der zweite Nobelpreisträger, der die Erklärung unterzeichnet, Dr. Ivar Giaever war der erste. Die Zahl der Wissenschaftler und Experten, die die Weltklimaerklärung unterzeichnet haben, wächst schnell auf mittlerweile mehr als 1600 Personen.

Im Juli hielt Clauser einen Vortrag auf der Veranstaltung Quantum Korea 2023. Er warnte die Zuhörer vor der wachsenden Menge an Pseudowissenschaft und Falschinformationen. Einige Zitate aus diesem Vortrag:

Meiner Meinung nach ist der IPCC eine der schlimmsten Quellen für gefährliche Falschinformationen.“

Ich habe noch einen zweiten Elefanten im Raum, den ich vor kurzem in Bezug auf den Klimawandel entdeckt habe. Ich glaube, dass der Klimawandel keine Krise ist. […]“

Seien Sie vorsichtig. Wenn man gute Wissenschaft betreibt, kann sie in politisch inkorrekte Bereiche führen. Wenn Sie ein guter Wissenschaftler sind, werden Sie ihnen folgen. Ich habe mehrere, auf die ich hier nicht eingehen kann, aber ich kann getrost sagen, dass es keine echte Klimakrise gibt und dass der Klimawandel keine extremen Wetterereignisse verursacht.“

Wir freuen uns natürlich sehr, dass sich ein hervorragender und hochkarätiger Wissenschaftler wie Dr. John Clauser zu diesem strittigen Thema äußert. Ein herzliches Willkommen an Dr. Clauser.

Ein Tweet von Clintel über diese wichtige Nachricht hatte in den ersten 24 Stunden über 130.000 Aufrufe.
Unseren vollständigen Artikel finden Sie hier.

Bitte helfen Sie mit, diese Nachricht zu verbreiten, indem Sie diesen Newsletter oder unseren Artikel in Ihrem persönlichen oder beruflichen Netzwerk weiterleiten.

Link: https://eds6.mailcamp.nl/webversion.php

Übersetzt von Christian Freuer für das EIKE

 




Buchvorstellung: Es existiert kein natürlicher Treibhauseffekt.

 

Vorbemerkung:

Als Gast auf der EIKE-Internetseite soll zuerst einleitend in 4 Sätzen auf die Naturbeobachtungen der unabhängigen Forschergruppe Josef Kowatsch, Matthias Baritz und Raimund Leistenschneider verwiesen werden. Es wird in diesen Artikeln für alle EIKE-Leser regelmäßig, immer wieder und sehr anschaulich gezeigt: CO2 besitzt in der Natur – trotz kleiner messbarer infraroter Abstrahlungen – keine Wärmewirkung. Anders formuliert: Der sogenannte Treibhauseffekt (THE) existiert nicht einmal in der unmittelbaren Naturbeobachtung. Im Buch bestätigt diese Naturbeobachtung ein ausführlich dokumentierter CO2– Versuch unter Sonnenlicht in Anhang 5. Klimamodelle stehen gegenteilig hierzu. Mehr gemessene ppm CO2 in der Atmosphäre sind in Treibhausmodellen gekoppelt mit größerer mittlerer globaler Durchschnittstemperatur der Erde, einem Ersatzrechenwert. Der Klima-Alarmismus hackt sich hier ein. Alarmistische Klimawissenschaftler dominieren die Medien mit reißerischen Aussagen. Politiker, in der Regel keine Naturwissenschaftler, übernehmen diese: Antonio Guterres am 27.07.2023: „The area of global warming has ended, the area of global boiling has arrived“. Die gesetzgeberischen Auswirkungen wie CO2 Steuer, Heizungsgesetz, ein gezieltes Ende der Verbrennungsmotoren, das Wegbrechen wichtiger Schlüsselindustrien, aber auch der gesetzesbrecherische Fanatismus (extinction rebellion) sind in Deutschland im Alltag angekommen. Wenn bereits die unmittelbare, genaue Naturbeobachtung zur Nicht-Existenz eines Treibhauseffektes führt, sind die gängigen Modelle wirklich richtig? Oder sind sie vielleicht doch von Grund auf falsch? Geht uns das nicht alle an, wenn wir darunter ganz konkret leiden? Gibt es einen anderen Grund für die Entstehung der beobachteten Temperatur an der Erdoberfläche über die Breitengrade – ohne THE? Diese Frage ist die Motivation für dieses Buch. Wenn die gängigen Klimamodelle falsch sind, warum werden nicht auch andere Modellansätze verfolgt? Die politische Unterorganisation der UNO, das IPCC, durfte sich in ihrer Gründungspräambel nur auf Studien stützen, die den durch fossile Brennstoffe von Menschen induzierten Klimawandel betrachtet. Zudem unterbindet die „herrschende Klimalehre“ an Universitäten freies Forschen. Nur noch IPCC-konformes Forschen ist geduldet. Wer als lehrender Professor diesem Mainstream nicht folgt, dem werden nicht nur die Gelder gestrichen, er wird Opfer politisch bestens vernetzter Klimaalarmisten oder Opfer der universitären Cancel Culture.

Buchvorstellung:

Die Veröffentlichung gliedert sich über 120 Unterkapitel und 14 Anhängen im Umfang einer Dissertation. In 16 Kritikpunkten werden die Grundannahmen wie Albedo ca. 0.30, Gegenstrahlung ca. 324 W/m², natürlicher Treibhauseffekt von ca. 33 Kelvin des von der Mehrheit der Klimatologen verwendeten Basismodells zur Erklärung der Temperatur auf der Erdoberfläche am Beispiel der Studie Kiehl und Trenberth 1997 (KT97) in Frage gestellt und final widerlegt. Es wird gezeigt, welchen Einfluss diese Studie auf die Ausbildung von Klimawissenschaftlern besitzt, wie sie bis heute auf die Gestaltung der Algorithmen in Klimamodellen einwirkt, wo genau dort die Modellstellschrauben sitzen, mit denen CO2-Alarmismus befeuert wird und wie der Treibhauseffekt in die Klimamodelle einprogrammiert wird. Der Autor, ein Ingenieur, der auch in Geologie ausgebildet ist, stellt ein neues Modell vor. Dem gängigen BSE-Modell, der Erdkugel aus Kruste- und Mantelschichten, wird der Erdkern hinzugefügt. Die genaue thermodynamische Untersuchung aller Zonen entlang des Erdradius erweitert die neue Modellierung um Temperaturspeicher an der obersten Erdkruste. Für den THE wird ein Erdmodell mit Atmosphäre einem Erdmodell ohne Atmosphäre gegenübergestellt. Oft wird auch der Mond hinzugezogen. Man kann stattdessen auch ein Erdmodell mit Sonne und ein Erdmodell ohne Sonne miteinander vergleichen. Für den Vergleich mit dem Mond wird im Buch auf die neusten Messergebnisse der chinesischen Raumsondenmission Chang´e zurückgegriffen, mit erstaunlichen Ergebnissen. Ferner werden das Fouriersche Gesetz und das Stefan-Boltzmann Gesetz als Tensoren im Energietransport im Erd/Atmosphärenmodell diskutiert. Der Vergleich liefert nicht erwartete Ergebnisse. Dem Ansatz FIG.7. aus KT97, kein Speicher, aber für jedes Zeitintervall immerwährende Gleichsetzung aus Abstrahlung und sofortiger Einstrahlung auf der Vollkugel, wird eine stets nur halbseitig beleuchtete Hemisphäre entgegengestellt. In Abhängigkeit von Sonnenstand des Breitengrades und dortiger mittlerer lokaler Albedo nach Satelliten Messwerten ist es möglich, die Speicherwirkung vom Tag in die Nacht zu erfassen und die Temperaturen über die einzelnen Breitengrade aus der lokalen Abstrahlung zu ermitteln. Konvektion (SH) und Umwandlungsenthalpie (LH) werden hierbei berücksichtigt. Mit den Messwerten des ERBS Satelliten, aber auch dem Satelliten NOAA-9, werden die Abstrahlungen der Erde, getrennt nach Tag- und Nacht, verglichen. Das Integral über die lokalen Abstrahlungen aus Tag- und Nacht liefert die Globaltemperatur der Erde. Dieser Rechenwert zeigt an, ob die Erde im kalulatorischen Mittel „kälter“ oder „wärmer“ wird. Es wird gezeigt, wie Milankovic-Zyklen im Modell Warmzeiten und Eiszeiten ausbilden, bis hin zur Snowball-Earth und ein Ausblick in die nähere Zukunft gewagt. Die Abschmelzgeschwindigkeit von Alpengletschern am Ende der Eiszeit und heuten werden diskutiert, mit neuen Erkenntnissen. Dieses Buch richtet sich an Wissenschaftler und Leser mit Interesse für Klimawissenschaft, Geophysik, Physik bzw. Thermodynamik. Aufgebaut als unmittelbar prüffähiger Nachweis erläutern 500 Fußnoten, über 120 Quellen (soweit möglich mit der wissenschaftlichen DOI-Angabe), rund 100 Grafiken, Tabellen, Bilder, Schemata, Diagramme (die Hälfte farbig), und 14 Anhänge. Ein dokumentierter CO2-Versuch unter Sonnenlicht ergänzt diese Nachweisführung und bestätigt die in der Vorbemerkung zitierte Naturbeobachtung. IPCC-Klimamodelle bilden nach Ansicht des Autors die Natur falsch ab oder „modellieren“ falsch. Die Temperaturbildung über die einzelnen Breitengrade folgt anderen Gesetzen. Diese werden im Buch explizit aufgezeigt. Im Ergebnis gibt es den Treibhauseffekt durch die in voneinander unabhängigen Beweisketten begründeter Nachweisführung real nicht.

Über den Autor:

Als konstruktiver Bauingenieur des Hoch- und Tiefbaus (Stahlbau, Holzbau, Stahlbeton, Spannbeton, Brückenbau, etc., mit universitärer Ausbildung u.a. in Mathematik, Informatik, Physik, Statik, technischer Mechanik, Geologie, Hydraulik, Hydrologie, Wasserbau, Straßen- und Eisenbahnbau, Bodenmechanik, Felsmechanik, Geophysik und Baurecht) habe ich viele Jahre als Statiker und auch als Prüfstatiker gearbeitet. Mit der eigenen Unterschrift, der direkten juristischen Haftung für Freigabe der Ausführung, übernimmt man die persönliche Verantwortung. Als Prüfstatiker wird man in der Regel vereidigt, um unbestechlich, ohne Ansehen der Person oder Institution, zu prüfen. Es ist die Aufgabe, letztverantwortlich Fehler zu finden und zu korrigieren zum Schutz für Leib und Leben der Menschen. Hierbei prüft man auch Algorithmen der Software bzw. die Software selbst. Heute bin ich in einem anderen Bereich des Bauwesens tätig. In der Statik wurden immer leistungsfähigere räumliche Berechnungsverfahren (Netze bzw. Finite Elemente) bereits Ende/Mitte der 1980er Jahre entwickelt. Die Software der Klimamodelle verwendet ebenfalls räumliche Netze (Grids). Sie sind etwas anders aufgebaut, mit anderen Differenzialgleichungen bestückt und gehorchen anderen Randbedingungen als die Netze, die Bauwerke modellieren. Aus rein privatem Interesse begann ich vor vielen Jahren – als die Treibhaushypothese noch nicht im öffentlichen Interesse stand – mich mit dieser auseinander zu setzen. A priori ging ich davon aus, der sogenannte „Treibhauseffekt “ sei selbstverständlich richtig. Klimawissenschaftler haften juristisch weder für ihre Modelle noch für die volkswirtschaftlichen Auswirkungen ihrer Berechnungen. In den gängigen Klimamodellen wird der THE benötigt, um die Temperaturbildung durchzuführen. Es tauchten beim THE für mich Ungereimtheiten, Widerspruche und Fehler in seiner Ableitung auf. Über 900 Studien arbeitete ich über die Jahre zum Thema Modellierung-Klima-THE durch, privat, aber in der Herangehensweise eines Prüfingenieurs.

Taschenbuch DIN A4 264 Seiten ISBN 978-3-347 95039-9 Gebundene Ausgabe DIN A4 264 Seiten ISBN 978-3-347 95040-5

Im Buchhandel oder im tredition shop: Ein Bild, das Screenshot, Schwarzweiß, Muster, Quadrat enthält. Automatisch generierte Beschreibung