Lösung des Klima-Puzzles: Die überraschende Rolle der Sonne von Javier Vinós/CLINTEL

CLINTEL-Wissenschaftler Javier Vinos hat ganz frisch das Buch „Lösung des Klima-Puzzles“ mit einem Vorwort des renommierten Ökologen Prof. Dr. Josef Reichholf auf den Markt gebracht.

Die deutsche Ausgabe wurde mit der wertvollen Unterstützung von EIKE-Mitglied Christian Freuer, einem Diplom-Meteorologen, erstellt.

https://www.amazon.de/dp/8412778367/

 




Das deutsche Reaktorschiff ‚Otto Hahn‘ – 22 Kilogramm auf 500.000 Kilometer

von Hans Hofmann-Reinecke

Bevor 2024 zu Ende geht sollten wir des 60-jährigen Jubiläums eines erstaunlichen Stapellaufs gedenken. Das Schiff war 172 Meter lang, 23 Meter breit und 26.000 Tonnen schwer. Es hatte Raum für 100 Passagiere samt Besatzung und konnte nebenher viele Tonnen Fracht transportieren. Damals, 1964, war der Luftverkehr noch wenig entwickelt, sodaß Passagiere oft den Seeweg nahmen, meist auf gleichem Kiel wie Getreide oder Erz. Was ist also bemerkenswert daran, wenn wieder einmal solch ein Vehikel damals zu Wasser gelassen wurde? Lesen Sie weiter…

Eine halbe Million in vier Jahren

Der Antrieb handelsüblicher Schiffe kommt von Maschinen, die Kohle oder Öl verbrennen und dabei CO2 ausstoßen, das erwähnte Modell aber verbrannte Uran. In einem Druckkessel von 3,5 Metern Durchmesser und vier Meter Höhe arbeitete ein Kernreaktor, der eine Turbine mit Dampf versorgte, die dann 50.000 PS (rund 35 MW) auf die Welle brachte. Der Treibstoff bestand aus rund zwei Tonnen Uran, auf 3,5 – 6,6% angereichert.

Bei seinem Launch 1964 wurde das Schiff nach dem Entdecker der Kernspaltung benannt: Otto Hahn. 1968, vier Jahre nach Stapellauf, nahm sie ihren Dienst auf und befuhr die Weltmeere. Nach vier Jahren hatte sie knapp eine halbe Million Kilometer hinter sich und mußte an die Box, um den verbrauchten Treibstoff gegen neuen zu wechseln. „Verbraucht“ war eigentlich nur das auf ein paar Prozent angereicherte U235, und davon gerade mal 22 kg! Die haben sich allerdings nicht in Luft aufgelöst, sondern wurden in leichtere Kerne gespalten, die extrem radioaktiv sind. Das U238, welches mehr als 90% des Gewichts der Brennstäbe ausmacht, hat nichts geleistet, es war nur mit von der Partie. Allerdings hat es im Reaktor Neutronen eingefangen und sich dabei in teils sehr langlebige radioaktive Substanzen verwandelt.

Die Entsorgung dieser gefährlichen Stoffe war damals kein Problem: darum kümmerte sich die Wiederaufbereitungsanlage im englischen Sellafield.

Ein Eisberg aus Borniertheit

1979 aber lief die „Otto Hahn“ auf einen Eisberg – nicht aus gefrorenem Wasser, sondern aus grüner Borniertheit. Damals war „Anti-Atom“ schon voll im Gange, und so ein tadellos funktionierendes, abgasfreies Vehikel mit Atomantrieb, das ging jetzt gar nicht. Der Reaktor wurde aus dem Schiff entfernt und gegen einen Diesel ausgetauscht. Auch der Name wurde geändert und die Otto Hahn war jetzt nuklearbereinigt.

Der beschriebene Kernreaktor leistete im Gegensatz zu seinen großen Brüdern, die um die 1.500 MW liefern, nur 35 MW. Und er bestand aus Modulen, die im Werk gefertigt und zusammengesetzt wurden. Er war also genau das, was heute unter dem Label „Small Modular Reactor (SMR)“ läuft, und dem man weltweit eine wichtige Rolle bei der zukünftigen Stromversorgung prophezeit.

Konnten die das vor 60 Jahren schon? Durften die das? Wer hatte dieses Wunderwerk gebaut? Es waren die Deutsche Babcock & Wilcox Dampfkessel Werke, ansässig in Oberhausen im Ruhrgebiet UND Interatom aus Bensberg. Leitung hatte ein gewisser Erich Bagge. Der hatte seinerzeit bei Otto Hahn in Kernphysik promoviert hatte und wurde nach dem Krieg Professor an der Universität Kiel, wo ich als Student die Ehre hatte, ihn kennenzulernen.

Es ist doch ganz erstaunlich was geleistet werden kann, wenn man hochkarätigen Professionals freie Hand gibt. Heute, 60 Jahre später, werden Wirtschaft und Wissenschaft von Küchenhilfen, Literaturphilosophen und Studienabbrechern gegängelt – und man braucht zur Reparatur einer vernachlässigten Brücke länger als zum Bau eines technischen Wunderwerks.

Hinweis der Redaktion: Die Anti-Atomkraftbewegung wurde bereits 20 Jahre vor dem Umbau der ‚Otto Hahn‘ von einem Heimatschriftsteller names Günther Schwab aus Wien angestoßen. Sein Buch „Der Tanz mit dem Teufel – Ein abenteuerliches Interview“ von 1958 warnte vor der friedlichen Nutzung der Kernkraft. Schwab war NSDAP-Mitglied und gründete 1960 den Weltbund zum Schutz des Lebens.

Dieser Artikel erscheint auch im Blog des Autors Think-Again. Der Bestseller Grün und Dumm, und andere seiner Bücher, sind bei Amazon erhältlich.




Die neue Eiszeit kommt! – Klimawissen – kurz & bündig

No. 58. – Von 1970 bis 1979 waren sich die Klimaexperten sicher, daß eine neue Eiszeit käme. Grund: Der Ruß und das Schwefeldioxid (das auch den „Wald sterben“ ließ) aus den Emissionen der Industrie schirmen die Sonnenstrahlung ab und ließen die Erde deshalb auskühlen.

Auch Super-Vulkanausbrüche wurden als mögliche Ursachen der kommenden Eiszeit genannt. Als Folgen der Abkühlung wurden Meeresspiegel-Veränderungen, Hungersnöte, Millionen Klimaflüchtlinge, häufigere Extremwetter wie Dürren oder Fluten genannt.

Kommt Ihnen das bekannt vor? Passend zur Panikmache von Experten und Journalisten wüteten 1978/79 Eisstürme in der nördlichen Hälfte Deutschlands (beide Staaten) und in den Nordstaaten der USA. In Niedersachsen mußten Leopard- und Büffel-Panzer der Bundeswehr Schneisen in die Scheeberge räumen, um Hunderte zivile Fahrzeuge von der Autobahn zu bekommen.

Da 1979 das letzte Jahr der 40jährigen Abkühlphase des 20. Jahrhunderts war, konnten die Profiteure der Panik nur schwer so weitermachen – „Hitze kommt von Kälte“ war in den warmen 80ern noch nicht so leicht zu verkaufen. Daher drehten sich Experten und Journalisten 79/80 erstaunlich rasch um 180°, schlichen den Eiszeitalarm aus und den Heißzeitalarm ein. 1988 dann war die CO2-Erzählung etabliert, und der Weltklimarat konnte störungsfrei gegründet werden.




Help, we are sinking! Klimaschau international – Climate World News 4

Die Regierung der Malediven hielt vor 15 Jahren eine Kabinettsitzung unter Wasser ab, um den eigenen Untergang durch den Anstieg des Meeres zu illustrieren. Heute hingegen werden neue Flughäfen im Inselstaat gebaut – Untergang adé. Ist die Geschichte vom Untergang der Südseeinseln durch die angeblich menschgemachte Erderwärmung also falsch? Eins ist sicher: Inseln sind keine statischen Gebilde – sie verändern sich mit und ohne „Klima“ laufend – z.B. durch Anspülung, Abtragung, Kontinentaldrift usw.




‚Die starren Vorstellungen des Weltklimarates‘ von CLINTEL – Temperaturmessung global

Teil 2: Temperaturmessung global – sind selbst die Daten der modernen Hightech-Meßgeräte nicht zuverlässig?


Unsere Kollegen von CLINTEL (Climate Intelligence Foundation) veröffentlichten vor kurzem das Buch „Die starren Vorstellungen des Weltklimarates“.

https://clintelwebshop.org/de/product/die-starren-klima-vorstellungen-des-ipcc/

Der niederländische Journalist Marcel Crok und der Geologe Guus Berkhout, die Gründer von CLINTEL, konzentrieren sich mit ihrer kritischen Aufklärungsarbeit auf die Sachstandsberichte des Weltklimarates IPCC (Intergovernmental Panel on Climate Change). Diese „Assessment Reports“ werden in unregelmäßigen Abständen alle paar Jahre veröffentlicht und in den Medien punktuell präsentiert.

„Punktuell“ ist hier der entscheidende Begriff, weil die Berichte mittlerweile über 10.000 Seiten Umfang haben, die von Hunderten Autoren formuliert wurden. Die enorme Menge von Informationen kann natürlich kaum jemand verarbeiten, weswegen es stets stark verkürzte Versionen für politische Entscheider gibt.

Im Abschnitt A – Beobachtungen – berichten die CLINTEL-Autoren von der Technologie der globalen Temperaturmessung und eklatanten Widersprüchen.

Messen mit Meßfehler

Die Messung der Oberflächentemperatur machte in den letzten 150 Jahren bewundernswerte Fortschritte – von den Quecksilber-Thermometern über elektronische Verfahren bis hin zur aktuellen Satellitenmessung. Auch wenn die Weiterentwicklung der Technik grundsätzlich zu begrüßen ist, hat der Fortschritt doch seine Tücken. Meßtechniker wissen, daß jede Messung, ob Genexpression im Labor oder Temperatur im Harz, einen Fehler bis zu 10% enthält. Wenn also der elektronische Meßfühler eines Wetterhäuschens im Harz 10°C anzeigt, kann es auch etwas weniger sein – oder mehr.

Erfahrungsgemäß neigen verschiedene Apparate mehr in die eine oder andere Richtung, was die Vergleichbarkeit alter und neuer Technologie-Daten erschwert. Die Abweichungen liegen meist nicht im relevanten Bereich – ob es morgen 10 oder 10,3°C sind, spielt für Bürger oder Industrie keine Rolle. Da die Klima-Berichterstattung aber auf Erhöhungen der Durchschnittswerte im Nachkommastellenbereich abhebt, können Meßfehler und Technologie-typische Abweichungen sehr wohl eine Rolle spielen.

Etwas Theorie und höchst pikante Praxis zu diesem Thema hören Sie in diesem Video von Michael Limburg, Ingenieur für Meßtechnik:

Drastischer als Abweichungen im Nachkommastellenbereich sind schlecht gewählte Temperatur-Proxys wie die kanadischen Baumringe von Michael E Mann, der die Temperatur des Hochmittelalters für seine berüchtigte „Hockeyschläger“-Kurve mit Daten aus einer offensichtlich stets kühlen kanadischen Region rekonstruierte.

Ein weiteres gern verschwiegenes Beispiel ist der sogenannte städtische Wärmeinsel-Effekt in sich ausbreitenden Siedlungen, der für teils deutlich höhere Durchschnittstemperaturen sorgt, die von alten Meßstationen registriert werden. In dem Zusammenhang müssen auch bewußte Täuschung & Pfusch erwähnt werden, wie der aktuelle Skandal des britischen Meteorologie-Dienstes, die EIKE mit dem Artikel „Geister-Wetterstationen in Großbritannien? Mehr als ein Drittel nicht existent“ beschrieb.

„Welttemperatur“ wirklich weltweit gemessen?

Wahrscheinlich nur halb absichtliche systematische Fehler sind die Verringerung der Zahl terrestrischer Meßstationen ab 1990 und die traditionell grotesk ungleiche Verteilung der Meßpunkte auf dem Planeten. Im 18. und 19. Jahrhundert wurde außerhalb der westlichen Welt, also Europa, Nordamerika und Australien/Neuseeland, nicht flächendeckend gemessen. Dieser Zustand besserte sich erst nach dem Zweiten Weltkrieg allmählich. Das bedeutet, daß die „Weltmitteltemperatur“ der Jahre vor 1950 von Daten der nördlichen Hemisphäre dominiert wird – und auch noch von Daten der damaligen Industrieländer. Das wiederum heißt nicht, daß es nicht mindestens in Europa zwischen 1900 und 1940 etwas wärmer geworden ist, aber die „globalen“ Meßdaten vor 1950 sind nicht global und besitzen nur regionale oder kontinentale Aussagekraft.

Das Wort „kontinental“ deutet an, daß zudem meist nur Daten vom Land vorliegen – die 70% Wasser auf der Erdoberfläche hingegen, wo das Wetter überwiegend gemacht wird, sind historisch kaum erfaßt. Heute sieht es mit den ARGO-Roboterbojen schon etwas besser aus, aber jede Boje deckt im riesigen Pazifik einen riesigen Bereich ab. Heißt, bis heute ist die „globale Mitteltemperatur“ der Meßtechnik am Boden alles andere als global, weil die meisten Daten von zentralen Regionen an Land kommen.

Die Fallstricke des technischen Fortschrittes

Da seit 1979 neben den terrestrischen Meßstationen die Satellitentechnik hinzukam, die unabhängig von abgelegenen Landstandorten oder den Ozeanen überall messen kann, wurde das Problem scheinbar gelöst. Leider können Satelliten die Temperatur gar nicht wirklich messen, sondern nur die Reflexion des Lichts von der Oberfläche. Der erhaltene Wert für einen Ort wird dann mittels Formel in eine Temperatur umgerechnet. Erfahrenen Klimaskeptikern ist diese Methodik nicht neu, da in der offiziösen Klimawissenschaft erstaunlich viel „errechnet“ statt gemessen wird. Das Verfahren ist bestens von den Klima-Computermodellen bekannt, und auch von der jahrezehntelangen Messung des „globalen“ CO2-Gehalts der Atmosphäre von einer Station auf dem aktiven, also CO2 emittierenden Mauna Loa-Vulkan der Hawaii-Hauptinsel. Das störende vulkanische Kohlendioxid wird natürlich „herausgerechnet“.

https://www.nsstc.uah.edu/climate/2024/october/202410_Bar.png

Erderwärmung seit den 1980ern? Satelliten-Daten der Universität von Alabama in Huntsville, wo unser Referent Roy Spencer die Temperaturaufzeichnung managt.

EIKE und CLINTEL behaupten nun nicht, daß der mittlere CO2-Gehalt der Erdatmosphäre heuer nicht 0,042% Stoffmenge (420ppm) beträgt, und daß es im 20. Jahrhundert von 1900-1940 und dann wieder von 1980 bis 2000 nicht etwas wärmer wurde. Allerdings zeigen die genannten Widersprüche und mehr oder minder offenen Betrügereien der Temperaturdatenerhebung, daß die Messungen nicht so präzise und zuverlässig sind wie behauptet, und daß aus politischen oder finanziellen Gründen gefälscht und manipuliert wird.

Heißester Monat x seit 125.000 Jahren

Vor allem historische Vergleiche oder Meßkurven über Jahrhunderte, die in den Massenmedien oder offiziösen Wissenschaftsmagazinen publiziert werden, sind daher mit äußerster Vorsicht zu genießen. Stilblüten wie „heißester Monat x seit 125.000 Jahren“ geben natürlich nicht die Realität wieder, sondern sind politisch motiviert. Und Vergleiche wie „heute höchster CO2-Gehalt seit sechs Millionen Jahren“ könnten zwar grob stimmen, sind aber schlichte Manipulation, weil nicht gleichzeitig offengelegt wird, daß die globale CO2-Konzentration der Erdatmosphäre schon seit Millionen von Jahren im unteren Bereich weit unter 1.000 ppm (1 Promille) liegt. In der Zeit davor hingegen hatte die Atmosphäre nicht selten CO2-Werte im Prozentbereich – in heißen und in kalten (!) Phasen.