Mehr zu künstlicher Ignoranz

Willis Eschenbach

Mein vorheriger Beitrag mit dem Titel „Künstlicher Alarmismus“ [in deutscher Übersetzung hier] hat einige Kommentare von Leuten erhalten, die meinen, dass ich falsch liege und dass großsprachige Modelle in der Tat die Faktenüberprüfung wissenschaftlicher Behauptungen automatisieren können. Dies war ein interessanter Kommentar, für den ich dem Verfasser danken möchte:

Die Art von KI-Anwendungen, von denen ich spreche, lehnt keine Dinge ab. Sie fassen sie zusammen, auch die Debatten. Im Übrigen habe ich ChatGPT kürzlich dazu gebracht, korrekt zu erklären, warum Happer dem Alarmismus nicht zustimmt. Nichts wurde abgelehnt.

Die Mathematik, auf die ich mich beziehe, wird in der Wissenschaft verwendet. Fast alle veröffentlichten wissenschaftlichen Arbeiten verwenden Mathematik, sie ist also universell. In dem Artikel, auf den ich mich beziehe, verwende ich Monte Carlo als Beispiel. Es gibt einen Fortschritt in der Monte-Carlo-Methode, der in einer Fachzeitschrift für Forstwirtschaft veröffentlicht wurde und der in alle anderen Bereiche gelangen muss, die diese Methode verwenden – und das sind sehr viele.

Sie wissen ja, wie Google jetzt verwandte und verfeinerte Suchanfragen vorschlägt. Das ist KI, und sie funktioniert gut.

Daraufhin beschloss ich als Wissenschaftler, dass das Experiment viel besser ist als die Theorie. Also ging ich zu ChatGPT, und es stellte sich heraus, dass es ziemlich lustig war, aus einem Grund, den ich am Ende erklären werde. Zunächst zu den Fragen und Antworten, Hervorhebung von mir:

Ich:

Welche dieser beiden Aussagen ist richtig?

1)Die Temperatur auf der Erde wird hauptsächlich durch CO₂ gesteuert, oder

2) Die Welttemperatur wird hauptsächlich durch aufkommende Phänomene wie Gewitter, El Nino/La Nina-Veränderungen und Wirbelstürme gesteuert.

ChatGPT:

Beide Aussagen erfassen wichtige Aspekte des Klimasystems der Erde, aber sie betreffen unterschiedliche Ebenen des Einflusses:

Der Haupteinfluss auf die Temperatur der Erde ist CO₂: Diese Aussage unterstreicht die Rolle der Treibhausgase, insbesondere von Kohlendioxid (CO₂), bei der Regulierung der Erdtemperatur. Treibhausgase halten die Wärme in der Atmosphäre zurück, tragen zum Treibhauseffekt bei und beeinflussen die globalen Temperaturen über lange Zeiträume.

Die Temperatur der Erde wird hauptsächlich durch aufkommende Phänomene wie Gewitter, El Niño/La Niña und Wirbelstürme gesteuert: Diese Aussage verdeutlicht den Einfluss kurzfristiger und regionaler Wettermuster und -phänomene auf die globalen Temperaturschwankungen. Ereignisse wie El Niño und La Niña, die Teil des El Niño-Southern Oscillation (ENSO)-Zyklus sind, können zu vorübergehenden Veränderungen der globalen Temperaturmuster führen. Ebenso können Gewitter und Wirbelstürme lokale und regionale Temperaturen beeinflussen.

Beide Aussagen sind bis zu einem gewissen Grad zutreffend, aber sie wirken auf unterschiedlichen Ebenen und in unterschiedlichen Zeiträumen. Treibhausgase wie CO₂ üben einen langfristigen Einfluss auf die globalen Temperaturen aus, während aufkommende Phänomene wie Wettermuster und natürliche Klimaschwankungen kurzfristige Temperaturschwankungen auf regionaler und globaler Ebene verursachen können.

Ich

Du verstehst das nicht. Beide können nicht „die wichtigste Kontrolle“ sein. Du musst dich für eines entscheiden!

ChatGPT

Ich verstehe, und Sie haben Recht. Lassen Sie uns das klarstellen:

Es geht um diese beiden Aussagen:

Die Temperatur auf der Welt wird hauptsächlich durch CO₂ gesteuert.

Die Temperatur auf der Erde wird hauptsächlich durch aufkommende Phänomene wie Gewitter, El Niño/La Niña-Veränderungen und Wirbelstürme beeinflusst.

In Anbetracht des langfristigen und übergreifenden Einflusses auf die globale Temperatur wäre eine genauere Aussage angebracht:

Der Haupteinfluss auf die Welttemperatur ist CO₂.

Während aufkommende Phänomene wie Gewitter und Klimaschwankungen kurzfristige Schwankungen und regionale Abweichungen der Temperatur verursachen können, werden der Gesamttrend und die langfristigen Veränderungen der globalen Temperatur weitgehend von Faktoren wie der Treibhausgaskonzentration bestimmt, wobei CO₂ einen wesentlichen Beitrag leistet. Daher beschreibt Aussage 1 die primäre Steuerung der weltweiten Temperatur genauer.

Rein zufällig hatte ich eine Frage gestellt, die das Problem der künstlichen Intelligenz perfekt auf den Punkt bringt. Ich werde gleich darauf zurückkommen. Zunächst etwas Geschichte.

Als ich um das Jahr 2000 anfing, mich mit dem Klima zu beschäftigen, fiel mir etwas auf, und zwar nicht, dass die Temperatur steigt.

Ich betrachtete das Klima als eine riesige Wärmekraftmaschine, die Sonnenenergie in die Bewegungen der Ozeane und der Atmosphäre umwandelt. Wie alle Wärmekraftmaschinen hat sie ein heißes Ende, wo die Energie hauptsächlich eintritt (die Tropen), und ein kaltes Ende, wo die Energie abgestoßen wird (die Pole).

Ich habe in meinem Leben mit einer Vielzahl von Wärmekraftmaschinen gearbeitet und weiß, wie schwierig es ist, sie dazu zu bringen, eine konstante Geschwindigkeit zu halten. Aus diesem Grund hat James Watt den Flyball-Regler erfunden.

Der Regler regelte die Geschwindigkeit der von James Watt neu erfundenen Dampfmaschine und verhinderte, dass sie zu langsam oder zu schnell lief. Ein moderner Regler, den viele kennen, ist der „Tempomat“ in Ihrem Auto, der Ihre Geschwindigkeit in relativ engen Grenzen hält. Meiner ist auf etwa ± 2 Meilen pro Stunde bei sagen wir 50 mph, also ± 4 %, genau.

Alle Berechnungen über Wärmekraftmaschinen müssen in Kelvin durchgeführt werden – man kann nicht Celsius oder Fahrenheit verwenden, man würde die falschen Antworten erhalten.

Als ich mir also im Jahr 2000 das Klima ansah, war mir nicht so sehr aufgefallen, worauf sich alle anderen konzentrierten – dass sich der Globus im gesamten 20. Jahrhundert größenordnungsmäßig um irgendetwas um 0,6 K erwärmt hat.

Für mich war vor allem interessant, dass dies nur eine Temperaturveränderung von 0,2 % im gesamten 20. Jahrhundert war. Die globale Durchschnittstemperatur der Erde liegt in der Größenordnung von 288 K oder so … und eine Änderung von 0,6 K ist im Vergleich dazu trivial.

Und für mich deutete die Temperaturregulierung der riesigen globalen Wärmekraftmaschine mit einer Genauigkeit von ± 0,2 % stark darauf hin, dass es ein natürliches Phänomen gibt, das die Temperatur stabil hält – ein natürlicher Regler, wenn man so will.

Das brachte mich auf eine ganz andere Suche als all die anderen Klimawissenschaftler. Sie alle suchten nach Gründen, warum die Temperatur so stark angestiegen war. Aber ich? Ich suchte nach Gründen, warum sie sich kaum verändert hatte. Ich suchte nach dem versteckten Regler, der die globale Temperatur im 20. Jahrhundert so stabil gehalten hatte. In diesen hundert Jahren war alles Mögliche passiert – Vulkane, Veränderungen der Meeresströmungen, Atombomben, Dürren, Schwankungen der Menge der Aerosole, und bei all dem … eine Veränderung von 0,2 %.

Und das Gleiche gilt für den längeren Zeitraum. Über Jahrtausende hinweg hat sich die Temperatur prozentual gesehen nur geringfügig verändert. Ja, ein gigantischer Vulkanausbruch im Jahr 1815 hatte ein „Jahr ohne Sommer“ verursacht … aber nach ein paar Jahren war alles wieder beim Alten. Ich war also auf der Suche nach etwas, das die Temperatur über einen langen Zeitraum hinweg kontrollieren konnte.

Ich war auf der Suche nach einem langsamen, langfristigen Kontrollprozess. Ich dachte an die allmähliche Verwitterung des kontinentalen Gesteins, die für eine langsame Regulierung des CO₂-Gehalts in der Atmosphäre sorgt. Ich habe mir das Hirn zermartert, um einen natürlichen Regler zu finden, der auf einer hundertjährigen oder tausendjährigen Skala funktioniert. Ich verbrachte einige Monate damit, verschiedene Möglichkeiten zu suchen, auszuwählen, zu überdenken und wieder zu verwerfen.

Zu dieser Zeit lebte ich auf den Fidschi-Inseln. Dort ist das Wetter bei Sonnenaufgang im Allgemeinen klar. Dann, am späten Vormittag, wenn die Temperatur eine bestimmte Schwelle überschreitet, bilden sich schnell Wolken in Form eines Kumulusfeldes, das den gesamten Himmel bedeckt. Dadurch kühlt sich die Erde ab, da die Sonnenstrahlen in den Weltraum zurückgeworfen werden.

Und falls es am Tage noch wärmer wird, wenn die Temperatur einen höheren Schwellenwert überschreitet, kommt es zu Gewittern, welche die Oberfläche auf vielfältige Weise weiter abkühlen.

Ist der Tag dagegen morgens besonders kühl, bildet sich das Kumulusfeld erst später am Tag oder vielleicht gar nicht, so dass die Oberfläche wärmer bleibt als sie es sonst wäre. Es kann auch sein, dass es keine Gewitter gibt, so dass die Oberfläche noch wärmer wird.

Und dazwischen sorgen sie dafür, dass die Tage auf den Fidschi-Inseln weder zu heiß noch zu kalt werden. Aber ich hatte sie verworfen, weil sie nur kurzzeitig wirken und nicht der langfristige Regulator sind, den ich gesucht habe.

Jedenfalls saß ich eines Tages am Strand und betrachtete den täglichen Beginn des Kumuluswolkenfeldes, und ich dachte … „Moment mal. Falls die Wolken und Gewitter die Temperatur an einem einzigen Tag in Grenzen halten und verhindern, dass es entweder zu heiß oder zu kalt wird, dann werden sie sie auch eine Woche lang in Grenzen halten … oder einen Monat, ein Jahr, ein Jahrhundert, ein Jahrtausend …“

Das war meine große Einsicht – dass emergente Phänomene, indem sie die Temperatur in einem bestimmten Bereich auf einer Skala von Stunden und Tagen halten, die Temperatur auf dieselbe Weise für eine beliebige Zeitspanne in einem bestimmten Bereich halten können.

Denken Sie nun daran, warum ich bei meinem Gespräch mit ChatGPT gelacht habe. Gehen Sie zurück und schauen Sie sich an, warum ChatGPT CO₂ gegenüber auftauchenden Phänomenen als Hauptsteuerungsfaktor ausgewählt hat – weil ChatGPT denkt, dass sie nur kurzfristige Auswirkungen haben.

Wie merkwürdig. ChatGPT blieb genau dort stecken, wo ich schon so lange feststeckte, bevor ich zu der Einsicht kam, dass ein Mechanismus, der die Temperatur eines einzigen Tages steuert, die Temperatur über Hunderte von Jahren kontrolliert.

Und so, liebe Freunde, erwies sich meine unschuldige Frage an ChatGDP rein zufällig als perfektes Beispiel dafür, warum ich sage, dass künstliche Ignoranz nutzlos ist, um die Wahrheit oder Falschheit wissenschaftlicher Behauptungen zu bestimmen – sie kann nicht denken, wir aber schon. Im Gegensatz zum Menschen kann es nicht einen Monat lang über etwas nachdenken und dann plötzlich eine wertvolle Erkenntnis haben.

Alles, was es tun kann, ist, den aktuellen Konsens nachzuplappern … und leider gibt es schon viel zu viele Menschen, die genau das tun.

Meine besten Wünsche an alle, ob Skeptiker, Gläubige, Ketzer, Alarmisten, Realisten, Mainstream oder Hinterwäldler.

Link: https://wattsupwiththat.com/2024/01/29/more-about-artificial-ignorance/

Übersetzt von Christian Freuer für das EIKE

 




Woher kommt der Strom? Dunkelflautenphase nur 30 Stunden

3. Analysewoche 2024, von Rüdiger Stobbe

In diese Analysewoche dauerte die Dunkelflautenphase nur 30 Stunden. Importstrom stand zur Verfügung und wurde genutzt. Man erkennt, dass in der Nacht, in der bedarfsarmen Zeit der Preis des Importstrom sinkt. Schaut man sich die komplette dritte Analysewoche an, erkennt man, dass der Preis allerdings höher liegt als während der übrigen „Nachtstrompreistäler“. Auch wenn der Dunkelflauten-Zeitraum kurz erscheint, es fehlt eine gewaltige Menge Strom, der konventionell hinzuerzeugt werden muss. Es sind am 17.1.2024 um 18:00 in der Spitze 58,2 GW bei 71 GW Strombedarf. Die Erneuerbaren lieferten Strom mittels Wind onshore 4,2 GW, Wind offshore 2,0 GW, Photovoltaik 0,0 GW, Laufwasser 1,9 GW und Biomasse 4,7 GW. Macht insgesamt eine regenerative Stromerzeugung von 12,8 GW.  Neben dem konventionellen Strom, der in Deutschland direkt erzeugt wird, wird, wenn dies möglich ist, Strom aus dem benachbarten Ausland importiert. Das sind zum gewählten Zeitraum 8,0 GW.

Fehlen nach dem Stromimport 50,2 GW. 14,3 GW elektrische Energie werden durch Strom, der in Gaskraftwerken erzeugt wird, geliefert. Pumpspeicher (3,8 GW) und andere Stromerzeuger (0,2 GW) erzeugen insgesamt 4 GW. Es verbleiben 31,9 GW Strom, die nach einem Abschalten der Stein- und Braunkohlekraftwerke erzeugt werden müssten, von denen aber nur 27,2 GW real erzeugt wurden. Selbstverständlich habe ich die Werte bei smard.de kontrolliert. Es bleibt eine nicht angezeigte, aber real natürlich nicht vorhandene Stromlücke von 4,7 GW. Ob es weniger Bedarf ist, ob manche Werte noch nicht vorliegen, wir wissen es nicht. Das soll uns bei unserer aktuellen Analyse auch nicht weiter stören. Fakt ist, dass 27,2 GW Braun- und Steinkohlestrom fehlen würden, wenn die Kraftwerke vom Netz genommen worden wären. Na gut, von den 32 GW installierte Leistung Gaskraftwerke könnten noch etwa 17,7 GW erzeugt werden, wenn man sie zu 100 Prozent aktivieren würde. So blieben 9,5 GW offen. Vorausgesetzt alles kommt so wie beschrieben. Kann das Ausland keinen Strom liefern, erhöht sich der zusätzliche Bedarf auf 17,5 GW. Wie auch immer: In unserem Beispiel fehlen 9,5 GW elektrische Energie. Wobei eine gewisse Tragik in der Tatsache liegt, dass das Kernkraftwerk Isar 3, das als letztes „Atomkraftwerk“ abgeschaltet wurde, eine elektrische Leistung von knapp 1,5 GW lieferte. Gut sechs solcher Anlagen würden das Problem ´Bedarf 9,5 GW` lösen.

Hatte man nicht mit Philippsburg ab Dezember 2019 insgesamt sieben Kernkraftwerke vom Netz genommen, wäre Deutschland mit seinem Ziel CO2-Reduktion schon einen großen Schritt weiter. Jetzt aber sind sie halt nicht mehr da, die sichersten Kernkraftwerke der Welt. Also müssen Gaskraftwerke, die sogenannten Backup-Kkraftwerke gebaut werden. Aber bitte zügig. Bis zum Jahr 2030. Sonst wäre es mehr als fahrlässig irgendetwas im Bereich Kohle abzuschalten. Um im Beispiel zu bleiben und unter der Prämisse „Wasserstoff ready“ für die Gaskraftwerke gilt dieses: Um 1 GW elektrische Energie zu produzieren, sind – sorry – schlappe acht Kraftwerke wie in Leipzig neulich eröffnet, vonnöten. 9,5 GW bedeuten 76 Anlagen dieser Kraftwerkskategorie. Entsprechend mehr wird es, wenn man berücksichtigt, dass der Kraftwerkspark insgesamt maximal zu 90 Prozent genutzt werden kann.

Deswegen ist die Nutzung der vorhandenen installierten Leistung Gas (32 GW) oben nur dem Beispiel, das kompliziert genug ist, geschuldet. Klappt das bis zum Jahr 2030? Auch im Jahr 2035, im Jahr 2040 wird das nichts. Denn der Bedarf steigt. Der Ausbau der Erneuerbaren vielleicht ebenfalls. Doch bei wenig Wind und Sonne werden aus 6,2 GW auch nur 12,4 bei einer Verdoppelung der aktuell installierten Leistung Windkraft. Da würden immer noch 24 Gaskraftwerke à la Leipzig nötig sein. Ich befürchte, das alles wird nichts. Jetzt zu den Kosten, den Investoren, dem Bundeshaushalt … War nur Spaß. Doch halt: Das Handelsblatt kommentiert am 29.1.2024 das oben im konkreten Beispiel oben abgehandelte Thema und skaliert den Bedarf und die Kosten in die Zukunft. Der Bericht ergänzt meine Ausführungen bestens.

Wochenüberblick

Montag, 15.1.2024 bis Sonntag, 21.1.2024Anteil Wind- und PV-Strom 41,3 Prozent. Anteil regenerativer Energieträger an der Gesamtstromerzeugung 51,5 Prozent, davon Windstrom 38,9 Prozent, PV-Strom 2,4 Prozent, Strom Biomasse/Wasserkraft 10,3 Prozent.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Wochenvergleich zur 3. Analysewoche ab 2016.

Daten, Charts, Tabellen & Prognosen zur 3. KW 2024: Factsheet KW 3/2024 – ChartProduktionHandelswocheImport/Export/Preise, CO2Agora-Chart 68 Prozent AusbaugradAgora-Chart 86 Prozent Ausbaugrad.

Jahresüberblick 2024 bis zum 21. Januar 2024 

Daten, Charts, Tabellen & Prognose zum bisherigen Jahr 2024Chart 1Chart 2ProduktionStromhandelImport/Export/Preise/CO2

Tagesanalysen

Was man wissen muss: Die Wind- und PV-Stromerzeugung wird in unseren Charts fast immer „oben“, oft auch über der Bedarfslinie angezeigt. Das suggeriert dem Betrachter, dass dieser Strom exportiert wird. Faktisch geht immer konventionell erzeugter Strom in den Export. Die Chartstruktur zum Beispiel mit dem bisherigen Jahresverlauf 2024 bildet den Sachverhalt korrekt ab. Die konventionelle Stromerzeugung folgt der regenerativen, sie ergänzt diese. Falls diese Ergänzung nicht ausreicht, um den Bedarf zu decken, wird der fehlende Strom, der die elektrische Energie transportiert, aus dem benachbarten Ausland importiert.

Eine große Menge Strom wird im Sommer über Tag mit PV-Anlagen erzeugt. Das führt regelmäßig zu hohen Durchschnittswerten regenerativ erzeugten Stroms. Was allerdings irreführend ist, denn der erzeugte Strom ist ungleichmäßig verteilt.

Montag, 15. Januar 2024: Anteil Wind- und PV-Strom 45,1 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 54,4 Prozent, davon Windstrom 43,6 Prozent, PV-Strom 1,5 Prozent, Strom Biomasse/Wasserkraft 9,3 Prozent.

Die  Windstromerzeugung lässt nach. PV-Strom geht gegen Null.  Die Strompreisbildung

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 15. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 15.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten.

Dienstag, 16. Januar 2024: Anteil Wind- und PV-Strom 30,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 49,1 Prozent, davon Windstrom 27,8 Prozent, PV-Strom 2,3 Prozent, Strom Biomasse/Wasserkraft 10,1Prozent.

Über Tag kommt es wegen einer Windstromdelle und trotz des enormen PV-Ausbaus im Jahr 2023 zu Importstrombedarf. Die Strompreisbildung

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 16. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 16.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Mittwoch, 17. Januar 2024: Anteil Wind- und PV-Strom 25,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 36,4 Prozent, davon Windstrom 24,5 Prozent, PV-Strom 1,0 Prozent, Strom Biomasse/Wasserkraft 10,9 Prozent.

Ab 9:00 Uhr rutscht die Stromerzeugung für etwa 30 Stunden in eine kalte Dunkelflaute. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 17. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 17.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Donnerstag, 18. Januar 2024: Anteil Wind- und PV-Strom 21,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 33,5 davon Windstrom 19,7 Prozent, PV-Strom 1,9 Prozent, Strom Biomasse/Wasserkraft 11,9 Prozent.

Ab 15:00 Uhr zieht die Windstromerzeugung wieder an. Der Stromimport wird um 19:00 Uhr beendet. Die Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 18. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 18.1.2024: ChartProduktion, HandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Freitag, 19. Januar 2024: Anteil Wind- und PV-Strom 46,5 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,0 Prozent, davon Windstrom 44,3 Prozent, PV-Strom 2,2 Prozent, Strom Biomasse/Wasserkraft 10,6 Prozent.

Die Windstromerzeugung steigt weiter. Stromimporte sind nicht mehr notwendig. Die  Strompreisbildung.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 19. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 19.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Samstag, 20. Januar 2024: Anteil Wind- und PV-Strom 53,0 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 63,2 Prozent, davon Windstrom 48,5 Prozent, PV-Strom 4,5 Prozent, Strom Biomasse/Wasserkraft 10,2 Prozent.

Der Bedarf sinkt. Die dadurch entstehende Stromübererzeugung senkt das Preisniveau. 100€/MWh werden auch in der Spitze nicht aufgerufen.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 20. Januar ab 2016.

Daten, Tabellen & Prognosen zum 20.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Sonntag, 21. Januar 2024: Anteil Wind- und PV-Strom 64,4 Prozent. Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 74,7 Prozent, davon Windstrom 61,1 Prozent, PV-Strom 3,3 Prozent, Strom Biomasse/Wasserkraft 10,3 Prozent.

Die regenerative Erzeugung reicht nahe an die Bedarfslinie heran. Das Preisniveau sinkt weiter.

Belege für Werte und Aussagen im Text oben, viele weitere Werte sowie Analyse- und Vergleichsmöglichkeiten bietet der Stromdateninfo-Tagesvergleich zum 21. Januar ab 2016.

Daten, Charts, Tabellen & Prognosen zum 21.1.2024: ChartProduktionHandelstagImport/Export/Preise/CO2 inkl. Importabhängigkeiten

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einem kurzen Inhaltsstichwort finden Sie hier. Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe und Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr.

Rüdiger Stobbe betreibt den Politikblog Mediagnose.




Positive Strahlenwirkungen – Teil 2: Wie ist das alles zu verstehen?

Dr. Lutz Niemann

siehe Teil 1). Dieser Schutzmechanismus tritt unterhalb des NOAEL-Wertes („No Observed Adverse Effect Level”) auf. In der Medizin spricht man von adaptiver Antwort und Impfungen sind eine segensreiche Anwendung.

Wie ist der Effekt der adaptiven Antwort oder Hormesis zu verstehen?

Der menschliche Körper besteht aus etwa lebenden 1014 Zellen. In jeder Sekunde sterben etwa 2 bis 3 Millionen Zellen und es wird die gleiche Anzahl von Zellen neu gebildet. Die Gesundheit der Zellen bestimmt die Gesundheit des Menschen. Wenn für den Körper lebenswichtige Zellen sterben, dann stirbt auch der Mensch. Das Leben des Menschen wird bestimmt durch das Leben der Zellen. In jeder Zelle des Menschen findet der lebensnotwendige Stoffwechsel statt. So werden in jeder Zelle in jeder Sekunde eine Million CO-Moleküle als Verbrennungsprodukt der in der Nahrung enthaltenen Nährstoffe gebildet, mit dem Blutkreislauf abtransportiert und über die Lunge ausgeatmet.

Das Immunsystem muss alle Fremdstoffe – auch schädliche Bakterien und schädliche Viren – bekämpfen. Durch eine Schnapspraline werden dem Körper 10²² giftige Alkoholmoleküle zugeführt, das ergibt rechnerisch für jede Zelle 100 Millionen abzubauende Giftmoleküle. Dieser Abbau gelingt ohne Probleme, der Mensch leidet nicht darunter. Durch den Abbau der Ethanol-Moleküle wird das Immunsystems trainiert, es ist gut für die Gesundheit des Menschen. Erst bei höherer Alkoholzufuhr gelingt der Giftabbau nicht reibungslos, der Mensch verspürt Vergiftungserscheinungen, die je nach Trainingszustand mehr oder weniger stark sind.

Alle Fremdstoffe, die vom Körper bekämpft werden müssen, sind in geringer Menge gut für das Immunsystem, denn sie trainieren es in seinen Fähigkeiten. Ein gut trainiertes Immunsystem kann den nächsten Angriff durch dieselben Fremdstoffe besser überstehen. Das ist ein Nutzen für den Körper.

Welche Dosis von Strahlung ist nützlich / schädlich?

Es ist zunächst zu klären, was eine Strahlendosis von 1 Milli-Sievert (1 mSv) bedeutet. Das kann man sich durch eine Rechnung an einem Beispiel klar machen: Man nehme zum Beispiel die Gamma-Strahlung von körpereigenen Kalium-40, berechne deren Dosis und schaue sich die Anzahl der von einem Gamma-Strahl getroffen Zellen an. Hier soll nur das Ergebnis mitgeteilt werden:

Ein Milli-Sievert bedeutet eine Strahlenspur pro Zelle.

Damit bedeutet der in Deutschland (und weltweit) geltende Grenzwert durch Zusatzbestrahlung in der Kerntechnik von 1 mSv pro Jahr, daß höchstens einmal im Jahr jede Zelle des Körpers von einem Strahlenteilchen durchquert werden darf und in der Zelle eventuell „Unheil“ anrichten darf. Ein Ereignis im Jahr ist verschwindend wenig im Vergleich mit den Lebensvorgängen in jeder Zelle wie Verbrennen von Kohlehydraten mit Bildung von einer Million Aschemolekülen CO2 in jeder Sekunde.

Prof. Dr. Ludwig E. Feinendegen formulierte (siehe hier)

Wie ist die Beobachtung der nützlichen Strahlenwirkung zu verstehen?

Durch ionisierende Strahlung werden Elektronen in den Molekülen der Zellen von ihren Plätzen entfernt. Soweit es sich dabei um Bindungselektronen handelt, bedeutet das chemische Veränderungen in den Zellen. Diese Veränderungen können von zellulären Abwehrmechanismen korrigiert werden. Zusätzliche Verlagerungen von Bindungselektronen bedingen wiederum Anregung für zusätzliche Korrekturprozesse in der Zelle. Es können alle Bindungselektronen mit mehr oder weniger gleicher Wahrscheinlichkeit getroffen werden, daher können alle möglichen chemischen Reaktionen in der Zelle angeregt werden. Somit können alle möglichen Korrekturreaktionen in den Zellen durch Training gestärkt werden. Das wiederum bedeutet sehr vielseitige Möglichkeiten, infolge Strahlung das Abwehr- und Immunsystem der Zellen zu stärken.

Bei der Gabe von Medikamente an Patienten geschieht ähnliches, aber es werden spezifische Reaktionen angeregt, immer nur in Bezug auf eine bestimmte Therapie einer Krankheit. Die Wirkung von Strahlung ist unspezifisch, vielseitiger als bei Medikamenten. So erklärt sich auch die Tatsache, daß schädliche Wirkungen von Chemikalien durch Vorbestrahlung gemildert oder vermieden werden können.

T.D. Luckey, M. Doss, W. Allison, C.L. Sanders geben Empfehlungen für optimale Dosis zum Erreichen einer biopositiven Wirkung, wobei das Training der Zellen wie bei sportlicher Aktivität gleichmäßig über die Zeit zu verteilen ist:

Die Zunahme des Krebsrisikos bei den Überlebenden der Kernwaffenexplosionen in Japan war ab 1,5 Sv in einer Zeit von Sekunden sicher zu beobachten (Teil 1, Bild 6). Das bedeutet für jede Zelle des Körpers 1500 Strahlenspuren durch jede Zelle. Da wird es verständlich, daß Schäden wie Störungen im Stoffwechsel der Zellen oder hin und wieder die Initiierung von Krebs auftreten können.

Folgende Übersicht zu den Dosisleistungen [Dosis / Stunde] zeigt die Bereiche von Schaden und Nutzen: Grün sind die Bereiche normal = ohne Wirkung unten, Nutzen in der Mitte und Gefahr oben

Rot = Bereich vom Co-60 Ereignis (rot) und dem von Luckey, Allison, Doss, Sanders empfohlenen nützlichen Dosisleistungsbereich (blau).

Die Dosisleistung in den „Todeszonen“ von Tschernobyl und Fukushima reicht bis in den Bereich der nützlichen Dosisleistung hinein. Dieser Nutzen war gering, aber messbar, siehe Bild 11 und 12 in Teil 1. Der Bereich der eindeutig positiven Strahlenwirkung wie beim Co-60-Ereignis in Taiwan wurde nicht erreicht.

Die Evakuierungen in Fukushima und Tschernobyl wurden gemacht, weil es die Gesetze erfordern. Dadurch wurde den Menschen eine Strahlendosis verweigert, die ihnen eventuell einen geringfügigen gesundheitlichen Nutzen hätte bringen können.

Die Evakuierungen in Fukushima selber brachten weit über 1000 Personen den Tod. Das ist bekannt, wird aber nur in den Fachmedien erwähnt. Nach anfänglichem Zögern wurden aus den Krankenhäusern sogar die Intensivpatienten abtransportiert, mit dem Tod von ca. 50 Patienten, weil deren Versorgung unterbrochen worden ist. Man weiß, daß Intensivpatienten nicht von den Versorgungsgeräten getrennt werden dürfen. Die Tatsache, daß dieses trotzdem gemacht worden ist, wirft ein trauriges Bild auf die Folgen des unsinnigen Gehorchens der Strahlenschutzgesetzgebung.

In Tschernobyl wurden etwa doppelt so viele Menschen aus ihren Wohnungen evakuiert wie in Fukushima. Es ist damit zu rechnen, daß dort auch doppelt so viele Menschen als Folge dieser Maßnahmen zu Tode gekommen sind.

Die bei den Unfällen von Tschernobyl und Fukushima nach „Recht und Gesetz“ (???) durchgeführten Evakuierungen waren falsch. Diese Maßnahmen brachten vielen Menschen Unglück bis zum Tod.

In Fukushima waren es über 1000 Todesopfer, in Tschernobyl vermutlich sehr viel mehr, denn dort wurden doppelt so viele Menschen aus ihren Wohnungen vertrieben. Die Strahlung in den Umgebungen der verunfallten Kernkraftwerke lag im unteren Bereich der Hormesis.

Hätte man die Menschen nicht evakuiert, dann hätten sie von der nützlichen Strahlenwirkung profitieren können. Dieses wurde ihnen durch die falschen Strahlen“schutz“ (???) gesetze verwehrt.
Die Gesetze sind falsch, hier ist dringende Korrektur erforderlich. Eine Initiative sollte dazu sollte von den Personen ausgehen, die die Zusammenhänge verstehen: Den Strahlenschutzauthoritäten

[1] T.D. Luckey, “The health effect of low dose ionization radiation”, J. Amer. Phys. Surgeons Vol. 13, 2, 39-42

[2] W. Allison, „Nuclear is for Life, A Cultural Revolution“, ISBN 978-0-9562756-4-6, Nov. 2015

[3] M. Doss, “Linear-No-Threshold Model vs. Radiation Hormesis”, Dose-Response, 11:495-512, 2013

[4] Ch. L. Sanders „Radiation Hormesis and the Linear-No-Threshold Assumption“ Springer-Verlag 2010

 




EIKE-Präsident Dr. Thuß: „Die große Transformation ist in den letzten Jahren das Regierungsziel“

Der Präsident des Europäischen Instituts für Klima & Energie (EIKE), Dr. Holger Thuß, weist im AUF1-Gespräch Unterstellungen des ZDF zurück, wonach sein Institut eine Art Ableger des US-„Heartland Institute“ sei und viel Geld von der Öl- und Gasindustrie erhalte.

Auch wehrt er sich gegen den Vorwurf der Unwissenschaftlichkeit, ein solcher sei vielmehr an seine Kritiker zu richten. Thuß bestätigt ferner die These, dass die weltweite Klimapolitik der Erreichung einer großen Transformation bzw. eines „Great Reset“ diene.

Er begründet dies damit, daß der „Wissenschaftliche Beirat Bundesregierung Globale Umweltveränderungen“ (WBGU) 2011 ein Hauptgutachten mit genauen Pfadbeschreibungen zur großen Transformation vorgelegt habe – und diese sei seit Jahren auch das Regierungsziel, was sogar offiziell propagiert werde.

 

Hier geht es zum Interview!

 




Klima- und Energie-Phantasterei und -Tyrannei

Paul Driessen

Es ist rätselhaft und erschreckend, dass unser Leben, unser Lebensunterhalt und unser Lebensstandard zunehmend von aktivistischen, politischen, bürokratischen, akademischen und medialen Führungseliten diktiert werden, die theoretischen Unsinn, kalkulierte Mythen und regelrechte Desinformation verbreiten.

Nicht nur in Bezug auf Pronomen, Geschlecht und Einwanderung – sondern auch in Bezug auf den Klimawandel … und Energie, die Grundlage der modernen Zivilisation und Lebenserwartung.

Ständig wird uns gesagt, dass die Welt in eine existenzielle Klimakatastrophe stürzen wird, falls die Durchschnittstemperaturen auf dem Planeten um ein paar Zehntel Grad weiter steigen, weil wir fossile Brennstoffe für zuverlässige, erschwingliche Energie und Rohstoffe für mehr als 6000 lebenswichtige Produkte nutzen und Milliarden von Menschen aus Armut, Krankheit und frühem Tod befreien.

Der Klimaalarmismus geht implizit davon aus, dass das Klima der Erde stabil war, bis die Emissionen von Kohle, Öl und Gas es aus dem Gleichgewicht brachten … und dass es wieder stabil wäre, wenn die Menschen aufhören würden, fossile Brennstoffe zu nutzen.

In der realen Welt hat sich das Klima zahlreiche Male verändert, oft dramatisch, manchmal katastrophal, aber immer auf natürliche Weise. Mehrere Eiszeiten und Zwischeneiszeiten, römische und mittelalterliche Wärmeperioden, eine kleine Eiszeit, große Überschwemmungen, Dürren und Dürreperioden – all das gab es schon lange vor dem Einsatz fossiler Brennstoffe.

Die Daten zu Tornados und Hurrikanen sowie anderen extremen Wetterereignissen zeigen, dass diese nicht häufiger oder intensiver werden. Man mag einwenden, dass Harvey und Irma 2017 eine plötzliche Zunahme schwerer Hurrikane markierten – aber das ist nur so, weil es nach Wilma zwölf Jahre lang keinen einzigen Hurrikan der Kategorie 3-5 gegeben hatte.

Wir müssen die Panikmache ignorieren, uns die tatsächlichen historischen Aufzeichnungen ansehen und erkennen, dass gefährlichere, noch nie dagewesene Kalamitäten und Aufwärtstrends einfach nicht vorhanden sind. Wir müssen darauf bestehen, dass die Panikmacher bei den jüngsten Temperatur-, Klima- und Wetterereignissen zwischen menschlichen Einflüssen und natürlichen Kräften unterscheiden und diese quantifizieren – und zeigen, wann, wo und wie menschliche Aktivitäten natürliche Kräfte ersetzt haben. Das haben sie nicht getan.

Der einzige Ort, an dem vom Menschen verursachte Temperatur- und Klimakatastrophen existieren, sind Michael Manns und andere GIGO-Computermodelle. Diese Klimamodelle sind für die politische Entscheidungsfindung wertlos, weil sie nicht durch tatsächliche Messungen überprüft werden, die Auswirkungen der städtischen Wärmeinsel nicht berücksichtigen und die enormen Ausmaße und die Komplexität der atmosphärischen, planetarischen und galaktischen Kräfte nicht berücksichtigen können, die das Klima der Erde bestimmen.

In Wirklichkeit sind die Menschen und der Planet weit mehr durch eine globale Abkühlung als durch eine Erwärmung bedroht. Selbst ein Rückgang der globalen Durchschnittstemperatur um ein paar Grad würde die Vegetationsperioden, die Anbauflächen, das Pflanzenwachstum, den Lebensraum für Wildtiere und die landwirtschaftliche Produktion drastisch reduzieren – insbesondere falls dies mit einem Rückgang des Pflanzen düngenden atmosphärischen Kohlendioxidgehalts einhergeht. Pflanzen, Tiere und Menschen wären vom Hungertod bedroht.

Man sagt uns auch, die herrschenden Eliten könnten diese imaginäre Krise verhindern, indem sie uns auf Wind-, Solar- und Batteriestrom umstellen. (Sie wollen auch Kühe und die moderne Landwirtschaft abschaffen, weil sie sich falsche Sorgen um Methan und Dünger machen, aber das ist eine andere Diskussion).

Bauen Sie ein Kohle-, Gas- oder Kernkraftwerk – und wenn die Regierungen es nicht abschalten oder die Brennstoffzufuhr unterbrechen, liefert das Kraftwerk jahrzehntelang fast rund um die Uhr und an 365 Tagen im Jahr reichlich, zuverlässigen und bezahlbaren Strom. Baut man dagegen eine riesige, weitläufige Wind- oder Solaranlage, muss man jedes Kilowatt mit Kohle, Gas oder Atomstrom – oder mit Millionen von riesigen Batterien – für jede wind- und sonnenlose Periode absichern.

Die wirtschaftlichen und ökologischen Auswirkungen wären ruinös.

Kohle-, Gas- und Kernkraftwerke können in der Nähe von stromintensiven städtischen Zentren gebaut werden. Zehntausende von Windturbinen und Milliarden von Solarmodulen müssen dort aufgestellt werden, wo es guten Wind und Sonnenschein gibt, weit weg von städtischen Gebieten, verbunden durch Hochspannungsleitungen. Nach Angaben der Internationalen Energieagentur (IEA) bräuchte die Welt bis zum Jahr 2040 etwa 80.000.000 Kilometer neuer und verbesserter Übertragungsleitungen, um Net Zero zu erreichen!

Für all diese „sauberen, grünen, erneuerbaren, nachhaltigen und erschwinglichen“ Wind-, Solar- und Batteriesysteme, Notstromaggregate, Übertragungsleitungen und Elektrofahrzeuge würden Millionen von Tonnen Eisen, Kupfer, Aluminium, Mangan, Kobalt, Lithium, Beton, Kunststoffe und zahlreiche andere Metalle und Mineralien benötigt.

Onshore-Windturbinen benötigen neunmal mehr Material pro Megawatt – und Offshore-Turbinen vierzehnmal mehr – als ein Gas- und Dampfturbinenkraftwerk, rechnet die IEA vor. Solarzellen und Elektrofahrzeuge haben das gleiche Problem.

Um diese Materialien zu gewinnen, müssen Milliarden Tonnen überlagernden Gesteins abgetragen werden, um an Milliarden Tonnen von Erzen zu gelangen – die dann in riesigen Industrieanlagen verarbeitet werden müssen, die Quecksilber und giftige Chemikalien verwenden … große Mengen an Treibhausgasen und giftigen Schadstoffen ausstoßen … und mit Kohle oder Erdgas betrieben werden. Viele Bestandteile dieser „grünen“ Technologien werden aus Erdöl und Erdgas gewonnen.

Die US-amerikanischen und andere westliche Anlagen kontrollieren und recyceln diese Schadstoffe. Chinesische und russische Anlagen schenken der Luft- und Wasserverschmutzung, der Sicherheit am Arbeitsplatz oder dem Verbrauch, der Effizienz und den Emissionen fossiler Brennstoffe kaum Beachtung – und doch liefern sie über 80 % der „erneuerbaren“ Energierohstoffe, weil der Westen den Abbau und die Verarbeitung zunehmend verbietet und die Energie für den Betrieb von Minen und Fabriken unerschwinglich macht.

Pseudo-erneuerbare Energien würden weltweit Hunderte von Billionen Dollar kosten, müssten mit Billionen von Steuergeldern subventioniert werden und würden die Strompreise dramatisch erhöhen.

Die Vorschriften für Elektrofahrzeuge, -geräte und -heizungen würden all diese Anforderungen an Infrastruktur, Materialien, Bergbau und Landnutzung sowie die ökologischen Auswirkungen und Kosten verdoppeln oder verdreifachen.

Die amerikanischen Strompreise für Privathaushalte lagen im Jahr 2023 zwischen 10,4¢ pro Kilowattstunde (Idaho) und 28,4¢ pro kWh (Kalifornien). Britische Familien zahlten 47¢ pro kWh! Fabriken und Unternehmen in UK zahlten bis zu dreimal so viel wie ihre US-amerikanischen Kollegen. Deutsche Familien, Fabriken und Unternehmen sitzen im selben Boot und kentern.

Doch die führenden Vertreter der EU-Industrie sagen, dass die Energiepreise weiter steigen müssen, um die rasant steigenden Kosten der Energiewende zu decken. Falls sie nicht steigen, werden Fabriken, Arbeitsplätze und Emissionen ins Ausland verlagert. Falls doch, werden Familien ohne Arbeit in der Dunkelheit frieren.

Der so genannte Klima-industrielle-Komplex hat ein großes Interesse daran, diese Situation aufrechtzuerhalten. Gemeinsam verfügen seine Mitglieder über eine unglaubliche Macht, kontrollieren einen Großteil der Regierung und des Bildungswesens, halten enorme finanzielle Beteiligungen an Subventionen für grüne Technologien und zensieren oft konträre Standpunkte.

Ebenso bedrohlich ist, dass – falls sich herausstellt, dass die Schöne Neue Welt der Netto-Null-Energie nicht genügend erschwinglichen Strom und andere Notwendigkeiten für die moderne Industrie, das Gesundheitswesen und den Lebensstandard bereitstellen kann – zwei Drittel der herrschenden Eliten Amerikas Lebensmittel- und Energierationierungen befürworten, um den Klimawandel zu bekämpfen und ihre kapitalismus- und wachstumsfeindliche Agenda beizubehalten. In Europa und Kanada sieht es wahrscheinlich genauso aus.

Die Regierung Biden und andere Regierungen schreiben uns bereits vor, welche Fahrzeuge wir fahren und welche Geräte und Heizsysteme wir verwenden dürfen. Sie erforschen bereits Möglichkeiten, die Art und Größe unserer Häuser zu begrenzen, wie warm oder kühl wir sie halten können, wie oft wir mit dem Flugzeug reisen können, welche Art und Menge an Fleisch wir essen dürfen und viele andere Aspekte unseres Lebens.

Währenddessen bauen China, Indien, Indonesien und Dutzende anderer Länder Hunderte von Kohle- und Gaskraftwerken, was den Irrsinn und die Vergeblichkeit des Versuchs, Energiequellen, -mengen und -emissionen zu kontrollieren, noch unterstreicht.

Darum geht es bei den amerikanischen Staats- und Nationalwahlen 2024 – und bei den Wahlen in Europa, Kanada, Australien und anderswo. Je länger diese Eliten an der Macht bleiben, desto mehr werden unsere Freiheiten, unser Leben und unser Lebensstandard dem Leben vor einem Jahrhundert unter autoritären Regimen ähneln.

[Diese letzte Hervorhebung vom Übersetzer, alle anderen im Original]

Link: https://www.cfact.org/2024/01/27/climate-and-energy-fantasy-and-tyranny/

Übersetzt von Christian Freuer für das EIKE