Über physikalische Modelle: Kippen wir doch nicht gleich das Kind mit dem Bade aus

Uli Weber

Wir Klimaketzer können uns das Feld der Auseinandersetzung mit der übermächtigen Klimareligion nicht aussuchen. Das freiwillige Konsumieren bunter Bildchen in den ÖRM und die dazu passenden Erzählungen sympathischer Erklärbären erzeugen durch ewige Wiederholungen beim gutgläubigen Betrachter eine gefühlte Wahrheit, gegen die man nicht so einfach anstinken kann. Da können wir uns also entweder zurücklehnen und leise lächelnd unseren wissenschaftlichen Kuchen löffeln, oder wir müssen ganz kleine Brötchen backen und die Opfer dieser klimareligiösen Desinformations­kampagne ganz vorsichtig auf ihrem gegenwärtigen Glaubensstand abholen. Nehmen wir beispielsweise den erschröcklichen Anstieg der ominösen „Globaltemperatur“ um 1,5°C. In meinem Buch „Klimahysterie“ (2012, SW 2017) hatte ich auf Seite 17 zur sogenannten Globaltemperatur ausgeführt, Zitat:

Die Schwierigkeiten, eine solche Funktion auf einer Kugel mit entgegengesetzt verlaufenden Jahreszeiten in ihren beiden Hemisphären überhaupt aufzustellen, wollen wir hier einmal vernachlässigen. In der öffentlichen Klimadiskussion wird das Weltklima ja schließlich auf eine einzige Durchschnittstemperatur reduziert. Das ist aber keine Naturkonstante, sondern ein künstlicher Zahlenwert, der sich überhaupt erst als statistische Definition ermitteln lassen dürfte. In Ermangelung jeglicher Aussagekraft eines solchen Durchschnittswertes für unser Weltklima müssen dann katastrophale Schreckensszenarien für eine populistische ‚Belebung‘ eben dieses Kunstwertes herhalten.“

Aber versteht das irgendjemand, der mitten im Leben steht und das erdkundliche Schulwissen schon längst verdrängt hat, dafür aber hoch klimabesorgt auf ein E-Auto spart? Vielleicht würde er/sie/es ja bei gutem Zureden schließlich verstehen, dass ein solcher Mittelwert auch die Polkappen, Urwälder und Wüstengürtel unserer Erde klimatisch vereinheitlicht. Oder er/sie/es versteht am Ende vielleicht sogar, dass man sich mit einer Urlaubsreise in den sonnigen Süden, wo die Durchschnittstemperatur 5-10°C höher ist als zu Hause, in akute Lebensgefahr begeben würde, wenn dieses Schreckgespenst tatsächlich irgendeine physikalische Relevanz besäße – aber da muss man erst einmal argumentativ hinkommen. Was auch immer schließlich an Wissen transportiert werden kann, diesen ominösen globalen Temperaturdurchschnitt lediglich pauschal als denjenigen Unsinn zu bezeichnen, der er tatsächlich ist, hilft jedenfalls niemandem weiter.

Die Kernaussage des Artikels, „Generisches Statement zum Stand der Klimaforschung…“ der Herren Dr. Lengsfeld & Limburg über das CO2-Paradigma lautet, Zitat:

Alle momentanen Modelle leiden aus unserer Sicht an dieser fundamentalen Schwäche: Der angenommene zentrale Einfluss des CO2 geht als Hauptmechanismus in die Modellierung ein und damit wird über die Annahme der Modellierung schon deren Ergebnis vorweggenommen. Das ist ein Zirkelschluss.“

Das ist völlig richtig, aber in der Diskussion auf der Kommentarfunktion geraten dann manchmal die Unterschiede zwischen reproduzierbaren physikalischen Modellen und monokausalen, rein mathematischen Computersimulationen etwas durcheinander.

Und das ist wiederum gar nicht mal so gut!

Denn die Physik besteht aus einer Vielzahl sinnfälliger Modelle, deren Ergebnisse von der experimentellen Realität bestätigt werden oder die überhaupt erst daraus abgeleitet worden sind. Die „menschengemachte CO2-Klimakatastrophe“ ist insofern eine physikalische Monstrosität, als es dafür gar keine experimentellen oder schlüssigen theoretischen Grundlagen gibt. Sie fußt vielmehr auf der quasireligiösen Annahme der Existenz eines „natürlichen atmosphärischen Treibhauseffektes“ als Erklärung für die Temperaturdifferenz zwischen einer fehlerhaft ermittelten „theoretischen globalen Durchschnittstemperatur“ (TGD) und dem aus tatsächlich gemessenen Temperaturen willkürlich abgeleiteten globalen Durchschnitt einer „Near Surface Temperature“ (NST). Diese Beziehung zwischen TGD und NST wird mit der physikalisch nicht nachgewiesenen Wirkung des atmosphärischen Spurengases Kohlenstoffdioxid (CO2) erklärt, dem vom Klimavatikan per Ordre de IPCC einfach mal ein „Radiative Forcing“ zugeschrieben wird. Der Trick ist nun, dem CO2 aus der menschlichen Nutzung fossiler Energieträger einen additiven Temperatureffekt zuzuschreiben und daraus dann steuerpflichtig einen zusätzlichen anthropogenen Klimaantrieb zu postulieren. All diese Abläufe werden zwar auf Kinderbuchniveau für den arglosen Durchschnittsbürger paraphysikalisch-plausibel erklärt, sind aber keiner experimentellen und theoretischen physikalischen Verifikation/Falsifikation zugänglich.

Die genannten Autoren Dr. Lengsfeld & Limburg kritisieren also kein (nicht existierendes) konkretes physikalisches CO2-Modell, sondern dessen mathematische Computerhochrechnung in die Zukunft als Zirkelschluss auf die dort in zielführenden Algorithmen willkürlich implementierten CO2-Gesetzmäßigkeiten. Denn bei solchen CO2-Computermodellen handelt es sich lediglich um monokausale Rechenmodelle, die keinerlei History-Match mit den Temperaturverläufen der Vergangenheit überstehen und lediglich die latenten Angstzustände ihrer Schöpfer in ein klimareligiöses Fegefeuer extrapolieren. Immerhin lassen sich mit solchen parawissenschaft­lichen Mutmaßungen Schulkinder und Omas mit Forderungen nach globaler Klimagerechtigkeit auf die Straße bringen; auch Gerichte fühlen sich zunehmend bemüßigt, die Politik zu mehr „Klimaschutz“ zu verdonnern. Letzteres Wortgebilde hat sich inzwischen sogar zu einem wissenschaftlichen „running Gag“ entwickelt, denn erklär‘ mir mal einer, wie man einen 30-jährigen statistischen Mittelwert aus nicht existierendem „globalen Wetter“ schützen soll, der angeblich das „Weltklima“ repräsentiert – was wiederum einen Affront gegen den Herrn Wladimir darstellt. Nein, nein, hier ist nicht der „böse“ Vladimir aus dem „finsteren“ Kreml gemeint, sondern Wladimir Köppen, der „Erfinder“ der geografischen Klimazonen, die in einem solchen einheitlichen „Globalklima“ schmählichst untergehen würden. Übrigens, nur mal so ganz am Rande, der gute Wladimir war überhaupt kein Freund der Arrhenius-Treibhaus-Theorie. In der Einleitung zu ihrem Buch „Die Klimate der geologischen Vorzeit” (Bornträger 1924) schreiben Köppen und Wegener auf den Seiten 3/4:

„…Von den zahlreichen sonstigen Hypothesen, die zur Erklärung von Klimaänderungen aufgestellt worden sind, wird daher in diesem Buche nicht die Rede sein. Insbesondere erblicken wir in dem System der fossilen Klimazeugen keinen empirischen Anhalt für die Annahme, daß die von der Sonne ausgehende Strahlung sich im Laufe der Erdgeschichte geändert habe. Desgleichen fehlt es an Tatsachen, welche durch Änderung der Durchstrahl­barkeit der Atmosphäre (Arrhenius) oder des Weltalls (Nölke) zu erklären wären; …“

Und ein konkretes und falsifizierbares CO2-Klimamodell gibt es bis heute immer noch nicht. Das fängt schon mit dem IPCC als Vatikan des menschengemachten Klimawahns an. Das IPCC hatte in seinem Bericht „Climate Change 2014 / Synthesis Report / Summary for Policymakers” auf Seite 5, letzter Absatz, folgende Aussage getroffen, Zitat mit Hervorhebungen:

The evidence for human influence on the climate system has grown since the IPCC Fourth Assessment Report (AR4). It is extremely likely that more than half of the observed increase in global average surface temperature from 1951 to 2010 was caused by the anthropogenic increase in GHG concentrations and other anthropogenic forcings together.”

Mehr als „einhalb“ kann zunächst einmal alles zwischen einhalb und eins mit einem „natürlichen“ Epsilon (0<E<=0,5) bedeuten. Das IPCC argumentiert hier aber mit einem einstelligen Bruch [mehr als ½=0,5]. Und der nächste einstellige Bruch in dieser Abfolge in Richtung „1“ wäre dann [3/5=0,6]. Wenn wir die IPCC-Aussage „mehr als einhalb“ in diesem Sinne interpretieren, dann sind lediglich maximal 55% des Temperaturanstiegs von 1951 bis 2010 menschengemacht. Aber wenn man dann in diesem Bericht tiefer gräbt und nach dem zugrunde liegenden CO2-Modell für den „natürlichen atmosphärischen Treibhauseffekt“ fahndet, dann findet man mit einer Textsuche nach „greenhouse“ lediglich eine Vielzahl von Verweisen auf „greenhouse gas“ und Quantifizierungen von Strahlungsleistung in [W/m²], aber kein der Verifikation/Falsifikation zugängliches Modell für den sogenannten „natural greenhouse effect“.

Das IPCC hat also gleich zwei Probleme mit dem CO2: Erstens gibt es beim IPCC neben Strahlungsäquivalenten gar kein nachvollziehbares physikalisches Modell für dessen Treibhauswirkung und zweitens sind nach dortiger Auffassung überhaupt nur 55% des vorgeblich beobachteten Temperaturanstiegs menschengemacht.

Das macht den computeraffinen Klimaantreibern aber rein gar nix aus, denn wenn man das historische „Weltklima“ als konstant einebnet – dem klimamedial nicht tot zu kriegenden Hockeystick sei Dank – dann kann man dem CO2 sogar den gesamten Temperaturanstieg seit dem Ende der historischen Kleinen Eiszeit als „menschengemacht“ anhängen. Alle diese Computerspekulationen sind damit zwangsläufig ausgemachter Humbug. Aber obwohl die Computermodellierer sogar den Erkenntnissen des Vatikans der Klimakirche widersprechen, finden sie mit den paraphysikalischen Ergebnissen ihrer Rechenmodellen sehr leicht die volle mediale und politische Aufmerksamkeit – man könnte natürlich auch boshaft sagen, es wird „geliefert wie bestellt“. Die Gerichte gehen dann noch einen ganzen Schritt weiter, indem sie dem CO2 entgegen den Erkenntnissen des IPCC auch gleich noch eine lineare Beziehung zur oberflächennahen Temperatur unterstellen, während das IPCC dieses Verhältnis eher logarithmisch sieht. Ebenfalls im Buch „Klimahysterie“ (2012, SW 2017) hatte ich auf Seite 16 zu Computermodellen in der Klimaforschung angemerkt, Zitat:

Aus dem Auftreten alarmistischer Klimaforscher pflegen wir auf die Existenz einer fundierten Klimaforschung zu schließen. Eine vorausschauende Klimaforschung wurde aber überhaupt erst in den 1970-er Jahren mit der parallel dazu verlaufenden Entwicklung moderner Hochleistungscomputer möglich. Wenn man bedenkt, dass ein Hochschulstudium mit Promotion etwa 10 Jahre dauert, dann kann man sich eigentlich nur wundern, wo im Verlauf der 1980-er Jahre ganz plötzlich all die hoch qualifizierten Klimaforscher hergekommen sein mögen, die jetzt seit mehr als 20 Jahren den Medienhype um die Klimakatastrophe mit immer neuen Schreckensszenarien befeuern und dafür gleichzeitig gesellschaftspolitische Lösungssysteme anbieten. Der Anspruch der modernen Klimaforschung auf die einzige wahre Lehre entbindet uns also nicht von der generellen Frage, was diese Klimaforschung gesellschaftlich wirklich darstellt und wer sich hier wessen bedient. Es scheinen jedenfalls ernsthafte Zweifel angebracht, ob der wertneutrale wissenschaftliche Erkenntnisgewinn für diese Klimaforschung wirklich noch im Vordergrund steht oder ob sie sich heute auf die Verteidigung ihrer gesellschaftspolitischen Lösungsmodelle zur Vermeidung einer vorgeblichen Klimakatastrophe reduziert.“

Heute können wir mit Sicherheit ausschließen, dass der voll alimentierten Klimawissenschaft noch irgendein Streben nach wissenschaftlicher Erkenntnis innewohnt. Man hat sich vielmehr, medialpolitisch in den wissenschaftlichen Himmel gehoben, ein steuerfinanziertes CO2-Einkommens­dogma geschaffen, das in höchsten Alarmdrehzahlen auf der Stelle tritt und zu keiner weiteren Entwicklung mehr fähig ist, wie der tief religiöse und antiwissenschaftliche Schlachtruf der klimareligiösen Parawissenschaften beweist:

Science is settled!

In der besagten Kommentarfunktion zu Dr. Lengsfeld & Limburg waren im Hinblick auf die real existierenden Klimamodelle auch der dort fehlende Unterschied zwischen Tag und Nacht sowie der fehlerhafte Faktor4-Tag=Nacht-Ansatz in der Schwarzkörperberechnung für die „theoretische Durchschnittstemperatur“ der Erde problematisiert worden. Da beide Kritikpunkte wesentliche Grundlagen meines hemisphärischen Stefan-Boltzmann-Modells darstellen, erlaube ich mir abschließend noch einige Hinweise auf dieses Modell, das den sogenannten „natürlichen atmosphärischen Treibhauseffekt“ bei korrekter Anwendung rückstandslos verschwinden lässt:

Nun bitte keine Panik, Ihr IPCC-Gleichrichter und IPCC-Inquisitoren sowie gläubige Jünger eines „natürlichen atmosphärischen Treibhauseffektes“. Versteht’s doch einfach als sportliches Angebot oder versucht Euch einfach mal an der nachfolgend unter PS beschriebenen Physik der Stefan-Boltzmann-Inversion.

PS: Über die Inversion des Stefan-Boltzmann-Gesetzes

Noch einmal, das Stefan-Boltzmann-Gesetz ist ein physikalisches Just-in-Time-Gesetz, das streng die Temperatur eines Schwarzkörpers mit dessen augenblicklicher Abstrahlungsleistung verknüpft. Eine S-B-Inversion muss also physikalisch streng aus einer konkreten augenblicklichen Einstrahlungs­leistung berechnet werden, auch wenn man dort rein mathematisch beliebige Durchschnitts­werte aus unterschiedlichsten Zeiträumen einsetzen könnte – letzteres ist dann halt reine Mathematik und keine Physik mehr.

Beweisführung:

Das Stefan-Boltzmann-Gesetz lautet: Si = SIGMA Ti^4

Die Stefan-Boltzmann-Inversion lautet: Ti = 4.Wurzel(Si/SIGMA)

Für eine Anzahl von „n“ Körpern mit individuellen spezifischen Strahlungsleistungen Si [i=1-n] gibt es für die Durchschnittsbildung der Einzeltemperaturen aus einer S-B-Inversion zwei mathematische Lösungsmöglichkeiten, von denen nur eine physikalisch korrekt ist:

Anmerkung: Die hier betrachteten Körper sind alle gleich groß. Für unterschiedlich große Körper müsste noch eine zusätzliche Flächennormierung erfolgen.

Probe: Betrachten wir mal zwei Körper K1 (T1=0K / S1=0W/m²) und K2 (T2=288K / S2=390W/m²)

T(falsch) = 4.Wurzel((1/SIGMA)(Summe[i=1-n] Si/n))

= 4.Wurzel((1/SIGMA)(390W/m²/2))

= 4.Wurzel(195W/m²/SIGMA) = 242K

T(richtig)= (Summe[i=1-n] von 4.Wurzel(Si/SIGMA))/n

= (4.Wurzel(S1/SIGMA) + 4.Wurzel(S2/SIGMA))/2

= 4.Wurzel(390W/m²/SIGMA)/2 = 144K

WIDERSPRUCH: 242K sind ungleich 144K – und nur das Inversionsergebnis 144K verdoppelt sich bei einer Rückrechnung auf die halbe Fläche wieder auf 288K und entspricht dem S-B-Gesetz.

MERKE, o IPCC-Gleichrichter oder IPCC-Inquisitor: Der landläufig übliche Gebrauch des S-B-Gesetzes bzw. seiner Inversion stellt einen mathematischen Missbrauch der Physik dar. Denn auch das Ergebnis einer S-B-Inversion muss dem S-B-Gesetz genügen!

Und diejenigen, die diese physikalische Beweisführung nicht verstehen (wollen, können, dürfen…), finden ja immer noch einen tiefen Trost im Glauben an die heilige THE-Dreieinigkeit:

Diese dreieinigen Zahlenwerte sind paraphysikalische Kunstprodukte, die im tiefen Vertrauen auf den Club of Rome, den Klimavatikan IPCC und den WEF Reset geglaubt werden müssen – Amen!

Als Hobbywahrsager stelle ich jetzt einfach mal in den Raum, dass die üblichen Verdächtigen ohne jeden Rückgriff auf diese physikalisch korrekte Darstellung einer S-B-Inversion aus ihrem vermuteten Wissensstand heraus pawlowesk kommentieren werden.

 




Der grüne Traum entwickelt sich zum Alptraum

Warum das grüne Wachstums- und Transformationsmodell bisher gescheitert ist und weiter scheitern wird:

von Werner Ressing

Die Fortschrittskoalition hat ein dauerhaft grünes Wachstum versprochen…aber nach 3 Jahren stecken wir in einer der größten Wirtschaftskrisen seit dem 2. Weltkrieg. Diese Rezession ist nicht durch eine Ölkrise oder die Lehman Brothers ausgelöst, – sie ist hausgemacht!

Die wirtschaftlichen Rahmenbedingungen müssen stimmen!

Jeder Student der Betriebswirtschaft lernt in seinen ersten 3 Semestern, dass Subventionen grundsätzlich volkswirtschaftlich schädlich sind, weil sie von Unternehmen erwirtschaftet werden müssen, die schwarze Zahlen schreiben, also wirtschaftlich arbeiten und dies ist nur dann der Fall, wenn die wirtschaftlichen Rahmenbedingungen stimmen und genau das ist der Grund für unsere schwere Wirtschaftskrise. Die wesentlichen Ursachen sind die höchsten Energiepreise in Europa und die Bürokratiekosten. Weil Investitionen in die grüne Transformation in der Regel nicht wirtschaftlich

sind, werden diese aus dem Bundeshaushalt und Schattenhaushalten (Klima- und

Transformationsfonds) finanziert, dem noch neue Töpfe auf Schuldenbasis folgen sollen. Damit werden Investitionen subventioniert, ohne dass sie rentabel sind oder werden. Stichwort Klimaschutzverträge, grüner Stahl!

Die höchsten Energiepreise in Europa durch einseitige Fokussierung und falsche Weichenstellung

Es besteht zwar allgemeiner politischer Konsens, dass diese hohen Energie- und Bürokratiekosten die wesentlichen Ursachen für die Krise sind, es werden aber nicht die notwendigen Konsequenzen gezogen, sondern es wird weiter an der Energiepreisschraube gedreht, z.B. CO2-Abgabe, um damit den Ausbau der Erneuerbaren und in der Folge den Netzausbau usw. weiter zu subventionieren.

Eine prosperierende Wirtschaft will und braucht keine Subventionen, sondern wirtschaftliche Rahmenbedingungen und daran krankt insbesondere die aktuelle Wirtschaftspolitik.

Fest steht, die einseitige Fokussierung auf die Energiewende und die Klimaschutzziele haben die Wirtschaft aus dem Tritt gebracht!

Folgekosten in Billionenhöhe

Nun sollen zusätzlich schuldenfinanzierte Subventionsprogramme wie ein „Deutschlandfonds“ die Wirtschaft wieder in den Schwung bringen. Dass auch dieser Versuch scheitern muss, zeigen schon die Zahlen auf die weiteren Kosten der Energiewende, die bis zur beabsichtigten Klimaneutralität 2045 anfallen.

Nachfolgend die von der Ampel beschlossenen Ausbauziele, wobei die Kosten bisher verschwiegen werden:

Offshore Wind 70000 MW 300 Mrd €

Onshore Wind 100000 MW 120 Mrd €

Photovoltaikausbau 400000 MW 350 Mrd €

Netzausbau 650 -720 Mrd€

Backup Kraftwerke und Speicher 160 Mrd€

Wasserstoffkernnetz 20 Mrd€

Wasserstofferzeugung 30 Mrd€

Summe 1,63 – 1,7 Billionen €

Zu berücksichtigen sind die bisherigen Kosten der Energiewende von 0,5 -1 Billionen € sowie die künftigen Betriebskosten, z.B. bei der Wasserstoffproduktion und den Backupkraftwerken, die wegen der geringen Laufzeiten nicht wirtschaftlich betrieben werden können. Dies bedeutet mindestens eine Verdoppelung bis Verdreifachung der Strompreise, die die deutsche Volkswirtschaft nicht verkraften wird und die auch nicht durch noch so viele Fonds dauerhaft auf ein wettbewerbsfähiges Niveau heruntersubventioniert werden können. Hinzu kommen technisch-wirtschaftliche Probleme bei der Wärme- und Mobilitätswende, weil eine Umstellung auf Wärmepumpen zusammen mit der

Elektromobilität die kommunalen Stromleitungen überlasten wird, weshalb die Netzbetreiber über Smartmeter eingreifen werden, um den Betrieb von Wärmepumpen und Ladevorgänge zu begrenzen. Weiterhin wird zu viel Solar- und Windstrom in größeren Mengen abgeregelt werden müssen, was zu weiteren Kosten in Milliardenhöhe führt.

Klimaschutz ist richtig und wichtig, aber er muss im Gleichklang erfolgen. Deutschland betreibt seit knapp 40 Jahren eine ehrgeizige Klimapolitik und hat lange geglaubt, durch eine Vorreiterrolle andere Länder mitziehen zu können. Dies ist gescheitert, so wie bisher das Pariser Klimaabkommen, das nach 10 Jahren weit vom 1,5 Grad-Ziel entfernt ist, weil die notwendigen Länderzusagen fehlen! Die Trump-Kündigung ist dabei noch nicht berücksichtigt.

Fazit: Es ist an der Zeit, Fakten und die reale wirtschaftliche Lage anzuerkennen!

„Politik beginnt mit der Betrachtung der Wirklichkeit“ Kurt Schumacher.

Die Wachstumsindikatoren zeigen nach unten und die Insolvenzahlen nach oben. Klimapolitik muss wirtschaftlich sein und die Klimaneutralität bei 1,5% globalem Anteil weiter mit der Brechstange erreichen zu wollen, ist nichts anderes als Realitätsverweigerung und die Realisierung des Märchens von „Des Kaisers neue Kleider“! 200000 Haushalten ist der Strom abgeschaltet und 5,5 Millionen Bundesbürger können ihre Wohnung nicht ausreichend heizen!

Wir brauchen einen sofortigen Kurswechsel und industriepolitischen Neustart, so maßgebliche aktuelle Stimmen aus der Industrie. Wer würde ernsthaft widersprechen?

Zur Erinnerung, Subventionen müssen von Unternehmen erwirtschaftet werden, die rentabel arbeiten, und dies geht nur, wenn die Rahmenbedingungen stimmen! Dabei ist die klassische

Verwendung unserer Steuern völlig aus dem Fokus geraten, denn sie sollen der öffentlichen Infrastruktur, Bildung und Forschung, Gesundheit und Soziales, der Landesverteidigung und natürlich zur Finanzierung der stattlichen Verwaltung dienen und nicht als Subventionstopf!

Es ist nicht 5 vor 12, es ist Viertel nach 12, wie die Präsidentin der IHK Köln es beim Neujahrsempfang richtig sagte, oder es kommt wie Nietzsche formulierte:

„Und wenn du lange in einen Abgrund blickst, blickt der Abgrund auch in dich hinein.“

Werner Ressing

Ministerialdirektor a.D.

Abteilungsleiter Industriepolitik im BMWi bis 2013 und Mitgestalter der deutschen Klimapolitik von ihrer Geburtsstunde an.




Remothballing. USA reaktiviert stillgelegte Kernkraftwerke

Von Günter Keil

In den USA gibt es etliche stillgelegte, eingemottete Kernkraftwerke, die jetzt eine neue Chance bekommen. Sie sind vor etlichen Jahren wegen Unrentabilität außer Dienst gestellt worden – und es war absolut nicht so wie in Deutschland, wo eine Frau Merkel nach der Reaktorkatastrophe in Fukushima den kompletten Ausstieg aus der Kernkraft anordnete. Und die Ampelregierung hat das brav fortgesetzt, weshalb nun sämtliche deutschen Kernkraftwerke vom Netz genommen wurden; einige sind bereits zerstört worden. In den Vereinigten Staaten schaltet man keine Kraftwerke ab, weil „die Leute Angst haben“, sondern da entscheidet die Wirtschaftlichkeit – und die billiger Strom produzierenden Kohle- und Gaskraftwerke führten zu den Stilllegungsentscheidungen der Energieunternehmen. Die Regierung nahm das bislang zur Kenntnis.

Jedoch jetzt gibt es in dieser Angelegenheit eine Wende: Die von Mottenkugeln befreiten (remothballed) Anlagen bekommen eine neue Chance, denn man braucht sie – und ihre Wiederbelebung kostet weniger als Neubauten, die es selbstverständlich auch gibt. Über diese sowohl von den Energieunternehmen als auch von den Bundesstaaten und der Regierung in Washington eingeleitete Initiative hat Edward Kee einen Artikel mit der Überschrift „Neustart von Three Mile Island. Ein US Nuklearkraftwerk, das außer Dienst gestellt wurde“ veröffentlicht. Er erschien jetzt im Januar in dem deutschen „atw -Internationalen Journal für Nuklearenergie“. Der hier präsentierte Artikel ist eine verkürzte Übersetzung der Originalveröffentlichung von Edward Kee durch den oben genannten Autor. Der Titel bezieht sich zwar auf die jüngste Entscheidung für die erneute Instandsetzung und Inbetriebnahme von „Three Mile Island“ in Pennsylvania; der Artikel behandelt jedoch die bislang einbezogenen Kraftwerke – seien die Arbeiten schon im Gange oder geplant.

Restarting Three Mile Island, a US nuclear power plant that closed for decommissioning

Edward Kee

atw Vol.70 (2025)

Der Neustart von TMI-1 Microsoft und Constellation Energy kündigten am 20. September 2024 ein 20-jähriges Leistungskauf-Abkommen (PAA) für das Three Mile Island Kernkraftwerk zur Versorgung von Microsofts Daten Centers an. Dieses PPA würde das Wiederanfahren dieses Kernkraftwerks erfordern, das zur Außerdienststellung stillgelegt worden war. Der Standort für Three Mile Island befindet sich im US-Staat Pennsylvania auf einer Insel im Susquehanna-Fluss und war bis 2019 in Betrieb, während Anlage 2 (TMI-2) nach einer Kernschmelzung 1979 geschlossen worden ist. Constellation Energy wird TMI-1 erneut starten, aber nicht TMI-2. TMI-1 ist ein 800 MW Kernkraftwerk nach dem Babcock&Wilcox-Design, das seinen Betrieb im September 1974 aufnahm. Obwohl TMI-1 eine Betriebsgenehmigung bis 2034 hatte, beschloss Exelon Generation – der Besitzer vor Constellation – 2019 die Stilllegung wegen finanzieller Verluste.

Einige US-Staaten – z.B. Illinois, New Jersey und New York – beschlossen ein Null-Emissionen-Kreditprogramm (ZEC), um Kernkraftwerken, die ähnlich wie TMI-1 ökonomische Probleme hatten, den weiteren Betrieb zu ermöglichen. Constellation erwartet, dass TMI-1 2028 mit einer 20-jährigen Betriebserlaubnis wieder beginnen wird. Der Re-Start ist ein komplizierter Vorgang, der mehrere Jahre dauert. Das ist der zweite derartige Re-Start in den USA nach dem Kraftwerk Palisades – von dem noch bei der Zusammenstellung dieser weiteren Fälle die Rede sein wird. Es ist noch unklar, wo sich die zu versorgenden Microsoft-Datenzentren befinden werden, weshalb TMI-1 seine Leistung ins Übertragungsnetz einspeisen wird, wobei dann Microsoft auch für die Übertragung und Netzgebühren aufkommt.

Weshalb ein Neustart von TMI-1 ?

Die Notwendigkeit für einen Neustart von TMI-1 und anderen Kernkraftwerken hat zwei hauptsächliche Gründe. Erstens ist die Kernkraft eine besonders große Chance für die Erzeugung Kohlenstoff-freier elektrischer Energie zu einer Zeit, wenn in der die Reduzierung von Kohlenstoffemissionen wichtig ist. Zweitens steigt der Bedarf an Elektroenergie, was eine zuverlässige, stets verfügbare Stromerzeugung notwendig macht, um die Stabilität des Stromnetzes zu unterstützen. Der Plan für den TMI-1 Neustart widerspiegelt die neue Anerkennung des Wertes, den die Kernenergie darstellt – einschließlich sauberen Stroms, zuverlässiger Betriebsweise, wichtiger Netzstabilität sowie eines langfristigen Ertragswerts.

Saubere Elektrizität

Es gab in den letzten Wochen viele Erklärungen von Unternehmen, Kernenergie für ihre Datencenter einzusetzen. Etliche erklärten ihre Verpflichtung, in wenigen Jahren Kohlenstoff-frei zu sein, beispielsweise Microsoft und Google um 2030, Amazon um 2040.

Zuverlässiger Betrieb

Kernkraft ist zuverlässig. In den meisten Anwendungen arbeiten Kernkraftwerke als Grundlastquelle – mit einem 90-prozentigen oder höheren Kapazitätsfaktor. Sie arbeiten, wenn es nötig ist, weshalb sie keine Backuplösungen benötigen – wie es bei der stark schwankenden Stromerzeugung von Solar- und Windkraft der Fall ist. Gleichzeitig, auch im Grundlastbetrieb, können sie eine wichtige Rolle für die Erhaltung der Netzstabilität spielen, so zum Beispiel für die Sicherung der Frequenzstabilität mit der Rotations-Energiereserve ihrer Generatoren.

Wachsende Bedeutung

Die Fähigkeit, große Energiemengen zu liefern, wird für den steigenden US-Strombedarf eine wichtige Rolle spielen, zum Beispiel für Datenzentren, für elektrische Fahrzeuge sowie die Elektrifizierung kommerzieller und industrieller Prozesse. Anmerkung: Dieser Artikel beschreibt die vorsorgende US-Energiepolitik, aber in Deutschland stellen dies steigenden Anforderungen ein Riesenproblem dar. Hier wurden bislang Kernkraftwerke nicht nur stillgelegt, sondern sie werden anschließend zerstört, Kohlekraftwerke werden gleichfalls stillgelegt, womit jegliche sichere Grundlast-Stromversorgung unmöglich wird. Teurer Stromimport aus den Nachbarländern stellt nur provisorische Rettungsmaßnahmen dar – insbesondere bei harten Wintern, wenn dort der eigene Bedarf steigt.

Der erneute Start der Kernkraftwerke

Wo Kernkraftwerke den Marktstrukturen und Bedingungen nicht genügten, mussten etliche von ihnen – wie das TMI-1 – aus wirtschaftlichen Gründen vorzeitig schließen. Die Eigentümer hatten nur zwei realistische Optionen: – Weiterer Betrieb mit Verlusten für Jahre oder Dekaden in der Hoffnung auf wiederkehrende Profitabilität – oder Schließung des Kraftwerks, um die finanziellen Verluste zu beenden.

Der Langzeit-Wert

Der Neustart von Kernkraftwerken zeigt eine neue Einschätzung ihres langzeitigen Werts, da Kraftwerke wie das TMI-1 für einen jahrzehntelangen Betrieb konstruiert und gebaut worden sind. Die meisten von ihnen sogar für 60 bis 100 Jahre. Der gegenwärtige Kraftwerkspark aktiver Anlagen kann schließlich noch Dekaden nach ihrem originalen, festgelegten 40-jährigen Betriebsende zuverlässig und sicher laufen. Kernkraftwerke unterliegen regelmäßigen Erhaltungs- und Reparaturarbeiten, ferner auch wesentliche Modernisierungen, die ihnen einen rentablen und sicheren Betrieb gewährleisten. Fast alle aktiven Kernreaktoren einschließlich TMI-1 haben ihre 40-jährigr Betriebslizenz für weitere 20 Jahre erneuert; also auf 60 Jahre. Einige von ihnen haben die Genehmigung für einen 80-jährigen Betrieb. Es wird erwartet, dass die meisten Kernkraftwerke eine derartige „Subsequent License Renewal“ beantragen werden. Die Langlebigkeit dieser Technologie kann als einzigartig bezeichnet werden.

Das Hinzufügen der „Entmottungs-Option“

Das Konzept der „Einmottung“ eines laufenden KKW mochte für deren Eigentümer attraktiv sein, aber deren Kosten und Anforderungen waren unbekannt. Die Lektionen, die man während der Arbeiten für den Neustart von TMI-1, Palisades und weiterer KKW gelernt hat, könnten der NRC (US Nuclear Regulatory Commission) und den Kraftwerkseigentümern dabei helfen, eine erfolgversprechende Einmottungsoption zu entwickeln. Kanada hat dafür bereits ein Beispiel geliefert, als es 4 zwischen 1970 und 1987 gebaute Schwerwasser-Reaktoren zwischen 1995 und 1988 stilllegte – und sie zwischen 2003 und 2012 wieder startete. TMI-1 und Palisades , die zwei ersten US-Kernkraftwerke, die nach Außerbetriebnahme neu gestartet werden, können für weitere stillgelegte KKW beispielhaft für die Möglichkeit einer Wiederinbetriebnahme sein. Für einen Neustart muss die NRC es formell genehmigen. Die technischen Anforderungen können recht umfangreich sein: Die Überholung oder auch der Ersatz von Komponenten, insbesondere wenn die Instandhaltung vor Ende des Betriebs aufgegeben worden ist. Das ist insbesondere der Fall, wenn eine Demontage erfolgt war. Der Neustart erfordert selbstverständlich die Einstellung und das Training der Mannschaft, die die Anlage instand zu setzen und zu betreiben hat, durch die NRC. Auch Simulationen werden dafür eingesetzt.

Weitere Neustarts von Kernkraftwerken Palisades

Palisades ist ein ab 1973 betriebenes KKW mit einem 805 MWe-Reaktor; es befindet sich an der Ostküste des Lake Michigan, 75 Meilen von Chicago entfernt. Sein Betrieb endete am Ende der genehmigten Laufzeit im Jahre 2022. Der neue Eigentümer Holtec beschloss den Neustart. Das Energieministerium DOE bewilligte im Oktober 2024 eine Anleihe von 1,52 Milliarden US-Dollar; der Staat Michigan stellte 300 Millionen Dollar zur Verfügung. Der Neustart ist für Oktober 2025 geplant. Unklar ist dieser Termin, weil der schlechten Zustands des Dampfgenerators 500 Millionen Dollar und zwei Jahre an Verzögerung kosten würde. Man prüft das nun…

Duane Arnold

Iowas Dune Arnold-KKW, mit 601 MWe, wird als ein weiterer Kandidat für einen Restart genannt. Dessen Betrieb begann 1975. Es wurde 2020 wegen Unrentabilität geschlossen. Das Unternehmen NextEra ist an einem Neustart interessiert – falls er „risikofrei“ sei.

Weitere Kandidaten

Dazu gehören Kraftwerke, die nicht vollständig fertiggestellt wurden und daher keine kommerzielle Anwendung hatten. Sogar die nicht fertiggestellten, und 2017 aufgegebenen V.C.Summer 2&3-Neubauten werden als potenzielle Kandidaten für ihre Komplettierung genannt. Es wird angenommen, dass trotz der erheblichen Projektkosten und Verzögerungen ein Neustart der Konstruktion möglich wäre.

Browns Ferry

Das Browns Ferry Kernkraftwerk bestand aus 3 Einheiten. Sie wurden 1985 geschlossen und dann später wiedergestartet: Sechs Jahre später BF-2, 10 Jahre später BF-3 und 22 Jahre später BF-1. Im Gegensatz zu Palisades und TMI-1 behielten sie ihre Betriebslizenz während ihrer langen Stilllegung und man sorgte für die Erhaltung wichtiger Systemteile – in der Erwartung einer Rückkehr zu einem Betrieb. Die Kosten dieser Variante waren jedoch höher als bei der oben beschriebenen „Einmottungs“-Lösung.

Watts Bar

Das Kraftwerk Watts Bar in Tennessee besaß Anlagen, die seinen Bau um einen langen Zeitraum verzögerten, woraufhin dessen Konstruktion von neuem startete, um Anlagenteile zu komplettieren. WB-1 startete seinen kommerziellen Betrieb 1996, 23 Jahre nach dem Baubeginn in 1973. WB-2 begann den Betrieb 2016, 43 Jahre nach dem Baubeginn von 1973. Anmerkung: Ob das überhaupt ein Kandidat für einen Neuanfang sein kann, ist die Frage.

Onagawa (Japan)

Im Oktober 2024 nahm das 825 MWe-Kernkraftwerk Onagawa-2 wieder seinen Betrieb auf. Es liegt an der Ostküste Japans; 72 Meilen nördlich der Fukushima Dai-Ichi Kernkraftwerke. Onagawa-2 wurde 2011 außer Betrieb genommen. Es war das Kernkraftwerk, das dem Epizentrum des großen Erdbebens der Stärke 9 in Japans Osten im Jahre 2011 am nächsten war. Es blieb unbeschädigt, wurde jedoch nach dem Tsunami, der das Kernkraftwerk Fukushima vernichtete, von Tuhoku Electric in eine ausgesetzte Betriebsphase gestellt, um zusätzliche Sicherheitsmaßnahmen einzubauen. Das dauerte 13 Jahre.

Anmerkung: Onagawa blieb unbeschädigt, obwohl es von dem Tsunami mindestens so stark getroffen wurde wie Fukushima. Aber es wurde durch eine ausreichend hohe Sperrmauer auf der Meeresseite geschützt. Schließlich war nach den zahlreichen Tsunamis, die etwa im 30-Jahres-Rhythmus Japan treffen, bekannt, wie hoch die Flutwelle sein kann. In Fukushima war diese Mauer viel zu niedrig; die Flutwelle traf das Kraftwerk, zerstörte das in keiner Weise widerstandsfähige Tor zu den im Untergeschoß befindlichen Notstromdieseln, die absoffen. Das beendete die Kühlung des Reaktors und seine Restwärme erzeugte das Knallgas, das dann den Reaktor sprengte. Diese unverständlichen Unterlassungen bei der Konstruktion, beim Bau und bei der Endkontrolle (falls es sie gab) waren die Garantie für die Zerstörung des Kraftwerks.

2. Anmerkung: Edward Kees Artikel vermittelt einen Eindruck von den sehr unterschiedlichen Gründen, wegen denen die beschriebenen Kernkraftwerke teilweise sehr lange Aus-Zeiten erfahre hatten. Technisches Versagen war offensichtlich nicht dafür verantwortlich. Erstaunlich ist die zum Teil sehr lange Stillstandszeit, nach der offenbar eine Wiederinbetriebnahme möglich ist – falls es die Kosten gestatten. Die inzwischen in den USA geradezu üblich gewordene Betriebsgenehmigung von 40 plus 20 Jahren zeigt die Langlebigkeit der Technologie. Und eine Bemerkung zur Kernkraftpolitik Deutschlands: Hier kann kein stillgelegtes Kernkraftwerk nach etlichen Jahren wieder in Betrieb genommen werden. Weil es zerstört wird.

Abschließende Bemerkungen

Der Artikel von Edward Kee beschreibt die geradezu extremen Unterschiede zwischen der deutschen Energiepolitik und der amerikanischen Praxis. In den USA wird die Stromversorgung des Landes von den Bundesstaaten kontrolliert, wozu auch die Restrukturierung der Industrie gehört. Deren Vorgehensweise ist unterschiedlich, so gibt es den traditionellen regulierten Betrieb, ebenso Kraftwerke in ungeregelten Anbindungen und auch die Genehmigung zur Teilnahme am Großhandelsmarkt. Für jeden Einzelfall die beste Lösung, das ist das Prinzip. Wenn Verluste anfielen und lokale Handelsunternehmen bei Strompreisen oberhalb des Großhandels-Niveaus keine Verträge mehr abschlossen, wurden Kraftwerke eben geschlossen. Das waren meist ältere Anlagen mit oft nur einem Reaktor und höheren Betriebskosten. Einige US-Staaten führten Null-Emissions-Kredite als Mittel gegen Stilllegungen ein. Bei dem ersten hier beschriebenen Beispiel des Neustarts von Three Miles Island TMI-1 wird der wohl künftig wieder über dem Marktpreis liegende Strompreis vom Großverbraucher Microsoft akzeptiert. Die zunehmende Tendenz von energieintensiven Großunternehmen, sich ein eigenes Kraftwerk zuzulegen, dient der Versorgungssicherheit.

Die US-Methode, aus einer Vielzahl von Möglichkeiten die beste Variante herauszupicken, führt zu jeweils optimalen Ergebnissen – und ist jeglicher zentraler Energiepolitik mit politisch begründeten Planungen, zahllosen Vorschriften, Berichtspflichten und Einschränkungen weit überlegen; vom Zeitaufwand zwischen Planung und Fertigstellung gar nicht zu reden. Es ist dort schlicht unvorstellbar, dass – wie in unserem Lande – ideologische Vorlieben und Abneigungen gegen bestimmte Technologien zum Dogma erhoben und dann Unbrauchbares mit hohen Subventionen in einen dafür nicht existierenden Markt gedrückt wird. Zusammen mit Erziehungs- und Belehrungsmethoden. Es besonders absurd, dass hier zugleich mit der Prognose einer angeblichen Klimakatastrophe durch CO2-Emissionen die beste und stärkste CO2-freie Energietechnik, die Kernkraft, vollständig zerstört wird. In den USA sind die CO2-Freiheit der Kernkraft zusammen mit der Sicherstellung des stark steigenden Strombedarfs die Haupt-Antriebe für den Neubau sowohl großer als auch deutlich kleinerer Reaktoren – die SMS. Ergänzt wird das nun durch die erneute Nutzung und Verbesserung stillgelegter Anlagen – siehe Mr. Kee`s Papier. Die Regierung Merkel hat nach dem Unglück in Fukushima im Gegensatz zu allen anderen Industrieländern, die neue Kernkraftwerke bauen, die Zerstörung aller Kernkraftwerke beschlossen – nicht etwa nur deren Stilllegung. In diesem Zusammenhang ist zu erwähnen, dass das im Artikel von Mr. Kee erwähnte 70 km an der gleichen Küste befindliche Kernkraftwerk Onagawa, das vom Tsunami noch stärker getroffen wurde, vollkommen unbeschädigt blieb und weiterarbeitete. Frau Merkel begründete ihre Entscheidung auch nicht etwa mit einer angeblichen Gefahr durch alle deutschen Kernkraftwerke; sie erklärte vielmehr, dass sie das „wegen der Leute“ tun müsse. Es ging somit um die von den Medien verbreitete Angst. „Le Angst“, wie man das in Frankreich nennt. Das sich das mit einer neuen deutschen Regierung noch ändern könnte, da es noch einige stillgelegte, aber noch nicht zerstörte KKW gibt, kann man vergessen: Es war der bayerische Ministerpräsident Söder, der mit Nachdruck und erfolgreich die Zerstörung des modernsten und sichersten Kernkraftwerks „Isar 2“ forderte. Leider sind Trümmer weder nachhaltig noch erneuerbar.

 

 

 




Untersuchung von Zeitreihen

Teil I Methoden

Vorbemerkung

Die Zeitreihen der Meßgrößen Temperatur und Anzahl der Sonnenstunden weisen ab den 1990er Jahren einen Anstieg auf, der über dem Mittel des Anstiegs dieser Größen von Aufzeichnungsbeginn bis Aufzeichnungsende liegt. Die Autoren Kowatsch,J. und Baritz,M. [1] haben den Beginn des Anstiegs der Temperatur auf das Jahr 1988 gelegt. Es sind jedoch keine Kriterien für diese Festlegung angegeben. In Diskussionen wurde das Fehlen der Angabe von Kriterien kritisiert. Im Folgenden werden Kriterien vorgestellt, die die Frage beantworten, wann ein Anstieg einer Zeitreihe beginnt. Dazu werden Funktionen der Kriterien über den Zeitreihen ermittelt.

Zerlegung von Zeitreihen

Bild 1 zeigt die Zeitreihe der an der Station Frankfurt/Main gemessenen jährlichen Sonnenstunden. Es ist ersichtlich, dass gegen Ende der Zeitreihe ein größerer Anstieg der Regressionsgeraden zu erwarten ist als über weite Teile des Verlaufs. Es ist nun die Frage zu beantworten, wo dieser Anstieg beginnt. Zu diesem Zweck wird die Zeitreihe in zwei Regressionsgeraden zerlegt, die miteinander verglichen werden. Nach den folgenden Kriterien wurden alle geeigneten Zeitreihen der Meßstationen für die Anzahl der Sonnenstunden und der Temperatur mit der Methode der fortschreitenden Regression untersucht.

Ein Bild, das Text, Reihe, Diagramm, Screenshot enthält. Automatisch generierte Beschreibung

Bild 1 Zeitreihe jährliche Sonnenstunden gemessen an der Station Frankfurt/Main

Methode der fortschreitenden Regression

Eine Zeitreihe enthalte n Meßwerte. Wird die Zeitreihe wird an einer Stelle t geteilt, ergeben sich zwei Teile mit nl Werten links von t und nr Werten rechts von t . Es gilt

n = nl + nr + 1.

Die Teilstelle t wandert schrittweise von links nach rechts. Da die Regressionsgeraden am Beginn und Ende der Zeitreihen aus mindesten drei Werten bestehen müssen, werden Start- und Endgeraden mit der Anzahl von nl0 und nr0 Werten für den Beginn und Ende der Regression festgelegt. Für die erste linke Regressionsgerade gilt somit nl = nl0. Die erste rechte Gerade beginnt mit dem Wert der Stelle nl0 – 1. Das rührt daher, dass der Endwert der linken Geraden und Anfangswert der rechten Geraden derselbe Wert sein sollen. Daraus ergibt sich die Anzahl der zu berechneten Regressionsgeraden zu

Z = 2 (n nl0 nr0 + 2)

Beispiel:

Bild 2 zeigt den Startpunkt der fortschreitenden Regression am Beispiel der Meßreihe Frankfurt/Main für die Anzahl der Sonnenstunden. Es liegen 73 Meßwerte vor. Die Anzahl der Start- und Endwerte werden mit nl0 = 5 und nr0 = 5 festgelegt. Es müssen somit Z = 2 (73 – 5 – 5 + 2), Z = 130 Regressionsgeraden berechnet werden.

Ein Bild, das Text, Reihe, Diagramm, Screenshot enthält. Automatisch generierte Beschreibung

Bild 2 Startpunkt der fortschreitenden Regression für die Sonnenstunden Frankfurt/Main

Beurteilungskriterien

Kriterium Maximaler Sprung

Wie an der Teilungsstelle in Bild 2 zu erkennen ist, stoßen die beiden Regressionsgeraden nicht in einem Punkt zusammen, es liegt ein Sprung vor. Dieser Sprung wird in [1] als Kriterium für den beginnenden Anstieg angenommen. In Bild 3 ist der Sprung zwischen den beiden Regressionsgeraden an der Stelle 1988 dargestellt. Da für die gesamte Zeitreihe die Sprünge berechnet sind, können diese über den Jahren aufgetragen werden und der maximale Sprung in positiver als auch in negativer Richtung ermittelt werden.

Ein Bild, das Text, Reihe, Diagramm, Zahl enthält. Automatisch generierte Beschreibung

Bild 3 Sprung an der Teilungsstelle 1988 der Zeitreihe der Sonnenstunden

Kriterium Minimale Summe der Fehlerquadrate

Eine Regressionsfunktion wird üblicherweise dadurch ermittelt, dass die Summe der Quadrate der Abweichungen (SQA) zu den Meßpunkten minimal sein soll. Im Fall der geteilten Regressionsfunktion (hier in die beiden Geraden links und rechts der Teilungsstelle) soll eine gemeinsame Summe SQA gesamt nach

SQA gesamt = (SQA links + SQA rechts) / n

gebildet werden, wobei die Summe noch durch die Anzahl der Meßpunkte der Zeitreihe geteilt wird. Bei Anwendung dieses Kriteriums liegen die beiden am besten an die Meßpunkte angepassten Geraden vor. Wie sich jedoch bei der Auswertung der in Tabelle 1 zusammengefassten Zeitreihen gezeigt hat, muss die minimale Fehlerquadratsumme nicht mit dem Anstiegsbeginn übereinstimmen.

Kriterium Anstiegsbeginn

Gemäß der Fragestellung „Wann beginnt der maßgebliche Anstieg einer Zeitreihe“ erscheint es logisch, ein Kriterium zu verwenden, mit dessen Hilfe auch der Anstieg ermittelt werden kann. Um das Jahr des Anstiegsbeginns feststellen zu können, wird der Anstieg der rechten Regressionsgeraden

yr = a0r + a1r x

mit y als Meßgröße (Sonnenstunden, Temperatur) und x als Jahr der Messung, berechnet. Der Faktor a1r stellt den Anstieg der rechten Regressionsgeraden dar. Dieses Kriterium ist von den drei Möglichkeiten jenes, dass die Fragestellung beantwortet.

Beispiel: Zeitreihe Frankfurt /Main

Die in Bild 1 abgebildete Zeitreihe wird nach den drei o.g. Kriterien untersucht. Die Messung erstreckt sich über den Zeitraum 1950 bis 2022. Die Zeitreihe umfasst 73 Meßwerte.

Ein Bild, das Text, Diagramm, Reihe enthält. Automatisch generierte Beschreibung

Bild 4 Sprung der Anzahl der jährlichen Sonnenstunden

Als Startpunkt der fortschreitenden Regression wird der Meßwert des Jahres 1954 gewählt. Die linke Regressionsgerade wird aus den Werten 1950 bis 1954 berechnet. Die rechte Regressionsgerade beginnt 1954 und endet 2022. Im zweiten Schritt enthält die linke Gerade die Werte von 1950 bis 1955, die rechte Gerade die Werte 1955 bis 2022 usw. In den folgenden Bildern sind die Ergebnisse der Berechnungen nach den drei o.g. Kriterien dargestellt.

Bild 4 zeigt den Sprungverlauf an der Trenn- bzw. Berührungsstelle der beiden Regressionsgeraden. Es gibt Sprünge in Richtung Vergrößerung der Anzahl der Sonnenstunden oder der Verminderung von deren Anzahl. Der maximale Sprung bezüglich der Erhöhung der Anzahl fällt auf das Jahr 1988. An den Rändern des Verlaufs treten Einschwingerscheinungen auf, da die Regressionsfunktionen an Anfang und Ende der Zeitreihe sehr kurz sind. Das gilt auch für die Darstellung in Bild 5 und Bild 6.

Ein Bild, das Text, Diagramm, Reihe, Zahl enthält. Automatisch generierte Beschreibung

Bild 5 Verlauf der Summe der Fehlerquadrate SQA ges

Etwas ungewöhnlich ist für die Station Frankfurt/Main der Verlauf der Summe der Fehlerquadrate SQA gesamt nach Bild 5. Das Minimum liegt hier bei 2012. In der Regel liegt dieses bei den größten Sprüngen – entweder in der positiven oder auch in der negativen Richtung.

In Bild 6 sind die beiden Anstiegsfunktionen, also die Werte des Anstiegs der linken und rechten Regressionsgeraden dargestellt. Von Interesse ist der Anstieg a1r der rechten Regressionsgeraden. Dieser sagt aus, wann der Anstieg der betrachteten Größe, hier der Anzahl der Sonnenstunden, beginnt. Wie in Bild 6 ersichtlich ist, steigt die Anzahl der jährlichen Sonnenstunden ab dem Jahr 2002 steil an. Ab 1988 beginnt eine Abweichung der bis dahin fast parallel zur Zeitachse verlaufenden Anstiegsfunktion. Der Anstiegsbeginn wird nach diesem Bild mit dem Jahr 2002 festgelegt.

Vergleicht man die Anstiegsfunktion mit der Sprungfunktion ist ersichtlich, dass auch für 2002 ein größerer Sprung vorliegt, der jedoch nicht das Maximum darstellt.

Ein Bild, das Text, Diagramm, Reihe, Zahl enthält. Automatisch generierte Beschreibung

Bild 6 Verläufe des Anstiegs der linken und rechten Regressionsgeraden

In Bild 7 sind die Regressionsgeraden mit den Teilungspunkten 1988 und 2002 zusammen mit dem Konfidenzintervall der 2002 beginnenden Geraden dargestellt.

Ein Bild, das Text, Reihe, Diagramm, parallel enthält. Automatisch generierte Beschreibung

Bild 7 Vergleich der Regressionsgeraden mit den Teilungspunkten 1988 und 2002

Naturgemäß ist der Anstieg der 2002 beginnenden Geraden steiler. Allerdings liegt auch die 1988 beginnende Gerade im Konfidenzintervall, so daß kein signifikanter Unterschied besteht.

Zusammenfassung

Ausgehend von Artikeln zur Temperaturentwicklung in Deutschland, die das Jahr 1988 als Beginn des Temperaturanstiegs festlegen, aber keine belastbaren Kriterien dafür angeben, wird hier der Versuch unternommen, Kriterien für den Startpunkt zu formulieren. Es erscheint logisch, für die Beurteilung des Anstiegs diesen auch zu berechnen und nicht über den Behelf der Abweichung zweier Geraden in einem Punkt (Sprung) den Beginn des Anstiegs festzulegen. Das Beispiel Frankfurt/Main belegt das deutlich.

In Teil II wird die Auswertung der verfügbaren Zeitreihen der DWD-Stationen bezüglich Sonnenstunden und Temperatur vorgestellt.

Teil II Auswertung Bundesländer

Nachdem in Teil I die Methoden beschrieben wurden, beinhaltet Teil II die Auswertung der verfügbaren Zeitreihen für das Verhalten der Sonnenstunden und der Temperatur. Es wurden bezüglich der Temperatur nur die Stationen berücksichtigt, für die auch Zeitreihen der gemessenen Sonnenstunden vorliegen, um einen Vergleich zu ermöglichen (einige Temperaturzeitreihen wurden allerdings zusätzlich aufgenommen). In Tabelle 1 ist die Anzahl der Zeitreihen zusammengestellt, die von den Meßstationen der Bundesländer für den hier genannten Zweck auswertbar sind. Als auswertbar sind solche Zeitreihen zu werten, die eine genügend große Anzahl von Meßwerten (ca. größer. 40) und deutlich über das Jahr 2000 reichen. Meist also bis 2022.

Bundesland Sonnen- Temperatur
stunden
Baden-Württemberg 24 31
Bayern 33 19
Brandenburg 9 14
Bremen/Hamburg 3 4
Hessen 16 12
Mecklenburg-Vorpommern 5 13
Niedersachsen 15 14
Nordrhein-Westfalen 11 11
Rheinland-Pfalz 8 14
Saarland 2 2
Sachsen 5 14
Sachsen-Anhalt 7 7
Schleswig-Holstein 8 7
Thüringen 8 9
Summe 154 171

Tabelle 1 Anzahl der untersuchten Zeitreihen in den Bundesländern

Die älteste Zeitreihe für Temperaturmessung liegt von der Station Hohenpeißenberg (Bayern) vor und beginnt 1781. Die Aufzeichnung der Sonnenstunden begann 1921 an der Station des Fichtelbergs (Sachsen). In Bild 8 und Bild 9 sind die Häufigkeiten für Sprung, Anstiegsbeginn und Summe der Fehlerquadrate dargestellt. Die Zeitachse ist in diesen Bildern abgeschnitten, da vor 1980 sehr wenige Werte ermittelt wurden Eine Ausnahme bildet die minimale Fehlerquadratsumme. Hier wurden von 1946 bis 1980 60 Werte für die Zeitreihen der Sonnenstunden gezählt. Die Fehlerquadratsumme soll jedoch hier nicht weiter betrachtet werden.

Sonnenstunden

Bei den Sonnenstunden ist das Jahr 2002 dasjenige, bei dem der Anstieg am häufigsten begann (114 Werte), das sind 74 % der untersuchten Zeitreihen. Auch der maximale positive Sprung trat hier mit 42 % am häufigsten auf. Nach 2002 folgt das Jahr 1988, bei dem ebenfalls eine Anhäufung der Werte vorliegt.

Ein Bild, das Text, Screenshot, Reihe, Diagramm enthält. Automatisch generierte Beschreibung

Bild 8 Häufigkeiten von Sprung, Anstiegsbeginn und Summe der Fehlerquadrate für die Anzahl der Sonnenstunden

Temperatur

Bei den Temperaturmessungen ragt das Jahr 1987 heraus. In diesem Jahr wurden der maximale positive Sprung 104-mal (61 %) und die minimale Fehlerquadratsumme 91-mal (52 %) ermittelt. Der Beginn des Anstiegs mit acht Werten spielt in diesem Jahr keine Rolle. Um auf der Zeitachse eine sinnvolle Darstellung zu ermöglichen, wurde diese wie bei der Darstellung der Sonnenstunden vor 1980 abgeschnitten. In den Jahren davor liegen nur sehr wenige Werte für Sprung und Anstiegsbeginn vor (max. 6 Werte). Eine Ausnahme bildet die minimale Fehlerquadratsumme. Hier wurden von 1946 bis 1980   60 Werte für die Messung der Sonnenstunden gezählt.

Ein Bild, das Text, Screenshot, Reihe, Diagramm enthält. Automatisch generierte Beschreibung

Bild 9 Häufigkeiten von Sprung, Anstiegsbeginn und Summe der Fehlerquadrate für die Temperaturentwicklung

In Bild 10 sind die Häufigkeiten des Anstiegsbeginns von Sonnenstunden und Temperatur gemeinsam dargestellt. Das Jahr 2022 ragt beim Verhalten der Sonnenstunden mit 114 Werten deutlich aus der Verteilung heraus. Nun wäre eigentlich zu erwarten gewesen, dass dies auch für das Verhalten der Temperatur zutrifft. Bei dieser Größe verteilt sich jedoch der Anstiegsbeginn auf die Jahre zwischen 1985 und 2003. 1997 ist das Jahr, wo 55 Werte für den beginnenden Anstieg vorliegen.

Ein Bild, das Text, Screenshot, Reihe, Diagramm enthält. Automatisch generierte Beschreibung

Bild 10 Häufigkeiten des Anstiegsbeginns von Sonnenstunden und Temperatur

Zusammenfassung

Angeregt durch Diskussionen zu Artikeln über den Verlauf von Wetterdaten wurden hier drei Kriterien für die Festlegung des Anstiegsbeginns einer Zeitreihe untersucht. Wenn die Frage nach dem Beginn des Anstiegs gestellt ist, ist es logisch, diesen auch, sofern möglich, zu untersuchen. Als Methode ist eine fortschreitende Regressionsanalyse verwendet worden. Dabei wird die Zeitreihe an jedem Meßpunkt (abgesehen von der Start- und Endgeraden) in zwei Regressionsgeraden unterteilt und Anstieg, Sprung und Fehlerquadratsumme beider Geraden ermittelt. Somit erhält man eine Funktion dieser Größen über der gesamten Zeitachse. Die Beurteilung der Größen ist somit für die gesamte Zeitreihe möglich.

Wird das Kriterium des beginnenden Anstiegs angewendet (was aus der Logik folgt), zeigt sich, dass der Anstieg der gemessenen Sonnenstunden deutlich 2002 beginnt. Für den Anstieg der Zeitreihen der Temperatur bildet sich möglicherweise eine glockenförmige Verteilung (eventuell sogar Normalverteilung) um 1997 heraus. Um dieses zu bestätigen, sind jedoch mehr Zeitreihen zu untersuchen.

Verweise

[1] Der Sommer wird in Deutschland erst seit 1988 wärmer!

https://eike-klima-energie.eu/2024/09/11/der-sommer-wird-in-deutschland-erst-seit-1988-waermer/

DWD Wetterstationen Tageswerte

https://opendata.dwd.de/climate_environment/CDC/observations_germany/climate/daily/kl/historical/

Voge, K.

Entwicklung der Anzahl der Sonnenstunden

https://eike-klima-energie.eu/2024/10/15/entwicklung-der-anzahl-der-sonnenstunden/




Vernunftkraft e.V. – Offener Brief an CDU/CSU Fraktion im Deutschen Bundestag- Warum wir so nicht weitermachen können und was getan werden muss.

Von Vernunftkraft e.V

CDU/CSU-Fraktion im Deutschen Bundestag

Platz der Republik 1
11011 Berlin

– Offener Brief –

(nachrichtlich an Vertreter der Presse)

Berlin, im Januar 2025

Warum wir so nicht weitermachen können und was getan werden muss.

Sehr geehrte Damen und Herren,

sehr geehrter Herr Merz,

sehr geehrter Herr Spahn,

am 7. März 2024 stellte der Bundesrechnungshof in seinem Sonderbericht zur deutschen Energiewende fest:

„Die Versorgungssicherheit ist gefährdet, der Strom ist teuer und die Auswirkungen der Energiewende auf Landschaft, Natur und Umwelt kann die Bundesregierung nicht umfassend bewerten.“

Diese klare Feststellung, dass die deutsche Energiewende die im Energiewirtschafts-gesetz festgeschriebenen Ziele verfehlt, schlägt sich leider nicht deutlich im Programm der CDU nieder.

Angesichts der katastrophalen Bilanz ist eine komplette Neujustierung der Energiepolitik unumgänglich – je später diese erfolgt, desto schmerzhafter wird diese ausfallen und desto größer werden die bis dahin entstehenden Schäden sein.

Die Energiekosten sind zur existenziellen Belastung des Standorts geworden

Die jüngsten Wachstumsprojektionen von IWF und OECD verweisen Deutschland auf einen letzten Platz unter allen großen Industrienationen. Dies zeigt, dass unsere Probleme hausgemacht sind – neben Überbürokratisierung werden auch stets die hohen Strompreise in Deutschland genannt. Diese sind seit Einführung des EEG im Jahre 2000 überproportional gewachsen (+198% im Vergleich zu +58% Steigerung der allg. Teuerung), wir halten die Spitzenposition bei den Haushaltsstrompreisen der EU, unsere Industriestrompreise sind gegenüber internationalen Konkurrenten wie den USA und China nicht mehr konkurrenzfähig und die Produktion der energieintensiven Industrie ging um über 20% zurück.

Studien zeigen, dass die deutschen Strompreise weiter steigen werden, insbesondere durch die drastisch steigenden Netzentgelte, die unmittelbar auf den weiteren Ausbau der sogenannten erneuerbaren Stromerzeuger zurückzuführen sind.

Die Subventionen für die Energiewende sind außer Kontrolle geraten

In diesem Jahr steigen die Subventionen für die EE-Erzeuger auf 20 Mrd. €, eine aktuelle Projektion des energiewirtschaftlichen Instituts der Uni Köln (EWI) sieht diese bis 2030 auf 23 Mrd. € steigen. Insgesamt sind für die sog. Energiewende bisher ca. 500 Mrd. € an Förderungen geflossen, eine aktuelle Studie des Fraunhofer IES sieht den weiteren Finanzbedarf bis 2045 bei 8,6 Billionen €. Pläne wie die zusätzliche Subventionierung der Netzentgelte ohne eine nachvollziehbare Perspektive auf sinkende Strompreise verschärfen nur das Problem – zulasten kommender Generationen.

Die Versorgungssicherheit ist nicht mehr gewährleistet

Der Vorstandsvorsitzende der RWE, Markus Krebber, hat angesichts der Dunkelflaute Anfang November eindringlich davor gewarnt, dass in Zukunft Situationen eintreten können, in denen wir die Spitzenlast nicht mehr abdecken können. Dann drohen in Deutschland großflächige Stromabschaltungen. In den Sommermonaten hingegen drohen Netzabschaltungen ganzer Wohngebiete, weil Überschussstrom aus nicht-regelbaren PV-Anlagen die lokalen Netze überlastet. Die letzte Bundesregierung hielt dennoch strikt an der Abschaltung grundlastfähiger Kraftwerke sowie dem Zubau der diese Zustände verursachenden erneuerbaren Stromerzeuger fest – damit wird die Eintrittswahrscheinlichkeit dieser Ereignisse zunehmen. Die Solidarität unserer europäischen Nachbarn mit dieser destruktiven Energiepolitik wird zunehmend fragiler.

Die Klimapolitik bedroht den sozialen Frieden

Neben den hohen Systemkosten einer auf Wind und Solar basierenden Erzeugung sind vor allem die in den letzten sechs Jahren stark gestiegenen CO2-Zertifikatskosten für zunehmende Stromkosten und Industrieabwanderung verantwortlich. Diese Entwicklung wird 2025 durch die drastische Erhöhung der CO2-Steuer auf Treibstoffe und Erdgas immer weiter in den privaten Bereich ausgedehnt. Im Verbund mit klein-teiligen Eingriffen in die Wirtschaft wie dem Gebäudeenergiegesetz oder dem Verbrennerverbot gefährdet dies zunehmend den sozialen Frieden. Dabei steht diesen drastischen Folgen kein Vorteil bei der Entwicklung der globalen CO2-Emissionen gegenüber: Der deutsche Anteil von 1,6% an diesen entspricht mengenmäßig der jährlichen Erhöhung der CO2-Emissionen Chinas. Durch die zunehmende Erhöhung der CO2-Kosten findet global betrachtet keine Reduktion, sondern lediglich eine Verlagerung der Nutzung fossiler Brennstoffe aus Deutschland heraus statt, wobei davon auszu-gehen ist, dass die verlagerte Produktion regelmäßig unter geringeren technologischen bzw. ökologischen Standards erfolgt.

Natur-, Arten- und Landschaftsschutz werden systematisch in die Bedeutungslosigkeit verbannt.

Da Wind und Solar Stromerzeugungsformen mit geringer Energiedichte sind, erfordern sie einen hohen Flächenbedarf, der in einem dicht besiedelten Land wie Deutschland bei den hier verfolgten Ausbauzielen notwendigerweise mit dem Natur- und Artenschutz kollidiert. Dieser Konflikt wurde von der jetzigen Bundesregierung einseitig zugunsten der Wind- und Solarindustrie entschieden, insbesondere durch §35 und §249 BauGB, §6 WindBG, §45b NatSchG sowie §2 EEG. Die Grundgedanken des Natur-, Arten- und Landschaftsschutzes wurden dadurch systematisch ausgehöhlt. Aufgrund der Flächen-zielvorgaben werden schützenswerte Regionen, Landschaftsschutzgebiete, Naturparks, Erholungsorte und Wälder in Industriegebiete verwandelt. Teilweise werden Amtsgemeinden mit über 10% Windfläche ausgewiesen, wobei sich einzelne Windfelder über 10 km erstrecken. Der Bau von Windindustrieanlagen in Wäldern beraubt diese ihrer ökologischen Funktion und schädigt die Biodiversität dieser wichtigen Lebensräume in nicht absehbarer Weise. Der Artenschutz wurde durch die Reduktion bzw. Aufhebung der Schutzabstände kollisionsgefährdeter Arten unterlaufen. So wurde beispielsweise für den Seeadler der Schutzabstand zum Horst von 3.000 m auf 500 m reduziert, für den Schwarzstorch wurde das Erfordernis eines Schutzabstandes sogar komplett gestrichen. Diese Erleichterungen für die Windindustrie stehen im Widerspruch zu dem von der Länderarbeitsgemeinschaft der Vogelschutzwarten ausgearbeiteten „Helgoländer Papier“ – ohne dass eine belastbare Evaluation der Folgen für die heimische Avifauna existierte. §6 WindBG ermöglicht den Bau von Windkraftanlagen ohne Umweltverträglichkeitsprüfung. Eine einmalige Natur- und Landschaftszerstörung, die durch entsprechende Gesetze legitimiert wurde.

Die notwendige ökologische Gesamtbetrachtung fehlt

Neben den Umweltwirkungen am Ort ihrer Errichtung müsste eine ganzheitliche Betrachtung von Windkraft- und Solaranlagen auch die ökologischen Folgen des Abbaus der zu ihrer Herstellung notwendigen Rohstoffe, insbesondere die großflächige Kontaminierung und radioaktive Verseuchung von ganzen Landstrichen in China durch den Abbau der benötigten Seltenen Erden, umfassen. Eine korrekte Ökobilanz müsste zudem die Entsorgungsproblematik berücksichtigen. Nach Angaben des UBA steigt die Menge an nicht-recycelbarem Windkraftmüll in dieser Dekade auf 20.000 Tonnen pro Jahr, in den 2030er Jahren steigt diese Abfallmenge auf 50.000 Tonnen pro Jahr. Es ist zu befürchten, dass sich die Windkraftindustrie zunehmend dieser Altlasten durch den Export ausrangierter Anlagen zum Weiterbetrieb in Drittstaaten entledigen könnte, wodurch es unkontrolliert zur wilden Deponierung im Ausland kommen kann.

Mögliche gesundheitliche Folgen werden ausgeblendet

In Frankreich wurden durch das Berufungsgericht von Toulouse letztinstanzlich Windkraftanlagen als Verursacher der gesundheitlichen Beschwerden eines Ehepaares anerkannt und diesem Schadensersatz zuerkannt, dieses Urteil hat in Frankreich eine breitere Diskussion über gesundheitliche Beschwerden durch Windkraftanlagen nahe von Wohnsiedlungen ermöglicht. Dagegen werden in Deutschland durch die hohen Ausbauziele immer geringere Abstände zu Wohngebieten zugelassen, wodurch die Betroffenen mit ihren Problemen allein gelassen oder gar als Simulanten hingestellt werden. Ebenso problematisch ist die Kontamination der Böden und des Grundwassers in der Nähe von Windkraftanlagen durch den Abrieb toxischer Substanzen, insbesondere Bisphenol-A. Im Fall von Bränden von Windkraftanlagen ist die Bevölkerung üblicherweise unzureichend gegen die Exposition potenziell karzinogener CFK-Fasern geschützt. Zu allen diesen Sachverhalten ist festzustellen, dass der Ausbau von Windkraftanlagen ohne eine neutrale wissenschaftliche Begutachtung der damit verbundenen Gefahrenpotenziale erfolgt.

Was jetzt zu tun ist

Eine grundlegende Neujustierung der deutschen Energiepolitik ist unumgänglich. Wir haben diese in den nachfolgenden 11 Punkten zusammengefasst:

  1. Die Aushöhlung des Natur- und Artenschutzes, insbesondere die verpflichtenden Flächenziele durch das „Wind an Land“ Gesetz und die Windkraftprivilegierung im §35 BauGB und §2 EEG müssen rückgängig gemacht werden.
  2. Die Anpassungen im BNatSchG zu Gunsten der Windkraftanlagen müssen rückgängig gemacht und wieder in Einklang mit dem ornithologischen Kenntnisstand gebracht werden. Landschaftsschutzgebiete müssen für Windkraftanlagen wieder tabu werden. Eine Umweltverträglichkeitsprüfung muss für jede Windkraftanlage wieder zur Pflicht werden.
  3. Die EEG-Förderungen müssen sofort beendet und die dadurch seit Jahrzehnten subventionierten Erzeugungsformen in den Markt entlassen werden.
  4. Die Abschaltung grundlastfähiger Kraftwerkskapazitäten und der weitere Ausbau der volatilen Erzeugung muss eingestellt werden, bis eine neue Energiestrategie erarbeitet worden ist, die die Aspekte Versorgungssicherheit, Preisstabilität und Umweltverträglichkeit in den Vordergrund stellt.
  5. Eine neutrale und ergebnisoffene Untersuchung muss klären, welche Kernkraft-werke an den Markt zurückgeholt werden können. Bis zu dieser Klärung muss der Rückbau der Kernkraftwerke eingestellt werden.
  6. Deutschland muss eine technologieoffene Politik verfolgen. Dies muss auch die Errichtung neuer Kernkraftwerke bzw. SMR sowie die CCS-Technologie ermöglichen.
  7. Die hohen Netzkosten dürfen nicht alleinig dem Verbraucher oder dem Steuerzahler auferlegt werden. Insbesondere müssen Redispatchkosten verursachungsgerecht den Betreibern von Solar- und Windkraftanlagen auferlegt werden. Diese dürfen zudem für netztechnisch notwendige Abschaltungen ihrer Anlagen nicht weiter auf Kosten des Stromkunden entschädigt werden.
  8. Im Sinne der Systemdienlichkeit muss jede EE-Anlage mit einer Nennleistung über 10 kW von den Netzbetreibern entschädigungsfrei abgeschaltet werden können.
  9. Die CO2-Preisbelastungen der deutschen Industrie und Privatverbraucher müssen auf EU-Ebene auf ein internationales Durchschnittsniveau gesenkt werden, sodass die europäische Industrie nicht dauerhaft im Nachteil zur chinesischen oder amerikanischen Konkurrenz steht. Die Einführung des ETS-2-Systems auf Treib-stoffe und Erdgas muss verschoben werden.
  10. Zum präventiven Schutz der Anwohner müssen Mindestabstände von Windkraft-anlagen zu Wohnsiedlungen von mindestens der zehnfachen Anlagenhöhe eingeführt werden.
  11. Der Einsatz von CFK, Bisphenol A und PFAS in Windkraftanlagen ist einheitlich zu untersagen, Betreiber von Bestandsanlagen müssen verpflichtet werden, diese Substanzen aus ihren Anlagen zu entfernen.

Mit freundlichen Grüßen

Dr. Nikolai Ziegler Dr. Detlef Ahlborn

1. Vorsitzender 2. Vorsitzender

Vernunftkraft e.V.