Radio Eriwan: Ist die Versorgung mit EEG-Strom möglich? Im Prinzip ja, sofern sie auf den Strom verzichten

Selbst-organisationsfähige Smart Grids

Eine technische Zeitschrift berichtete Anfang des Jahres 2015, wie man intelligenten Netzen die Intelligenz beibringt: Man macht sie lernfähig. Einer bisher beim EEG nicht in Erscheinung getretenen Abteilung für Dynamik und Selbstorganisation der Max Plank Gesellschaft ist dieser innovative Durchbruch gelungen.

smarterworld.de 02.02.2015: Smart Grids: Selbstorganisierte intelligente Netze

Bislang glaubte man, dass zum Erhalt der Stromversorgungssicherheit in der Energiewende Versorger Energie-Verbräuche und Angebote zentral erheben und abgleichen müssten. Forscher der Max-Planck-Gesellschaft halten mit Smart Metern ausgestattete Smart Grids dagegen prinzipiell für selbstorganisationsfähig .

Laut einer Studie des Max-Planck-Instituts für Dynamik und Selbstorganisation können Smart-Meter mit angeschlossenen, steuerbaren Verbrauchern das Stromangebot sowie die Nachfrage durch Industrie und private Haushalte in einem selbstorganisierten Prozess bis zu einem gewissen Grad aufeinander abstimmen. Die Forscher berücksichtigten dabei auch, ob Strom in Speichern wie etwa in Batterien zur Verfügung steht oder ob es darin freie Speicherkapazitäten gibt.

Durch Smart Meter, die es Versorgern erlauben, Stromproduktion und Lasten zentral abzugleichen, könnten Smart Grids aber in einem gewissen Rahmen »selbstorganisierend« werden. Forscher des Max-Planck-Instituts für Dynamik und Selbstorganisation zeigten, dass Smart Meter die Stromnachfrage dezentral und selbstorganisiert mit dem Stromangebot abstimmen können.

Man kann jede Banalität durch umständliche Beschreibung und Verweis auf Studien „in den Himmel heben“ und Laien wie auch Redakteure beeindrucken. Im Kern handelt es sich schlussendlich aber um ein ganz einfaches, technisches Rezept:

Man erweitere jedes Smart Grid (elektronischer Zähler) um ein Schütz zum Zu- und Abschalten von Verbrauchern und ergänze die Software um die einfachste Regelungsfunktion eines P-Reglers und einen 50 Hz-Zähler. Damit lässt sich dann die folgende Funktion ausführen:
Weicht die Netzfrequenz zu weit ab (Kennzeichen für Netz-Überlast, bzw. zu wenig Energie im Netz), schaltet das Smart Grid die Verbraucher rigoros vom Netz, kommt die Frequenz wieder in den zulässigen Bereich zurück (Kennzeichen, es ist wieder genügend Strom verfügbar), schalte es die Verbraucher wieder zu. Bei dieser primitiven Art der „Regelung“ ist natürlich keine Kommunikation erforderlich, womit Hacker keine Chance mehr haben. Anm.: Diese Idee hat der Autor auch schon aufgegriffen: [3] Kann man bald per App Deutschland „den Saft“ abdrehen

Wenn diese einfache Technik nicht ein Skeptiker, sondern ein EEG-überzeugter Redakteur (anhand der Pressemitteilung) beschreibt, liest es sich positiver, da die vielen Vorteile präzise hervor gehoben werden:

[1] Durch Smart Meter, die es Versorgern erlauben, Stromproduktion und Lasten zentral abzugleichen, könnten Smart Grids aber in einem gewissen Rahmen »selbstorganisierend« werden. Forscher des Max-Planck-Instituts für Dynamik und Selbstorganisation zeigten, dass Smart Meter die Stromnachfrage dezentral und selbstorganisiert mit dem Stromangebot abstimmen können. Eine zentrale Stelle, die zum Abgleich von Stromverbrauch und Angebot bislang für nötig gehalten wird, würde damit bis zu einem gewissen Grad überflüssig. Zudem glaubt Physiker Benjamin Schäfer vom Max-Planck-Institut (MPI) für Dynamik und Selbstorganisation in Göttingen, dass zentral organisierte Datensammlungen und darauf basierende Entscheidungen in Smart Grids gefährlich sind: »Eine solche zentrale Steuerung ist ein potenzielles Angriffsziel für Hacker«, so Schäfer.

Zusammen mit der Firma Easy Smart Grid aus Karlsruhe haben die Forscher des MPI untersucht, ob eine zentrale Smart Grid Struktur, in der wichtige Entscheidungen hierarchisch Top-down getroffen werden, überhaupt notwendig ist. Easy Smart Grid entwickelt Systeme für Netzwerktopologien, in denen die Erzeugung weitgehend dezentral in kleineren Einheiten stattfindet und Strom den Weg – Bottom-up – von der Verteilnetzebene in die Mittelspannung findet, statt – Top-down – von »oben« (dem Kraftwerk) nach »unten« in die Verteilnetze.

Es braucht etwas Zeit, bis die Kerninformation – dass nur Ab- und Zugeschaltet wird und das Verbraucher auch stören könnte – erwähnt wird:

[1] Voraussetzung für das Funktionieren eines selbstorganisierten Smart Grids ist allerdings, dass immer genügend Smart Meter mit angeschlossenen, steuerbaren elektrischen Verbrauchern existieren, die aktiviert oder abgeschaltet werden können. Zu der Bereitschaft der Nutzer, ein Abschalten ihrer Verbraucher an nebeligen, windstillen Wintertagen zu machen, trifft das MPI keine Aussagen.

Alleine an der Sprache erkennt jeder Laie, wie meilenweit ein moderner EEG-P-Regler, von den banalen bisherigen Ausführungen innovativ entfernt sein muss.

Und selbst verständlich lässt sich diese Innovation noch optimieren, wenn weiter geforscht werden darf:

[1] Lohnend für die weitere Forschung wäre: Das »Selbstorganisationspotential« eines Smart Grids in verschiedenen Szenarien mit nachvollziehbaren Variablen zu quantifizieren.

Der Autor fasst das Ergebnis dieser bahn-brechenden Lösung zusammen:

Modernste Forschung fand heraus: Das EEG-Netz kann ganz einfach ausgeführt werden, wenn festgelegt wird:
Strom gibt es nur, wenn welcher da ist.
Da Bürger dies (noch) nicht akzeptieren und die Information des Bürgers über das Verhalten bei Netz-Abschaltung und –Wiederkehr zu umständlich ist sowie das komplett-Abschalten zu sehr an Energie-Armut in Dritte-Welt-Ländern erinnert wird empfohlen, die dem Bürger fehlende Anpassung in Smart Grids zu verlagern. Mit entsprechender Unterstützung durch die Medien sowie auferlegter Kosten für die Nachrüstung mit Smart-Grid und von Lastabwurf-Schaltungen im Haus wird sich der Bürger dann überzeugen lassen, dass zeitweise und unplanbar fehlender Strom dank (banaler) Lastabwurftechnik eine innovative Eigenschaft moderner EEG-Netze einer modernen Welt geworden ist.

Im Kern liefert diese Studie allerdings eine geradezu geniale Lösung der EEG-Problematik:
Akzeptiere, dass das EEG ungeeignet ist. Versuche nicht, es zu verbessern, sondern automatisiere das Unvermeidbare: das Abschalten der Energie für den Bürger.

Damit hat sie große Chance, verwendet zu werden.

Quellen

[1]
smarterworld.de 02.02.2015: Smart Grids: Im Prinzip möglich: Selbstorganisierte intelligente Netze
http://www.smarterworld.de/smart-energy/smart-grid/artikel/116603/1/

[2]
Max Plank Gesellschaft 27. Januar 2015:  Smart-Grid – einfach selbstorganisiert

[3]
EIKE 31.08.2016: Kann man bald per App Deutschland „den Saft“ abdrehen

http://www.eike-klima-energie.eu/news-cache/kann-man-bald-per-app-deutschland-den-saft-abdrehen/




„Klimaforschung“ – eine Spielvariante der Zukunftsforschung – Was ist „Zukunftsforschung“, was kann sie leisten?

„Klimaforschung“ – eine Spielvariante der Zukunftsforschung

Was ist „Zukunftsforschung“, was kann sie leisten?

Schon zu Anfang stellte der Mensch fest, dass er in die Rhythmen der Natur eingebunden ist, sich ihnen anpassen muss! Die Stern- und Kalenderforschung standen am Anfang aller Forschung wie deren Zusammenhang mit dem jährlichen Wetterablauf und dessen Einfluss auf das Pflanzenwachstum. Die „Bauernregeln“ bis hin zum „Hundertjährigen Kalender“ seien ein Hinweis.

Wenngleich seit jeher „das Morgen“ den Menschen ob seiner Neugier interessierte, so waren seine Möglichkeiten, in die Zukunft zu schauen, eher begrenzt und beschränkten sich auf Horoskope und Wahrsagerei. Die „Zukunftsforschung“ ist neuesten Datums, konnte sich aber nicht etablieren, weil der „Zufall“ nicht berechenbar ist. Wikipedia definiert sie als die „systematische und kritische wissenschaftliche Untersuchung von Fragen möglicher zukünftiger Entwicklungen“, beschränkt auf den „technischen, wirtschaftlichen wie sozialen Bereich“. Der natürliche Bereich ist ausgeschlossen und dazu gehört zweifelsohne das Wetter. Es ist ein „Sorgenkind“, weil es sich jedweder exakten räumlichen wie zeitlichen Vorhersage entzieht und daher zu den „chaotischen Naturvorgängen“ zählt.

Die „Zukunftsforschung“ entstand im Jahr 1943 in den USA. Ihr Begründer war Ossip K. Flechtheim (1909-1998), der an Horkheimers Institut für Sozialforschung der Columbia University in New York arbeitete. Er konstruierte die „Futurologie“ als „Synthese aus Ideologie und Utopie“ und machte klar, dass kein Anspruch auf „Wissenschaftlichkeit“ erhoben wird. Dieses ehrliche Bekenntnis wurde jedoch bald Opfer politischer Hybris, die seit je „Allmachtsansprüche“ hegt und pflegt. Zum Hauptzweck wurde die Erarbeitung gesellschaftlicher wie politisch-spekulativer Trends und Zielprojektionen, um über beliebig konstruierte „Zukunftsentwürfe“ soziale Ängste wie Stimmungen erzeugen und manipulativ politisch instrumentalisieren zu können. Die Politik fand nur zu leicht willfährige Helfer in den Wissenschaften.

Von der Zukunftsforschung illegal in die „Klimaforschung“

Mit der „Futurologie“ befassten sich in Deutschland vornehmlich zwei Physiker. Wilhelm Fucks (1902-1990) beschäftigte sich unter anderem mit der zukünftigen Entwicklung der globalen Machtverhältnisse und schrieb 1965 sein berühmtes Buch „Formeln zur Macht“. Er leitete das „Institut für mathematisch-empirische Sozialforschung“ in Aachen. Karl Steinbuch (1917-2005) gilt als „Haupttheoretiker der informierten bzw. falsch programmierten Gesellschaft“. Seine Bücher waren 1966 „Die informierte Gesellschaft“, 1968 „Falsch programmiert“, 1973 „Kurskorrektur“. Von Steinbuch stammt der Satz: „Das menschliche Gehirn ist nicht geschaffen, rationale Prozesse zu veranstalten, sondern das Überleben des Organismus zu bewirken.“ Und was ist leichter, als eine heile Welt im „Klimagleichgewicht“ zu versprechen?

Die Beschäftigung mit der Zukunft erfordert eine strenge Unterscheidung zwischen tatsächlichem Wissen und Glaube, Abschätzung und Vermutung, Extrapolation und Spekulation. Schon Platon und Kant bemühten sich diesbezüglich um Differenzierung. Von Platon stammen das Liniengleichnis, das Sonnengleichnis und das Höhlengleichnis. Die Höhle versinnbildlicht die Welt. Sir Francis Bacon (1561-1626) verglich klug die Schattenbilder mit menschlichen Vorurteilen, mit irrigen Vorstellungen. Jeder Mensch habe seine eigene Höhle, die das Licht der Natur bricht und verdirbt. Das erinnert schon an die heutige „Neuropsychoanalyse“, die das „narrative Selbst“ erforscht und der Frage nachgeht, wie unbewusste neuropsychische Prozesse unser Denken, Fühlen und Handeln steuern. Man sucht nach „verborgenen Determinanten“, nach den unbewussten Prozessen, die außerhalb der willentlichen Kontrolle der Betroffenen ablaufen und unser Verhalten lenken. Wenn wir aufgrund der Hirnstruktur auch nicht selbst die unbewussten Vorgänge in uns kontrollieren können, so könnten wir mutig unseren Handlungsspielraum erweitern, indem wir uns von selbst auferlegten Denkverboten befreien. Und davon gibt es in der modernen Medienlandschaft eine Unmenge.

Jedes Verstehen setzt eine Konstruktion unseres Geistes dar und führt uns an unsere kognitive Leistungsfähigkeit bei dem Bemühen, Bedeutung und Sinn bei den ständigen Veränderungen durch äußere Einflüsse zu erfassen. Leichtfertig überlassen wir der Politik die „Konstruktion“ der Welt. Irgendwo ist jeder in Strukturen eingebunden nach dem Motto „Ich bin vernetzt, darum bin ich!“ So ein „Netz“ ist wie ein Spinnengewebe, dem nur mit ganz gewaltigen Anstrengungen zu entrinnen ist. Gelingt der Befreiungsakt, ist man sofort der Kälte sozialer Einsamkeit ausgesetzt als Strafe für nicht konformes Verhalten. „Querdenker“ droht der mediale Pranger. Der uns ständig beobachtende, uns verfolgende und über uns thronende „Zeitgeist“ ist sehr wachsam und unerbittlich. Er signalisiert uns, wenn wir im „Abseits“ stehen und pfeift uns öffentlich zurück.

Wie man eine Zukunft konstruiert und diese aus einer fiktiven Vorstellung in die reale Welt projiziert, erleben wir auf internationaler Ebene in der „Klimaforschung“, in der „Klimapolitik“ mit dem aussichtslosen Bemühen, das Klima zu schützen und damit den Klimawandel zu stoppen. Klimaexperten haben ein „mathematisches Objekt“ geschaffen, dessen Existenz erst durch seine Konstruktion begründet wird.  Die „Globaltemperatur“ ist solch ein „Objekt“. Sie ist eine abgeleitete abstrakte Größe, ein Konstrukt ohne Existenz. Das Wetter ist ein realer Naturvorgang. Dagegen ist „Klima“ nicht existent und wird nur durch seine Konstruktion begründet. „Klima“ wurde vom Menschen definiert und diese Definition kann jederzeit mehrheitlich verändert werden. „Klima“ ist Menschenwerk, so gesehen „menschengemacht“. Dies lernte man in der Schule im Fach Geographie bei der Besprechung der „Klimakarten“ in den Schulatlanten. Das „Azorenhoch“ im Juli wie das „Islandtief“ sind menschengemachte statistische Scheingebilde, die keinerlei Bewegung zeigen. Sie sind ortsfest im Gegensatz zu den ständig ziehenden und vergänglichen Hoch- und Tiefdruckgebieten. Die Klimakarten sind „Dauerkarten“ im Vergleich zu den sich täglich verändernden Wetterkarten.

Neben der realen Wetterwelt mit ihren Überraschungen und Fehlprognosen ist eine „Klimawelt“ konstruiert werden, deren Existenz mit Hilfe von Computermodellen und Simulationen nur vorgetäuscht wird, die aber dennoch auf der politisch-sozialen Ebene eine starke „Wirkmacht“ auf uns ausübt, so dass viele Menschen fest daran glauben, den „Klimawandel“ spüren, sogar sehen können und sich ängstigen. Ich gehöre nicht zu den begnadeten Wesen, die den Unterschied zwischen den „Globaltemperaturen“ von 14,85°C im Jahr 2015 und der von 14,84°C im Jahr 2014 am eigenen Leib spüren.

Das „Globalklima“ ist ein abstraktes Konstrukt aus Sonnen- und Höhlengleichnis

Mit seinem „Liniengleichnis“ zeigte Platon auf, wie wir über „Abbilder“, die sinnlich wahrnehmbaren Dinge und „mathematische Konstrukte“ zu unseren Ideen gelangen. Mit dem „Sonnengleichnis“ versuchte Platon, das Gute gleichnishaft zu veranschaulichen. So wie die Sonne im Bereich des Sichtbaren als Quelle allen Lebens die alles beherrschende Macht ist, so herrscht in der geistigen Welt das „Gute“ als Quelle von Wahrheit und Wissen. Im „Höhlengleichnis“ versinnbildlicht Platon die Welt als Höhle. Schattenbilder beherrschen unsere Vorstellungen, obgleich wir längst im Weltall Raumstationen und Satelliten positioniert haben, von denen wir die Erdkugel von außerhalb der „Höhle“ direkt im Lichtkegel der Sonne sehen können.

Exemplarisch für die blinde Rückständigkeit der weltbesten Klimaexperten, die in den als Schiedsgericht fungierenden Weltklimarat IPCC der UNO entsendet wurden, sei gezeigt, wie diese die Erde sehen. Wie von Platon beschrieben, sehen sie in der finsteren Höhle die Erde auf der Projektionsfläche als dunklen kreisrunden Schatten als Scheibe mit der Fläche πr2. Sie fehlinterpretieren diese Beobachtung und sagen, dass die Erde als „Querschnittsfläche“ von der Sonne beschienen werde. Niemand erhebt Widerspruch. Dann fällt den Experten ein, dass die Erde eine Kugel ist, deren Oberfläche der 4-fachen der Kreisfläche entspricht. Nun machen sie folgende simple mathematische Berechnung. Sie nehmen die „Solarkonstante“ von S = 1368 Watt/m2 und teilen diese durch 4. Damit verteilen die Experten die auf die Erdscheibe eingestrahlte Sonnenenergie rechnerisch gleichmäßig über die Erde und erhalten eine Bestrahlung der Erdkugel von S = 342 Watt/m2. So verschwindet die frei im Weltall ihre Bahnen ziehende Erde in der kalt gerechneten „hohlen“ Sonne, die wie eine Hülle um die Erde gewickelt ist. Wer hier nicht massiv Widerspruch erhebt und den Experten glaubt, ist ihnen ausgeliefert!

Die Erde ist ein Himmelskörper, der täglich um seine eigene Achse rotiert und sich jährlich um die Sonne dreht. Im Wechsel der Tageszeiten wie der Jahreszeiten wird die Erdoberfläche unterschiedlich bestrahlt und erwärmt. Alles Leben auf der Erde richtet sich danach. Wer die Erde in eine Hohlraumsonne steckt, nimmt die Wirklichkeit nicht wahr, lebt in einer irrealen „Umwelt“. Dem Zwang ihrer Logik folgend nehmen die Klimaexperten die Stefan-Boltzmann-Gleichung S = σ T4, um die Temperatur der Erde in Kelvin (°Celsius + 273) zu berechnen. T bestimmt S und umgekehrt. Diese Gleichung wurde für einen „idealen schwarzen Körper“ entwickelt. Der „schwarze Körper“, der zugleich optimaler Empfänger wie Sender von elektromagnetischer Strahlung ist, wurde 1860 von Gustav Kirchhoff (1824-1887) als „idealisierte thermische Strahlungsquelle“ definiert. Die Idealisierung besteht darin, dass solch ein „Körper“ alle auf ihn treffenden elektromagnetischen Strahlen aller Wellenlängen vollständig absorbiert, sich optimal erwärmt. Seine eigene Wärmestrahlung emittiert er auch vollständig, wobei sie nach Intensität und spektraler Verteilung nur von seiner absoluten Temperatur abhängt. Solch ein Körper erwärmt sich schneller als alle anderen Körper, kühlt sich aber auch schneller als die anderen ab.

Da es solch einen „idealen schwarzen Körper“ in der Natur nicht gibt, ebenso wie sein Gegenteil, einen „idealen weißen Körper“, konstruierte Josef Stefan (1835-1893) eine „Kiste“, die dem Konzept des „Schwarzkörperstrahlers“ am nächsten kommt. Er baute einen geschlossenen „Hohlraum“, dessen Wände beheizt und mit Reglern auf konstante Temperaturen eingestellt werden konnten. Sodann bohrte er ein kleines Loch in eine Wand des Hohlraums und maß die austretende Strahlung. Es zeigte sich, dass die Wellenlänge der Strahlung mit der Beheizung oder Abkühlung der Wände kürzer oder länger war. Stefan entwickelte daraus eine einfache „Gesetzmäßigkeit“, die von Ludwig Boltzmann (1844-1906) theoretisch bestätigt wurde. So erhielt die Gleichung zwei „Väter“, die Stefan-Boltzmann-Gleichung. Diese Gleichung beschreibt nur den Einfluss der Strahlung auf die Temperatur eines Körpers, sonst nichts! Sie besagt, dass mit Variation der Strahlung die absolute Temperatur des Körpers mit der 4. Potenz steigt oder fällt. Das erklärt, warum die rot glühende Herdplatte bei Abschalten des Stromes so schnell schwarz wird. Ebenso schnell, wegen die Temperatur mit der 4. Potenz in die Gleichung eingeht, kühlt die rot glühende Lava eines Vulkans ab, verfestigt sich und wird schwarz. Daher sinkt zum Abend die Temperatur erst rasch und mit der Abkühlung in der Nacht immer langsamer.

Indem die Klimaexperten die Stefan-Boltzmann-Gleichung S = σ T4 zur Berechnung einer theoretischen „Strahlungsgleichgewichtstemperatur“ zwischen Sonne und Erde nehmen, zeigen sie, dass sie nicht nur selbst in der „Höhle“ Platons stecken, sondern auch die Erde in einen „Hohlraum“ einsperren, deren Temperatur man einfach regeln kann. Doch dazu bedarf es keinerlei „Treibhausgase“, keines „Treibhauseffektes“. Der Mensch wird zum „Regler“ der Natur, denn die Temperatur reagiert auf die Strahlung und bestimmt die Strahlung. Bei der Berechnung der Körpertemperatur kommt keine Atmosphäre vor. Die Berechnung gilt nur für den Fall, dass alle Strahlung auch absorbiert wird. Das geht nur im „Hohlraum“! Trotzdem bauen die Experten in die Gleichung eine „Albedo“ von 0,3 ein und reduzieren die „Solarkonstante“ um 30 Prozent.. Sie ziehen also von den 342 Watt/m2 30 Prozent ab und erhalten einen Wert S = 240 Watt/m2. Diesen Wert geben sie in die Stefan-Boltzmann-Gleichung ein und erhalten für T einen Wert von 255 Kelvin oder -18° Celsius. Wer sich auf dieses Rechenspielchen einlässt, ist dem Zwang der „Logik“ der Klimaexperten verfallen.

Diesen Wert von -18° Celsius deklarieren die Klimaexperten zu der „Normaltemperatur“ der Erde. Diese Temperatur sei die „Strahlungsgleichgewichtstemperatur“ einer Erde ohne „Treibhausgase“. Bei optimaler Einstrahlung der Sonne hätte die Erde nur eine Temperatur von -18°C, sie wäre eine „Eiskugel“, auf der ein Leben nicht möglich wäre. Nun wird der „natürliche Treibhauseffekt“, den es in der Natur nicht gibt und nicht geben kann, erfunden. Der theoretischen Phantasietemperatur von -18°C stellen sie eine nicht minder theoretische „Globaltemperatur“ von +15°C entgegen und erklären die Differenz von 33°C zum „natürlichen Treibhauseffekt“. Er ist der Hauptfeiler der „Klimapolitik“ und mit ihm steht und fällt das ganze Kunstgebilde. Aber die „Lüge“ wird gut kaschiert mit der Behauptung, dass es „ihm“ zu verdanken sei, dass die Erde ein „grüner Planet“ ist und eine lebenstaugliche Temperatur von +15°C hat. Dies sei dem Kohlenstoffdioxid CO2 zu verdanken. Nein! Das CO2 hat nichts mit den variierenden Lufttemperaturen zu tun. Seine lebenswichtige Bedeutung steckt in der Fotosynthesegleichung. Ohne CO2 und auch ohne H2O und ohne Sonnenstrahlung (hv) gäbe es keine grünen Pflanzen, gäbe es keine Nahrung und keinen Sauerstoff für die Tiere wie uns Menschen. 

Bei einer gleichmäßigen Oberflächentemperatur von -18°C strahlt die Erde gemäß der Stefan-Boltzmann-Gleichung 240 W/m2 ab, bei +15°C sind es 390 W/m2. Wo kommen diese 150 W/m2 her? Die Erde muss nämlich mit 390 W/m2 bestrahlt werden, um eine Temperatur von 15°C zu haben. Da eine Selbsterwärmung eines Körpers nicht erklärt werden kann, erfinden die Experten eine „Gegenstrahlung“. Wer diese jedoch nachts bei klarem Himmel messen will, hat Pech. Ausgerechnet bei klarem Himmel, wenn die „Treibhausgase“ ungehindert die Erde erwärmen könnten, wird es kalt und kälter, bis am Morgen wieder die Sonne aufgeht und den Erdboden erwärmt. Auch hier wird die Natur auf den Kopf gestellt. Jeder Körper, ob warm oder kalt, strahlt ab einer Temperatur größer O Kelvin oder -273°C  Wärme ab, immer. Die Intensität steigt mit der 4. Potenz der absoluten Temperatur. Kein Körper kann sich mit der ihm eigenen inneren Energie erwärmen, selbst dann nicht, wenn die von ihm abgestrahlte Energie von den „Treibhausgasen“ zu 100 Prozent an ihn zurückgestrahlt würde. Für die Erde bedeutet dies: Sie muss von außen erwärmt werden, von der Sonne. Alles Leben beginnt mit dem „Es werde Licht!“ Das Leben auf der Erde verdankt seine Existenz der Strahlkraft der Sonne, keineswegs den „Treibhausgasen“. Sie bestimmt die Temperaturen und deswegen folgen auch die Zugvögel, die Schwalben und Störche, der Sonne. Während jetzt das „Leben“ auf der Nordhemisphäre zum Winter hin langsam „erstarrt“, blüht es zum Sommer auf der Südhemisphäre auf. Woher wissen die Störche, wann es bei uns Frühling wird und sie wieder zurückkommen können?

Die Behauptung der Existenz eines „natürlichen Treibhauseffektes“ von 33°C ist eine Schutzbehauptung. Schlimmer, sie ist ein Phantasieprodukt, der größte physikalische Schwindel der Neuzeit. Der „Treibhauseffekt“ ist ein Schwindel, der aus einer intellektuellen Notlage geboren wurde, in die man sich selbst als „Höhlenbewohner“ hinein manövriert hatte und aus dem Schattenwurf der Erde irrigerweise schloss, diese sei eine „Scheibe“. Wie eine Kugel bestrahlt wird, das kann jeder an einem Fußball mit Hilfe einer Taschenlampe  überprüfen oder anhand eines Satellitenfotos von der Erde aus dem Weltraum. Alle Satellitenfotos zeigen zwar auf eine Fläche projiziert einen Kreis, aber dieser überdeckt flächenmäßig 180 Grad des Erdumfangs ab, also die doppelte Kreisfläche, die Halbkugel 2πr2. Bei der 24-stündigen Rotation der Erde um sich selbst wird immer eine Erdhälfte von der Sonne beschienen. Am Äquator sind das 12 Stunden Tag und 12 Stunden Nacht. Die Erde ist nicht wie eine Tomate oder ein Apfel in der Mitte aufgeschnitten und hält ihre Querschnittsfläche der Sonne entgegen. Auf dieser primitiven Annahme beruht das ganze Konstrukt der Erde als „Treibhaus“.

Wenn man auf diesem Expertenniveau verharrt und nur mal die Korrektur macht, dass die Erde nicht als „Querschnittsfläche“ sondern als „Halbkugel“ bestrahlt wird, man also die „Solarkonstante“ durch 2 und nicht durch 4 teilt, dann erhält man 684 Watt/m2 und nach Abzug der Albedo von 0,3 einen Wert von 480 Watt/m2 statt 240 W/m2. Der Treibhauseffekt kehrt sich in einen Kühleffekt um und damit nähern wir uns dem, was Isaac Newton (1643-1727) bereits um 1666 experimentell gefunden hatte. Alle Körper kühlen sich ab. Die Geschwindigkeit hängt dabei von der Differenz zwischen der Körper- und seiner Umgebungstemperatur ab. Das „Newton’sche Abkühlungsgesetz“ wollen die Klimaexperten nicht kennen oder ignorieren es in der Hoffnung, dass es nicht auffällt. Newton formulierte sein Gesetz, lange bevor 1791 Pierre Prévost (1751-1839) zeigte, dass alle Körper Wärme ausstrahlen, egal ob warm oder kalt.

Mögen die Klimaexperten „Newton’s Abkühlungsgesetz“ unterschlagen, es leistet gute Dienste in der Gerichtsmedizin bei der Rückberechnung des Mordzeitpunktes anhand der Abkühlungsgeschwindigkeit von Leichen. Man benötigt die Umgebungstemperatur und zu zwei Zeiten die Leichentemperatur, um anhand des Abkühlungsgesetzes die Zeit zu berechnen, die vom Mord bis zur ersten Temperaturmessung verstrichen ist. Schauen Sie bei „Google“ nach unter „Alibi zur Mordzeit“!

Das Potsdam-Institut für Klimafolgenforschung und die Landwirtschaft!

Durch seine Pressemitteilungen gibt das PIK regelmäßig Einblicke in sein Innenleben wie seine Gedankenwelt. Am 24. August 2016 hieß es: „Landwirtschaft im Klimawandel: Freier Handel könnte ökonomische Verluste ausgleichen“. Die PM beginnt: „Rund um den Globus stellt der Klimawandel ein Risiko für die landwirtschaftliche Produktivität dar und könnte Nahrungsmittelpreise hochtreiben“. Dies zeige eine neue Studie, die nichts anderes sagt, was die Menschheit aus Erfahrung seit Urzeiten weiß. Doch dann wird es amüsant: „Die Landwirtschaft ist sehr anfällig für Klimaveränderungen – schon ein kleiner Anstieg der globalen Mitteltemperatur kann Konsequenzen haben für regionale Ernten“. Wie ist man bloß auf diese erleuchtende Eingebung gekommen? „Die Wissenschaftler kombinierten für ihre Studie 19 verschiedene Klimaprojektionen mit Simulationen zu landwirtschaftlichen Erträgen“.

Das hört sich äußerst beeindruckend an und strapaziert die kognitive Leistungsfähigkeit der meisten Menschen. Sie reagieren wie Tiere im Scheinwerferlicht und lassen sich durch eine vermutete Intelligenz blenden. Dabei ist es nichts als numerische Routine, das Spielen und Variieren von Computermodellen, die alles simulieren, nur nicht die Realität und das zukünftige Klima. Laut der von der Weltorganisation für Meteorologie international festgelegten Definition von Klima lassen sich Klimawerte nur lokal berechnen. Zugrunde gelegt werden die Wetterdaten von 30 Jahren. 30 Jahre muss man das Wetter ertragen, bevor man die Wettervergangenheit zu „Klima“ verarbeitet. Überall auf der Welt gibt es Wetter, extrem unterschiedliches Wetter, aber weder ein einheitliches „Globalwetter“ noch ein „Gobalklima“, von dem man ohnehin nur die „Globaltemperatur“ kennt.

Wie kommt das PIK zur Annahme, ein „kleiner Anstieg der globalen Mitteltemperatur“ hätte gravierende Konsequenzen „für regionale Ernten“. Lebt man dort nur noch in Modellwelten und sieht die Wirklichkeit nicht mehr? Jeder Gemüsebauer oder Landwirt könnte den PIK-Experten erklären, dass der Ertrag und die Qualität einer Ernte vom Wetter abhängen, wobei die Pflanzen die unterschiedlichsten Ansprüche an das ihnen optimale Wetter stellen. Etliche Faktoren wirken auf die Kulturpflanzen, nicht nur die Temperatur. Was nützen die angenehmsten Temperaturen, wenn es an Regen mangelt, es zu viel Regen gibt oder Hagel einen Weinberg entlaubt?

Den saisonalen landwirtschaftlichen Nutzpflanzen ist die globale Mitteltemperatur wie das „Globalklima“ völlig wurscht. Haben die PIK-Klimaexperten noch nie in einen Klimaatlas geschaut und festgestellt, dass es auf der Erde eine große Vielfalt sehr unterschiedlicher Klimata gibt. Selbst in einer Weinbauregion wie Rheinhessen ist nicht überall der Anbau von Wein klug und ratsam. Da empfiehlt sich ein genaues Studium der Topographie, der Inklination und Exposition einer Lage. Eine optimale Bestrahlung ist wichtig für hohe Oechsle-Grade. Das Wachstum von Pflanzen wird vom Wetter in der Zeit zwischen Saat und Ernte, der Vegetationsperiode, bestimmt. Diese beginnt für die Pflanzen der mittleren Breiten etwa März/April und endet etwa September/Oktober. Was interessieren die Rüben die Temperaturen im Winter? Wer die Wachstumsperiode verlängern und die Pflanzen vor Spätfrösten schützen will, betreibt Unterglasgartenbau, nutzt Gewächshäuser oder breitet im Frühjahr Folien über die Gemüsefelder aus. Salat, Kohl, Spargel, Sommergerste, Winterweizen, Kartoffeln, Zuckerrüben, alle Pflanzen haben spezielle Ansprüche, was den Wetterablauf während des Sommerhalbjahres betrifft. Es ist absoluter Unsinn, „klimabezogene Schäden“ durch eine Rechengröße wie die „Globaltemperatur“ herbei zu fantasieren. Nirgendwo auf dem weiten Erdenrund berechnen Pflanzen die „Globaltemperatur“, um ihr Wachstum danach auszurichten.

Das Potsdam-Institut für Klimafolgenforschung und die „Biodiversität“

Am 29. August 2016 überraschte das Potsdam-Institut mit der sensationellen Meldung „Amazonaswald: Biodiversität kann Klimarisiken mindern“. Es heißt: „Wald mit einer großen Vielfalt kann besser auf Klimastress reagieren. Erstmals konnten Forscher dies jetzt für das Amazonas-Gebiet in umfassenden Computer-Simulationen, die den Artenreichtum von Bäumen dort mit einberechnen, zeigen. Biodiversität kann demnach ein wirksames Mittel sein, Klimarisiken abzumildern, und sollte nicht im Naturschutzkontext betrachtet werden.“

Ich zitiere weiter: „Die Vielfalt der Eigenschaften all der verschiedenen Pflanzen in den Wäldern des Amazonas könnte diesem helfen, sich auf ein gewisses Maß von Klimaveränderung einzustellen – manche der vorherrschenden Bäume würden absterben und andere Arten würden ihren Platz einnehmen, die mit den zukünftigen klimatischen Bedingungen besser zurecht kommen.“ Und dann die „Erkenntnis“: „Biodiversität erweist sich hier als ein Muss, nicht als hübsches Beiwerk. Sie kann funktional sein für das langfristige Überleben der großen Biomasse-Reservoirs unserer Erde, zu denen auch die Wälder der Amazonas-Region gehören.“ Seit 1992 gibt es das PIK! Jetzt nach 25 Jahren entdeckt man plötzlich die „Biodiversität“ und legt ungewollt die Lunte an das „Globalklima“. Es ist dieser Befehl „think global“, der den Blick nicht nur auf die Wettervielfalt sondern auch auf die Schönheit und Vielfalt der Natur versperrt.

Es heißt dann weiter: „Nie zuvor ist dieses Kräftespiel so genau und umfassend in eine biogeochemische Simulation von Vegetation und Klimawandel eingebaut worden, dies ist ein wichtiger Schritt vorwärts für die noch bessere Modellierung des Erdsystems.“ „Wir haben hieran mehrere Jahre gearbeitet. Bekannt war, dass Biodiversität bedeutsam ist für die Produktivität eines Ökosystems und für das Speichern von Biomasse. Aber bislang konnte dies im großen Maßstab nicht quantitativ gezeigt werden. Wir freuen uns, dass wir hier auf der Grundlage früherer Forschung eine Lücke schließen können.“ Zum Schluss der Satz: „Trotz der ermutigenden Ergebnisse zum funktionalen Wert der Biodiversität bleibt der Regenwald des Amazonas leider einer der Brennpunkte unseres Planeten, der nach einer raschen Verringerung des CO2-Ausstoßes verlangt.“

Exakt dies verlangt der „Regenwald“ nicht, denn er weiß, dass für ihn das CO2 zum Leben und Wachstum unverzichtbar ist. Er braucht vor allem H2O, dann CO2 und eine ganzjährige Vegetationsperiode. Mögen sich die PIK-Wissenschaftler freuen ob ihrer Simulationskünste. Was sie der Welt an „Weisheiten“ propagieren, ist für die Natur eine Selbstverständlichkeit. Die Biodiversität hat die Natur praktiziert und perfektioniert, lange bevor der neunmalkluge Mensch sich Gedanken darüber machte, wie die Natur funktioniert und sich den unterschiedlichsten Wetterbedingungen auf der Erde optimal anpasst. Im Grunde ist es eine Frechheit, was das PIK mit dieser Studie propagiert. Die Natur braucht das PIK nicht, um zu wissen, wie sie sich optimal an die variierenden erdgeschichtlichen Randbedingungen anpasst. Die Vegetation Skandinaviens während der Eem-Warmzeit vor etwa 120 000 Jahren musste der Weichsel-Eiszeit gewichen, um   nach deren Ende vor etwa 12 000 Jahren sofort wieder zurückzukehren und auf dem Wege der natürlichen Sukzession eine Artenvielfalt ohnegleichen zu schaffen. Die Natur bedarf uns Menschen nicht dazu.

Die Biodiversität mit den unterschiedlichsten Ökosystemen ist eine Leistung der Natur und hängt ab von der Strahlung, den Niederschlägen und den Temperaturen, die wesentlich das Wetter bestimmen. Wer jedoch von der „einen Welt“ mit der „einen Temperatur“ und dem „einen Globalklima“ träumt, sieht diese Vielfalt und Schönheit nicht. Doch soweit ist man im PIK nicht. Wer behauptet, dass „Biodiversität Klimarisiken mindern kann“, sieht die Wahrheit nicht. Die „Biodiversität“, die Mannigfaltigkeit von Flora und Fauna ist eine aktive Anpassungsreaktion der Natur auf die Wettervielfalt, auf die wechselnden Wetterregime. Die „Biodiversität“ mindert die Wetterrisiken nicht und damit auch nicht die „Klimarisiken“!

Wann wird die so gerühmte „Qualitätsforschung“ des Potsdam-Instituts von neutraler Stelle einer Evaluation unterzogen? Der Ruf der „Wissenschaft“ insgesamt steht auf dem Spiel. Wie will das PIK die Zukunft vorhersagen, wenn es nicht einmal die Vergangenheit in ihren Abläufen begriffen hat und halbwegs logisch erklären kann?




Endlagerfinanzierung: Hop oder Top?

Mit der politischen Verschiebung der Endlagerplanung für Wärme entwickelnde hochradioaktive Abfälle auf den Sankt-Nimmerleins-Tag geriet schlagartig die Finanzierbarkeit der Endlagerkosten ins Blickfeld der Politiker. Solange die vom Bund betriebene Endlagerplanung Gorleben Bestand hatte, war die Finanzierung durch die Endlagervorausleistungsverordnung eindeutig geregelt und bis zum heutigen Tag allem Anschein nach auch gesichert. Die Kosten haben die Abfallverursacher zu tragen, die für  Planung und Errichtung eines Endlagers wie auch für die Stilllegung ihrer Kernkraftwerke bereits erhebliche finanzielle Rückstellungen gebildet haben. Die Endlagerkosten waren hinreichend kalkulierbar, die Zeitvorstellung bis zur Fertigstellung des Endlagers einigermaßen überschaubar, wenn durchaus auch mit Unwägbarkeiten verbunden. Sachlich fachlich war die Salzstockerkundung auf gutem Wege.

Mit dem am 1. Januar 2014 in Kraft getretenen Standortauswahlgesetz (StandAG) änderten sich die Aussichten auf die Realisierung eines Endlagers grundlegend. Die Erkundung des Salzstockes Gorleben wurde eingestellt, das Erkundungsbergwerk bleibt zwar bergmännisch auf unbestimmte Zeit erhalten, die Endlagerplanung Gorleben aber wurde in Gänze ad acta gelegt. Eine aussichtsreiche Realisierung eines Endlagers wurde allein zwecks Beendigung parteipolitischer Querelen um Gorleben aufgegeben. Das Gesetz fordert, mit der Standortsuche von Null an zu beginnen, bundesweit, ergebnisoffen, keine Vorauswahl des Endlagergesteins. Neben dem einst mit recht favorisierten Salzgestein sollen auch Ton und Kristallin (Granit) in die Untersuchung mit einbezogen werden. Die im Gesetz genannten Zeitpläne für Standortauswahl und Endlagererrichtung sind jedoch in hohem Maße unrealistisch. Um etliche Jahrzehnte wird sich die Bereitstellung des Endlagers gegenüber der ursprünglichen Planung verschieben. Für die Abfallverursacher fallen dadurch erhebliche zusätzliche Kosten für deutlich längere Zwischenlagerung der Abfälle und vor allem durch die neue Standortsuche und der Erkundung vermutlich sogar  mehrerer Standorte an. 

Im Jahr 2022 soll das letzte Kernkraftwerk in Deutschland vom Netz gehen. Erst etliche Jahrzehnte später soll – wenn überhaupt – ein Endlager zur Verfügung stehen. Da stellt sich zu Recht die Frage, ob unter dem Gesichtspunkt Unternehmensbestand oder -änderung oder gar Insolvenz die Abfallverursacher (überwiegend Kernkraftwerksbetreiber) in diesem unüberschaubar langen Zeitraum zur Kostenübernahme belangt werden können. Nach dem vollzogenen Ausstieg werden aus dem Betrieb von Kernkraftwerken jedenfalls keine finanziellen Rückstellungen mehr zu erwirtschaften sein. Vor diesem Hintergrund hat die Bundesregierung die Einsetzung einer „Kommission zur Überprüfung der  Finanzierung des Kernenergieausstiegs (KFK)“ beschlossen1. Im Einsetzungsbeschluss vom 14. Oktober 2015 heißt es: 

„Die Kommission soll im Auftrag der Bundesregierung prüfen, wie die Sicherstellung der Finanzierung von Stilllegung und Rückbau der Kernkraftwerke sowie Entsorgung der radioaktiven Abfälle so ausgestaltet werden kann, dass die Unternehmen auch langfristig wirtschaftlich in der Lage sind, ihre Verpflichtungen aus dem Atombereich zu erfüllen.“

„Es ist erklärtes Ziel der Bundesregierung, in Deutschland die Sicherheit des Restbetriebs der Kernkraftwerke, ihre Stilllegung und ihren Rückbau sowie die Zwischen- und Endlagerung der radioaktiven Abfälle in technischer wie in finanzieller Hinsicht auch langfristig zu gewährleisten. Dabei geht die Bundesregierung von dem Grundsatz aus, dass die Kosten von den Verursachern getragen werden.“ 

Auch ein kritischer Betrachter des Abschlussberichtes muss der Kommission eine sachgerechte und problembewusste Analyse der künftigen Finanzsituation der Entsorgungskosten bescheinigen. Im Ergebnis sieht sie die Notwendigkeit, „die finanzielle Sicherung der nuklearen Entsorgung vom wirtschaftlichen Schicksal der Betreiber langfristig zu entkoppeln.“ Nach Auffassung der Kommission soll daher „künftig derjenige die finanzielle Sicherungspflicht haben, der auch die Pflicht zur Handlung in der Kette der nuklearen Entsorgung hat. Soweit dieses nicht (mehr) die Verursacher sind, müssen die dafür notwendigen Mittel dem Staat zur Sicherung übertragen werden.“ 3

So plädiert die Kommission dafür, die Aufgabe der Zwischenlagerung nuklearer Abfälle einschließlich der dafür erforderlichen Mittel sowie die für Auswahl, Bau, Betrieb und Stilllegung der nuklearen Endlager erforderlichen Mittel dem Staat zu übertragen. Ferner soll der Staat künftig für die Transporte aus den Zwischenlagern in das entsprechende Endlager und im Falle der bestrahlten Brennelemente und Wiederaufarbeitungsabfälle für die ggf. notwendige Herstellung HAW-Endlager-gängiger Gebinde5 zuständig sein. Sie schlägt vor, die bisherigen Rückstellungen in Höhe von 17,2 Milliarden Euro unmittelbar – und bis spätestens zum Ende des Leistungsbetriebs 2022 einen Risikoaufschlag von rund 35 % auf den Barwert der übertragenen Rückstellungen in einen öffentlich-rechtlichen Fonds zu überführen. Gegen eine vollständige Einzahlung von demnach 23,3 Milliarden Euro würden die Risiken für Zwischen- und Endlagerung auf den Staat übergehen.

Stilllegung und Rückbau der Kernkraftwerke, die Verpackung von bestrahlten Brennelementen und radioaktiven Abfällen aus der Wiederaufarbeitung sowie die Verpackung von sonstigen radioaktiven Abfällen während des Rückbaus inklusiver ihrer Finanzsicherung verbleiben unverändert bei den Unternehmen. Dafür sollen ihnen nach Ansicht der Kommission Rückstellungen von 21,3 Milliarden belassen werden.

In ihrer zahlenmäßigen Empfehlung zur Finanzierung der Entsorgung stützt sich die Kommission maßgeblich auf Berechnungen der Wirtschaftsprüfungsgesellschaft Warth & Klein Grant Thorton2, die im Auftrag des Bundesministeriums für Wirtschaft und Energie (BMWi)  die zukünftigen nuklearen Entsorgungsverpflichtungen zu bewerten hatte. 

Interessanterweise erklärte das BMWi anlässlich der Veröffentlichung des Warth & Klein – Gutachtens unter anderem, dass die betroffenen Unternehmen die Kosten bei der Rückstellungsbildung (bislang) vollständig abgebildet und sich dabei an die einschlägigen Regeln gehalten hätten. Die Vermögenswerte der Unternehmen würden in Summe die Finanzierung des Rückbaus der Kernkraftwerke und der Entsorgung der radioaktiven Abfälle abdecken. Dies war in der Vergangenheit von Politikern nicht selten infrage gestellt worden. 

Die von den Kernkraftwerksbetreibern bis in 2014 gebildeten Rückstellungen für sämtliche ihrer Entsorgungsverpflichtungen betrugen 38,3 Milliarden Euro 3,4. Dazu heißt es im KFK –   Abschlussbericht: „Die Betreiber kalkulieren mit einer durchschnittlichen jährlichen Inflationsrate von 1,6 %. Nukleare Kostensteigerungen werden von den Betreibern mit jährlich zusätzlichen 1,97 % veranschlagt.  Unter diesen Annahmen werden die von den Betreibern zu tragenden Kosten auf 169,8 Milliarden Euro in den jeweils aktuellen Preisen bis zum Jahre 2099 (!) geschätzt. Wird dieser Betrag, mit einem Faktor von 4,58 % pro Jahr abgezinst, so ergibt sich der Rückstellungsbetrag von  38,3 Milliarden Euro.“ 

Die umfassenden Gesamtkosten beziffert die Kommission in Preisen von 2014 auf 48,8 Milliarden Euro. 

Der KFK – Abschlussbericht liegt dem BMWi zur Prüfung vor. Klärung der Rechtsform der Kommissionsvorschläge steht an. Diverse Änderungen am Atomgesetz und einschlägiger Verordnungen sind erforderlich. Die betroffenen Unternehmen haben bislang mit differenzierter Kritik reagiert. Die Zahlung diverser Risikozuschläge ginge über ihre wirtschaftliche Leistungsfähigkeit hinaus. 

Kommentar

Auf nahezu jeder Seite des KFK – Berichtes, zum Teil sogar mehrfach, findet sich der Begriff „Risiko“. Was nicht verwunderlich ist. Die Kommissionsvorschläge enthalten Konfliktstoff. Trotz noch so kompetenter Unterstützung durch hinzugezogene Fachleute können die Kostenangaben angesichts vieler Unwägbarkeiten insbesondere für einen Jahrzehnte – Zeitraum im Voraus nicht mit der im Grunde genommen erforderlichen Verlässlichkeit ermittelt werden, sondern sind vielmehr Ergebnis von Abwägungen und Einschätzungen. Kommt es zu dem öffentlich-rechtlichen Fonds, dann erhält der Staat zwar die auf dem Preisniveau 2014 kalkulierten Mittel, muss aber das Risiko unvorhersehbarer Kosten und außerordentlicher Kostensteigerungen tragen, die über den Fonds hinausgehen. Dass dies der Fall sein kann, ist keineswegs abwegig. Denn weder gibt es einen Endlagerstandort, die erneute Suche hat nicht einmal begonnen, zudem ist völlig offen, welches Endlagergestein Salz, Ton oder Granit infrage kommt und schon gar nicht kann es ein auf das Endlager ausgerichtetes Endlagerkonzept geben. Für die Endlagerung abgebrannter Brennelement mit einem bedeutenden Kernbrennstoffgehalt an Uran und Plutonium gibt es weltweit kein Vorbild. Hiermit wird Neuland beschritten. Ohne die Ernsthaftigkeit der Kommissionsbemühungen infrage zu stellen, ist es gleichwohl unmöglich, für die Zwischen- und Endlagerung auch nur annähernd realistische Kosten zu ermitteln, die zudem erst in 50 oder noch mehr Jahrzehnten anfallen werden. Auch drängt sich die Frage auf, ob jemals bei öffentlich-rechtlichen Bauvorhaben die Kostenkalkulation eingehalten wurde.

Natürlich sind auch Kosten weiterer Verzögerungen, wie sie bislang bei der Endlagerplanung Gorleben, man muss schon sagen, praktiziert wurden,  nicht mehr auf die Abfallverursacher abzuwälzen. Wer die Historie um den Standort Gorleben miterlebt hat und wer das inzwischen 34 Jahre dauernde Genehmigungsverfahren für das Endlager Konrad zur Aufnahme (nur) schwach –und mittelradioaktiver Abfälle verfolgt hat, dem fällt es nicht schwer, sich auszumalen wie viele Hindernisse einer erneuten Standortsuche und einem neuen, noch anspruchsvolleren Genehmigungsverfahren  mit Klagen, Bürgerprotesten und auch neuem politischen Unwillen im Wege stehen werden, die sich kostentreibend auswirken werden.

Einkalkulierte Verzinsungen der Mittel und angenommene Inflationsrate sind ebenfalls in dem in Betracht zu ziehenden Zeitraum mit erheblicher Unsicherheit behaftet. Im letzten Jahrhundert gab es immerhin zwei Geldentwertungen. Nun sind die damaligen politischen Verhältnisse nicht mit den heutigen zu vergleichen. Aber in 50 und mehr Jahren kann noch vieles geschehen, was heute undenkbar ist. 

23,2 Milliarden Euro auf der hohen Kante (Fonds) schaffen in Zeiten knapper Etatmittel politische Begehrlichkeiten. Beispiele, bei denen der Staat Kapitalbildungen zweckentfremdet eingesetzt hat, sind bekannt. Sollte es im Fall des Endlagerfonds wieder der Fall sein, ist letzten Endes der Steuerzahler der Dumme. 

Der KFK-Bericht weist nichts darüber aus, wie mit den bereits für die Salzstockerkundung in Gorleben von den Abfallverursachern gezahlten 1,6 Milliarden Euro verfahren wird, solange die Eignungshöffigkeit des Salzstockes zum Zweck der Endlagerung nicht widerlegt worden ist. Die Beendigung der Erkundung war ein ausschließlich politischer Akt, wofür nicht die Unternehmen belangt werden können. Die Aufwendungen für das Bergwerk steigen zudem weiter, da es in einem sicheren Zustand erhalten werden soll. 

Die von den Unternehmen gebildeten Rückstellungen liegen nicht auf der Bank. Sie stecken – was rechtlich zulässig ist – in Investitionen von Kraftwerksanlagen, Kabeltrassen, Gas-Rohrleitungen und dergleichen. Die Rückstellungen sind demzufolge nicht „von heute auf morgen“ verfügbar. Ihre Verfügbarkeit war auf das bisherige Entsorgungskonzept – Endlagerung im Salzstock Gorleben – zeitlich und kostenmäßig abgestimmt. Eine vorzeitige Kapitalisierung der Rückstellungen würde zu enormen Wirtschaftlichen und finanziellen Belastungen der Unternehmen führen und ihre ohnehin schon stark angeschlagene Konkurrenzfähigkeit und Wirtschaftlichkeit weiter gefährden. 

Die „Verpackung von Brennelementen“ bleibt in der Verantwortung der Unternehmen. Der Bericht sagt aber nichts darüber aus, welche Art von Verpackung gemeint ist. Vermutlich die Aufbewahrung der abgebrannten Brennelemente in den so genannten Transport- und Lagerbehältern wie zum Beispiel Castor-Behälter.

Eine Verpackung im Hinblick auf die spätere Endlagerung macht keinen Sinn, weil die Voraussetzungen dafür nicht bekannt sind. Diese läge dann aber auch, wie von der Kommission vorgeschlagen, in der Verantwortung des Staates. In diesem Zusammenhang sei angemerkt: Bereits vor etlichen Jahren wurde im Rahmen der Endlagerplanung Gorleben die Umladetechnik der Brennelemente in Polluxbehälter entwickelt. Die hierfür vorgesehene so genannte Pilot-Konditionierungsanlage steht („eingemottet“) in Gorleben, in unmittelbarer Nähe des einstmals vorgesehenen Endlagers. Gegenwärtig ist völlig offen, welche endlagerbezogene Verpackung zum Einsatz kommt. Eine direkte Endlagerung der Brennelemente in Castorbehältern ist auszuschließen. Auch hier steht dem Staat unternehmerische Nukleartätigkeit bevor. 

In den abgebrannten (ausgedienten) Brennelementen sind von dem ursprünglich eingesetzten Kernbrennstoff noch rund 95 % Mengenanteile an wieder verwendbarem Uran und etwa 1 % Plutonium vorhanden, das während der Einsatzzeit der Brennelemente im Reaktor aus Uran-238 gebildet („erbrütet“) worden ist. Der Energieinhalt der rezyklierbaren Kernbrennstoffe, die in 35 Tonnen Schwermetall abgebrannter Brennelemente enthalten sind, entspricht etwa dem von 1 Million Tonnen Steinkohle. Dies war auch der Grund, abgebrannte Brennelemente der Wiederaufarbeitung zuzuführen, bis ihr Transport zu den Wiederaufarbeitungsanlagen in Frankreich und Großbritannien im Jahre 2001 atomrechtlich untersagt worden ist. Im Entsorgungsprogramm der Bundesregierung aus dem Jahr 2015 wird davon ausgegangen, dass bis zur Beendigung des Kernkraftwerksbetriebes in 2022 insgesamt etwa 10.500 Tonnen Schwermetall in Form abgebrannter Brennelemente aus den Leistungsreaktoren anfallen, die endgelagert werden müssen. Rein rechnerisch der Energieinhalt von 300 Millionen Tonnen Steinkohle!

Wer will heute im Jahre 2016 mit Sicherheit behaupten, dass dieses Energiepotential an abgebrannten Brennelementen in 2050 plus X Jahrzehnte tatsächlich vergraben wird? Oder wird vielleicht (und hoffentlich) inzwischen eine (Politiker-)Generation heranwachsen, die für die Endlagerung der Brennelemente überhaupt kein Verständnis aufbringt, weil man um jede Energiequelle verlegen ist?  

Oder, wer will ausschließen, dass in dieser Zeit die Entwicklung der Transmutation bereits so weit fortgeschritten ist, um die Kernbrennstoffe und Transurane in den Brennelementen in deutlich weniger langlebige Elemente zu überführen und somit das Gefährdungspotential an radioaktiven Stoffen in den abgebrannten Brennelementen drastisch zu verringern? 

Oder, wer will ausschließen, dass sich eine viel spätere Bundesregierung einem Export der abgebrannten Brennelemente öffnet, weil eine schadlose Verwertung beim Empfängerstaat  sicher nachgewiesen werden kann? 

Die Entwicklung der Kernenergie und deren Anwendung schreiten weltweit unaufhörlich voran, selbst in Staaten, in denen man es bislang nicht vermutet hat. Dabei werden sich Entwicklungen ergeben und neue Wege sich einstellen, von denen man heute noch nichts ahnt. Wenn dem aber so ist, wird man auch über die Endlagerung in der zweiten Hälfte dieses Jahrhunderts zu anderen Beschlüssen kommen. Diese Überlegungen sprechen nicht gegen die Endlagerung, denn die wird für die Wärme entwickelnden verglasten Abfälle aus der Wiederaufarbeitung, die auch in Castor-Behälter aufbewahrt und zwischengelagert werden, unumgänglich sein. Aber konzeptionell werden sich in den folgenden Jahrzehnten noch andere Varianten und Überlegungen einstellen, als jene, von denen man heute ausgeht. 

Um es nochmals deutlich zu sagen: Die von der Kommission angestellten Überlegungen erstrecken sich über eine Zeitspanne bis ans Ende dieses Jahrhunderts. Ursächlich dafür ist das Standortauswahlgesetz. Dieses Gesetz aber wird Politikern noch über viele Parlamentsperioden hinweg reichlich Gelegenheit geben, eine nach ihrer Meinung geeignetere Lösung der Endlagerfrage anzustreben, aber auch Kritikern das zwischenzeitlich Erreichte wieder in Frage zu stellen und zu attackieren. Mit dem Gesetz kommt man, gewollt oder nicht, dem Ausstieg aus der untertägigen Endlagerung näher.

1. www.bmwi.de/DE/Presse/pressemitteilungen,did=764862.html.  Quelle auch des Abschlussberichtes der Kommission vom 27. April 2016 

2. Warth & Klein Grant Thornton AG Wirtschaftsprüfungsgesellschaft, Gutachtliche

Stellungnahme zur Bewertung der Rückstellungen im Kernenergiebereich,

09.10.2015

3. Abschlussbericht der KFK „Verantwortung und Sicherheit – Ein neuer Entsorgungskonsens, 27.04.2016 Hier

4. Klaus Tägder „Wer trägt die Kosten der nuklearen Entsorgung?“ , 21.10.2015

www.ageu-die-realisten.com/archives/category/endlagerung

5. HAW steht für „high active waste“. Gemeint ist das Endlager für Wärme entwickelnde, also hochradioaktive Abfälle.




Hat die barbusige Dame um 1830 gegen den Klimawandel gekämpft? Eine ganz aktuelle Studie legt es nahe

Nun erscheint es sehr gewagt, deshalb das Bild der damaligen Julirevolution so umzudeuten. Aber nicht weniger gewagt – doch ein Beispiel, dass für Fördergeld jedes gewünschte Ergebnis möglich wird – ist, was die Studie angeblich herausgefunden hat.

Bild rechts: Eugène Delacroix: Die Freiheit führt das Volk (1830). Quelle: WIKIPEDIA: Julirevolution von 1830

Freie Universität Berlin Nr. 283/2016 vom 24.08.2016: Der Klimawandel begann schon vor 180 Jahren

Industrielle Revolution trug bereits spürbar zur Erderwärmung bei, zeigt eine Studie
Der Klimawandel hat schon vor 180 Jahren begonnen und somit viel früher als bisher vermutet. Das fand jetzt ein internationales Forscherteam heraus. Um den frühesten Zeitpunkt der Erderwärmung festzustellen, untersuchten die Wissenschaftlerinnen und Wissenschaftler auf der nördlichen und der südlichen Erdhalbkugel sowohl zu Land als auch in den Ozeanen sogenannte natürliche Klimaarchive der vergangenen 500 Jahre, also tropische Korallen, Sedimentkerne, Stalagmiten, Baumringe und Eiskerne. Darüber hinaus analysierten sie Modelle über die Klimaentwicklung von mehreren Tausend Jahren. „Die Untersuchungen zeigen, dass schon die frühe Erderwärmung in Zusammenhang mit der steigenden Konzentration von Treibhausgasen als Folge der industriellen Revolution steht“, sagt Dr. Jens Zinke, Paläontologe an der Freien Universität Berlin und Ko-Autor der Studie, die in der Fachzeitschrift Nature erschienen ist.
Die Untersuchung zeigt, dass die Erwärmung in den 1830er Jahren zuerst in der Arktis und in den tropischen Ozeanen begann, gefolgt von Europa, Asien und Nord-Amerika. Die Erwärmung großer Teile der Südhemisphäre erfolgte scheinbar erst bis zu 50 Jahre später. Die Ursachen dafür könnten nach Einschätzung der Wissenschaftler in den regional sehr unterschiedlichen Ozeanströmungen liegen: Die warmen Wassermassen werden auf natürliche Weise nach Norden abtransportiert und damit weg von der Antarktis. Für genauere Aussagen, etwa zur Erwärmung der Antarktis, sei die Datenlage jedoch noch zu unsicher.

Die Studie [5] will also herausgefunden haben:

Dass der Klimawandel bereits um 1830 begann, weil
-bereits kleinste Änderungen des CO2-Gehaltes (hier +15 ppm
[6]) signifikante, nachweisbare Auswirkungen auf die Temperatur hätten.

Bild 1 CO2 Emission durch menschlichen Einfluss (Bild vom Autor ergänzt). Quelle http://joannenova.com.au/page/2/

Daten: Das Forcing von 1 ppm beträgt 0,0075 °C [7] (mit dem hohen IPCC-Forcing). 15 ppm erhöhen die Temperatur somit um 0,1125 °C, realistisch ca. 66 … 33 % davon, also 0,04 … 0,08 °C. Die Forcing-Temperaturdifferenz beträgt damit weniger, als eine sorgfältig geeichte elektronische Temperatur-Messstation mit einem Messfehler von +-0,2  °C überhaupt detektieren kann. Und diese Änderung welche man heute mit modernsten Messmethoden nicht signifikant ermitteln kann, will man für die Jahre um 1830 rückwirkend weltweit detektiert haben.

Natürlich wäre damit auch ein Problem behoben, welches sich zeigt wenn man versucht, durch Googeln den Beginn dieser möglichen Katastrophe zu finden. Eine bisher weit verteilte Zeitspanne ließe sich nun fast das Jahr genau definieren.

WIKIPEDIA: Als globale Erwärmung bezeichnet man den Anstieg der Durchschnittstemperatur der erdnahen Atmosphäre und der Meere seit der Industrialisierung in den letzten 50 bis 150 Jahren.

Aus dem bisherigen Text lässt sich schon herauslesen, was der Autor von dieser Studie hält: Nichts, außer dem Beleg, wie weit sich die Klimawissenschaft weltweit (es war ein internationales Forscherteam beteiligt) von jeglicher Seriosität entfernt hat.

Und damit ist er nicht alleine:
WUWT: New climate reconstruction study claims humans have been causing warming since the onset of the Industrial Revolution  From the ignoring natural variation with confirmation bias department
A new paper published in
Nature purports to find a connection between mid-nineteenth century warming and the beginning of the industrial revolution. And, since no correlation is too small to be a causation, this is now enough proof that man has been causing warming for as long as we can remember!
Interestingly enough, the reconstructions used show a connection between tropical oceanic warming and northern hemisphere continental warming…but not a “synchronous” warming trend in the southern hemisphere. According to the abstract, this is problematic for the researchers, since, you guessed it, the model simulations don’t match. The conclusion? Instrument records must be inadequate.
In fairness, it’s probably an accurate statement to suggest that nineteenth century instrument records are insufficient to tease out an anthropogenic signal from the noise of natural variability, especially in the southern hemisphere. What’s instructive about the conclusion, though, is the forthright admission of bias towards believing the models over instrument records.

Und auch JoNova: Experts “surprised” to discover what skeptics have known for years: world has been warming for 200 years

Anbei die Begründung (die nicht von der bei WUWT abweicht, sondern lediglich ergänzt und plausibilisiert):

Leider kostet die Studie wieder Geld, aber an die wichtigsten Daten kommt man über das Summary und einige Publizierungen.
Die Studie auf NATURE: [5] Early onset of industrial-era warming across the oceans and continents

Zuerst die Darstellung, wie der Verlauf der Globaltemperatur von Deutschland aussieht (Bild 2).

In diesem hoch-technologisierten Land verweilen die 30-Jahresmittel über einen Zeitraum von 1779 – 1924, also 145 Jahre in einem Toleranzband, welches mit 95 % Signifikanz keinen Unterschied belegen lässt. Von 1812 – 1872, also über 60 Jahre ist überhaupt kein Unterschied feststellbar, da die Mittelwertkurve den 1830er Wert schneidet.

 

Bild 2 Globaltemperatur Deutschland (DWD-Daten)

Trotzdem behauptet die Studie, es wäre gelungen für die Welt-Globaltemperatur! den Jahreszeitpunkt zu bestimmen. Begründung: Die damaligen Thermometermesswerte sind zu ungenau, deshalb gelang es mit Proxis.

Wie Proxiverläufe aussehen und wie problematisch sie zu werten sind, wurde in zwei Artikel bereits gezeigt:
-[3] Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
-[2] Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell

Das Ergebnis dieser Rekonstruktionen war die damit wissenschaftlich fundierte Erkenntnis (für den Autor), dass Proxis so katastrophal ungenau sind, dass sich damit nichts zum aktuellen Klimawandel mit ausreichender Genauigkeit belegen lässt.

Die Darstellung des Temperatuverlaufs der Nordhemisphere im letzten IPCC-Bericht AR5 zeigt Bild 3. Daraus bitte versuchen, die Temperatur um das Jahr 1800 … 1900 so genau zu bestimmen, dass das Jahr des Klimawandel-Beginns genannt werden kann. Wem das gelingt, Gratulation.

 

Bild 3 Temperaturverläufe verschiedener Rekonstruktionen der Nordhemisphäre. Quelle: IPCC AR4 2007: Figure 1

An der neuen Studie mit den ganz genauen Proxis hat das PAGES 2K-Team mit-gearbeitet. Proxikurven des PAGES 2K-Projektes sehen beispielhaft wie folgt aus (alle Proxis Nordamerika in einem Bild):

Bild 4 Alle Proxis Arctic NAmericaTR des Projekt PAGES 2k Datensatzes. Quelle: Active viewer for the Pages 2K Proxis

Man versuche daraus zu ermitteln, in welchem Jahr des 19.Jahrhunderts der Klimawandel genau begonnen hat. Zur Erinnerung, dabei handelt es sich um die neuesten und besten Proxis!

Wenn viele Proxis ungenau sind, muss man nur die genauen nehmen. Dass das nicht gelingen kann, wurde in:
[3]Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k bereits gezeigt. Man weiss einfach nicht, welche Proxis genau und welche ungenau sind. Zudem muss man jedem Proxi erst kalibrieren. Dazu benötigt man aber einen genauen Kalibrierwert. Und wenn schon die Thermometerdaten zu ungenau sein sollen, wie soll es dann möglich sein, genauere Daten zu bekommen?
Trotzdem behauptet die Studie, dass dies möglich wäre. Bild 5 zeigt Proxi-Rekonstruktionen daraus, aus denen man das Jahr 1830 als „Startjahr“ ermittelt hat.

Bild 5 [5] Temperaturproxis aus der Studie

Die Lösung des Proxiproblems  soll sein, Simulationen zu verwenden und damit die nicht genau genug bekannten Temperaturen rückwirkend zu berechnen. Weshalb dies gelingen sollte, wo man zum Kalibrieren der Simulationen erst einmal genaue Temperaturen benötigt (die man aber nicht hat) und die Simulationen in allen (dem Autor bekannten) Darstellungen nicht einmal die aktuellen Temperaturen simulieren können:

EIKE 07.02.2016: [4] Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

… ist nicht nur dem Autor ein Rätsel:
kaltesonne 7. Oktober 2014: Stimmungsumschwung in Sachen Klimamodelle: Das Vertrauen der Fachwelt schwindet

Fazit

Warum erscheint eine solche, aller wissenschaftlichen Seriosität widersprechende Studie? Der Autor hat eine Vermutung (also eine persönliche, durch nichts belegbare These). Publiziert wurde mit der Studie die Information:
[8] … Das Klima reagiere somit schon auf sehr geringe Mengen an Treibhausgasen, folgern sie im Fachjournal "Nature".

Im Klartext heißt die Botschaft: Alles mit dem CO2 ist noch viel, viel schlimmer, als bisher angenommen!

Diese „Erkenntnis“, erscheint genau zu dem Zeitpunkt, an dem die Politik die Unterschriften zum Klimavertrag rechtfertigen muss. Das wird kein Zufall sein.

Ergänzend kommt eventuell auch noch dazu, dass das PAGES 2K-Projekt für die Auftraggeber das falsche Ergebnis abgeliefert hat. Nachdem die Daten dieses Projektes für jeden einsehbar sind, ist offensichtlich geworden, dass die Temperaturrekonstruktion von M. E. Mann und anderen nicht haltbar sind, die Temperaturverläufe auf jeden Fall anders verliefen und genaue Rekonstruktionen mit der erforderlichen Genauigkeit anhand von Proxis nicht möglich werden (wie am Anfang schon dargestellt).
Aufgabe war aber, die M.E. Mann „Hockeystickkurve“ zu betätigen. Vielleicht haben die Geldgeber nun dem Forscherteam eine „Last Order“ gestellt: Bringt endlich ein politisch verwertbares Ergebnis zustande, oder es wird der Geldhahn zugedreht.

Wie das IPCC die vergangenen Temperaturverläufe rekonstruiert hat, zeigt Bild 6. Darin sieht man deutlich, dass der Klimawandel lange vor 1830, nämlich irgendwo zwischen 1450 … 1650 begonnen hat [3][2]. Das durfte die Studie aber sicher nicht untersuchen.

 

Bild 6[1] Historischer Klimaverlauf. Quelle: AR5 von 2013, Figure 5.7 (Bildausschnitt), vom Autor ergänzt

Quellen

[1]

IPCC AR5 WG1, 2013. Climate Change 2013, The Physical Science Basis

[2]
EIKE 26.03.2016: Rekonstruierte Temperaturverläufe der vergangenen zwei Jahrtausende. Eine Literatursichtung von 1990 bis ganz aktuell
http://www.eike-klima-energie.eu/news-cache/rekonstruierte-temperaturverlaeufe-der-vergangenen-zwei-jahrtausende-eine-literatursichtung-von-1990-bis-ganz-aktuell/

[3]
EIKE 11.05.2016: Die Problematik der Temperaturrekonstruktion Eine beispielhafte Sichtung dazu anhand des Projektes PAGES 2k
http://www.eike-klima-energie.eu/news-cache/die-problematik-der-temperaturrekonstruktion-eine-beispielhafte-sichtung-dazu-anhand-des-projektes-pages-2k/

[4]
EIKE 07.02.2016: Der Himmel fällt uns auf den Kopf und ohne die Glaskugel im Computer würden wir es nie erfahren

Rezension: UBA Studie 24/2015 Die Vulnerabilität Deutschlands gegenüber dem Klimawandel
http://www.eike-klima-energie.eu/news-cache/der-himmel-faellt-uns-auf-den-kopf-und-ohne-die-glaskugel-im-computer-wuerden-wir-es-nie-erfahren/

[5]
NATURE 25.August 2016: Early onset of industrial-era warming across the oceans and continents
http://www.nature.com/nature/journal/v536/n7617/full/nature19082.html#t

[6]
Australian National University: HUMANS HAVE CAUSED CLIMATE CHANGE FOR 180 YEARS Frequently asked questions

[7]
EIKE 11.06.2015: Mit CO2-Reduzierung retten wir die Welt – Einige Rechenspiele (nicht nur) für regnerische Nachmittage

http://www.eike-klima-energie.eu/klima-anzeige/mit-co2-reduzierung-retten-wir-die-welt-einige-rechenspiele-nicht-nur-fuer-regnerische-nachmittage/

[8]
Hamburger Abendblatt 25.08.2016: Studie: Klimawandel begann früher
http://www.abendblatt.de/ratgeber/wissen/article208123675/Studie-Klimawandel




Klimawandel oder heisse Luft?

Unser Klima gehorcht einem hochkomplexen, von der Natur vorgezeichneten Wirkungssystem. Antriebsmotor dieses Klimasystems ist die Sonne. Ein so kompliziertes Gefüge kann nicht statisch sein. Es unterliegt permanent natürlichen Schwankungen. Neuerdings besteht jedoch der begründete Verdacht, dass auch der Mensch ein Störfaktor im Klimasystem ist, indem er Treibhausgase wie CO2 in die Atmosphäre entlässt und so das natürliche Strahlungsgleichgewicht verschiebt. Die Heizwirkung der Sonne nimmt zu. Ab diesem Punkt scheiden sich die wissenschaftlichen Geister tiefgründig und unversöhnlich.

Der selbsternannte Klimarealist glaubt zu wissen, dass anthropogenes CO2 das Klima zum Kippen bringt. Es führt unweigerlich und gnadenlos zur Klimakatastrophe. Die als Klimaskeptiker abgetanen Gegner dieser Auffassung behaupten dagegen, dass CO2 nur ein marginaler Antrieb des Klimawandels ist. Eventuell auch gar keiner, denn sein Signal lässt sich nciht in den Messwerten finden. Die ohnehin geringfügige aktuelle Klimaerwärmung sei zum überwiegenden Teil auf natürliche Ursachen zurückzuführen.

Der besorgte Klimalaie wird dabei jedoch vollkommen allein gelassen. Das vorliegende Buch unternimmt deshalb den schwierigen Versuch, durch Vermittlung von allgemein verständlichem fachlichem Klimawissen die Nebelschwaden aus Dichtung und Wahrheit kompromisslos zu lüften. Es gibt klares Rüstzeug an die Hand, wie unqualifiziertes Klimageschwätz schonungslos entlarvt werden kann. Dem Leser eröffnet es auf diese Weise eine völlig neue klimatologische Blickrichtung und Orientierung. Klimaangst wird nahtlos und systematisch in fundiertes Wissen überführt.

zu bestellen z.B. hier