Klimaerwärmung durch Kohlendioxid?

Im weiteren Verlauf des Textes lautet es: „Erstmals sehen wir in der Natur die Verstärkung des Treibhauseffektes“ und im Hamburger Max-Plank-Institut für Meteorologie wird noch jubelnd hinzugefügt, dass jetzt endlich auch die Größenordnung des anthropogenen Einflusses sichtbar geworden ist.

Das Ganze geht alles auf neueste Rückstrahlungsmessungen zurück, die kürzlich in einem Aufsatz der Zeitschrift „Nature“ (Details dazu hier und hierveröffentlicht worden sind. Aber hat denn überhaupt keiner der Interpreten gemerkt, dass durch diese Messungen genau das Gegenteil des oben Gesagten bewiesen wurde, nämlich nichts anderes als das, was seriöse Klimakritiker immer schon über den anthropogenen Treibhauseffekt ausgesagt haben.

Die von „Nature“  bekanntgegebene Zahl für die CO2-bedingte Zunahme der Rückstrahlung  von 0,2 Watt/m2 pro Jahrzehnt ist  doch in Wirklichkeit nicht mehr als eine Lappalie. Wie soll sich davor eigentlich die Erde erschrecken, wenn auf den umlaufenden Äquatorboden zur Mittagszeit ständig 1367 Watt pro Quadratmeter niederprasseln. Die wechselnden Abweichungen von diesem als „Solarkonstante“ bezeichneten Mittelwert sind sogar deutlich größer als die o.g. 0,2 Watt/m2.

Laut dem sog. Weltklimarat IPCC beträgt die Rückstrahlungszunahme im Falle einer Verdoppelung des CO2-Gehalts genau 3,7 Watt/m2, was inzwischen durch neutrale Gegenprüfung mehrfach bestätigt wurde. Im letzten Jahrzehnt hat sich der CO2-Gehalt der Atmosphäre um ca. 20 ppm erhöht (Millionstel Volumenanteile). Z.Z. liegt er bei 400 ppm. Hieraus kann schon jeder Oberschüler ermitteln, dass sich daraus ein Rückstrahlungszuwachs  von ca. 0,2 Watt/m2 ergibt, was durch die o.g. Messungen nur noch nachtäglich bestätigt wird.

Auch die dadurch bedingte globale Temperaturerhöhung kann recht genau mit einer auch vom IPCC benutzten Formel errechnet werden, die sich aus dem Strahlungsgesetz von Stefan-Boltzmann widerspruchsfrei ableiten lässt.

dT = mittlere Globaltemperatur x Rückstrahlungszuwachs / mittlere Erdabstrahlung x 4

dT = 288 K x 0,2 Watt/m2 : 240 Watt/m2 x 4 = 0,06 K = 0,06°C

In „Nature“ ist ausdrücklich vermerkt, dass die gemessene Differenz der Rückstrahlung von 0,2 Watt/m2 sich nur auf wolkenfreie Zonen der Erde bezieht. Bei 40% durchschnittlicher Wolkenbedeckung und einer 30%-igen Überlappung des CO2-Absorptionsspektrums durch den allgegenwärtigen Wasserdampf ist der oben errechnete Temperaturwert daher noch von 0,06°C auf 0,03°C zu reduzieren. Es handelt sich hier also in Wirklichkeit um einen kaum messbaren Effekt, der auch zusammen mit einer fiktiven Wasserdampfrückkoppelung nichts Dramatisches bewirken kann, womit die immer schon überflüssig gewesene Energiewende endgültig ad absurdum geführt ist. Dass der Focus alle oben beschriebenen Fehlinterpretationen völlig unkritisch weitergegeben hat, ist mehr als bedauernswert und sollte daher dringend einer Korrektur unterzogen werden.    

Dr. rer.nat. Siegfried Dittrich  




Europa fährt Subventionen für Grüne Energie zurück

Das bulgarische Parlament hat Vorzugspreise für neue Anlagen zur Erzeugung erneuerbarer Energie gestrichen, kämpft doch das Land gegen Defizite im Energiesektor. Außerdem will man den Rechnungen für die Verbraucher einen Deckel aufdrücken. Die hohen Energiepreise haben zu so starken Protesten geführt, dass die Regierung im Februar 2013 aus dem Amt gefegt worden ist.

Wind- und Photovoltaik-Parks sind im Jahre 2011 wie Pilze aus dem Boden geschossen, nachdem Bulgarien großzügige Subventionen für erneuerbare Energie eingeführt hatte, garantiert für 20 Jahre und mit der Verpflichtung, dass alle damit erzeugte Energie auch abgenommen werden muss. Aber die Anreize lagen schwer auf den Energiekosten des ärmsten Landes in der Europäischen Union, welches sein Ziel eines Anteils von 16% der erneuerbaren Energie bereits im Jahre 2013 erreicht hatte.

Die gewährten Anreize bleiben nur für bereits in Betrieb befindliche Wind- und Solarkraftwerke in Kraft.

Die Überarbeitungen des Energiegesetzes, vom Parlament abgesegnet, enthielten auch den Umstand, dass der Versorger für öffentliche Energie NEK nicht verpflichtet sein wird, Energie zu Vorzugspreisen zu kaufen von Heizkraftwerken, die ihre Energieeffizienz nicht nachweisen können.

Der Boom erneuerbarer Energie, Anreize für parallel Energie erzeugende Kraftwerke und hohe Kosten der langfristigen Energieabnahme-Verpflichtungen haben das Defizit von NEK auf 3,3 Milliarden Levs (1,65 Milliarden Euro) in die Höhe schnellen lassen. Dies ließ das Energieministerium verlauten.

Full story

Italien streicht rückwirkend Solar-Subventionen

Die European Photovoltaik Industry Association EPIA hat vor einigen Tagen ein Statement mit der Warnung veröffentlicht, dass neue, vom italienischen Senat im vorigen Monat genehmigte Gesetze einst garantierte Solar-Einspeisetarife (FiT) streichen. Dies wird nicht nur die PV-Industrie des Landes treffen, sondern auch das Image von Europa als einer Region, in der sich Investitionen rechnen.

Das Gesetzesdekret von Italien, übernommen am 7. August, führt signifikante rückwirkende FiT-Streichungen ein sowie neue Steuern für selbst verbrauchten Strom. Die Gesetzgebung wird rückwirkend die Art und Weise modifizieren, mit der FiTs vom 1. Januar an für bestehende PV-Installationen gezahlt werden. Besitzer von PV-Systemen, denen man unter dem Conto-Energia-Mechanismus 20 Jahre lang FiTs garantiert hatte, werden sich jetzt entscheiden müssen zwischen drei Optionen, die zu einer Beschneidung von zuvor garantierten Raten führen.

Investoren in Grüne Energie erleiden massive Verluste und klagen erneut dagegen

Der Solar-, Wasserkraft- und Windsektor erfuhr einen gewaltigen Boom, nachdem viele europäische Länder wohlwollende Einspeisetarife (FiTs) eingeführt hatten, die den Erzeugern erneuerbarer Energie über dem Marktniveau liegende Preise garantierten und Verbrauchern Subventionen zur Verfügung stellten, die Einrichtungen für erneuerbare Energie in ihren Häusern installierten. Diese Anreize wurden großzügig gewährt, um den Ländern zu helfen, ihre EU-Ziele bzgl. erneuerbarer Energie zu erreichen. Mit großzügigen und langfristigen, von Regierungen versprochenen FiTs flossen die Investitionen reichlich. Allerdings war der Bedarf erheblich unterschätzt worden, was zu einer substantiellen Verteuerung der Energiepreise für die Verbraucher führte, als die FiT-Kosten durchgereicht wurden. Außerdem führte dies zu stetig wachsenden Defiziten des Energiebudgets vieler Regierungen.

Angesichts des Zurückfahrens der FiTs seitens der Regierungen sowie deren Scheitern bei anderen regierungsamtlichen Garantien mussten die Investoren im Sektor der erneuerbaren Energien hinnehmen, wie ihre Investitionen dezimiert oder zumindest substantiell reduziert wurden. Viele haben sich inzwischen schon an Schlichtungsstellen gewandt in einem Versuch, für ihre Investitionen entschädigt zu werden. Tatsächlich war es zu 23% aller bekannten Schiedsverfahren im Jahre 2013 gekommen als Folge von Maßnahmen hinsichtlich erneuerbarer Energie, die von Spanien und der Tschechischen Republik übernommen worden waren. Alle Klagen sind gegenwärtig in der Schwebe, und noch mehr Klagen werden erwartet.

Bemerkung des Übersetzers hierzu: War nicht schon vor Jahren zu lesen, dass sich entsprechende Fachanwälte in Erwartung vieler diesbezüglicher Klagen die Hände gerieben haben?

Full post

Link: http://www.thegwpf.com/europe-rolls-back-green-energy-subsidies/

Übersetzt von Chris Frey EIKE




Bemerkungen zum Winter 2014/15 Europa-Atlantik-Ostteil Nordamerika

Schon bei der Proklamation des Jahres 2014 als “das wärmste jemals” seitens der NASA und anderer politischer oder von politischen Zuwendungen abhängiger Organisationen hatten ja nicht nur die Autoren des o. g. Beitrags auf die Unregelmäßigkeiten dieser Behauptung hingewiesen. Es war eine ungewöhnlich hohe Zahl von Tagen mit einer Südwest-Wetterlage, die das Jahr 2014 in Deutschland in der Tat zu einem der wärmsten Jahre gemacht haben, aber ebenso wie weltweit nicht zum wärmsten jemals, wie inzwischen auch die NASA mit zusammen gebissenen Zähnen einräumen musste.

Im krassen Gegensatz zum Medienecho dieser Behauptungen vor allem hierzulande steht ein anderes Ereignis in einem anderen Teil der Welt, und zwar mit weit gravierenderen Folgen als die milde Witterung bei uns. Der gesamte östliche und zentrale Teil der USA bis hinunter zum Golf von Mexiko erlebte zum zweiten Mal hintereinander einen katastrophalen Eiswinter mit schweren Ernteschäden und wirtschaftlichen Folgen. Besonders der vergangene Februar war in vielen Gebieten im Osten der USA wirklich der kälteste jemals, also seit Beginn von Aufzeichnungen in Reihen, die 50 bis 100 Jahre lang sind. Eine gute Zusammenfassung der Verhältnisse in den USA findet sich hier. Aus diesem Artikel stammt auch die folgende Tabelle, die hier beispielhaft gezeigt werden soll:

Zu dieser Tabelle: Zu beachten ist, dass alle Angaben in Grad Fahrenheit gegeben sind. Man muss die Zahlen durch 1,8 dividieren, um auf Celsius-Grade zu kommen. Aber das ist nicht der wesentliche Punkt. In der Spalte ganz rechts steht die Differenz des neuen Rekordwertes im Vergleich zum bisherigen Rekord. Die Größe dieser Differenz ist wirklich erschreckend, aus einem Grunde, den ich am Ende anspreche.

Und was vernahm man nun in den Medien hierzulande? Dröhnendes Schweigen – was sonst? Wie soll man das nennen? Ist das nun Zensur oder nicht? Lediglich als der Bürgermeister der Stadt New York, aber auch andere Brüder im Geiste aus der Politik, einen gewaltigen Blizzard verkündeten, gab es hierzulande mediales Getöse. Als dieser Sturm aber wie von meinen US-Kollegen erwartet, was sie aber nicht laut sagen durften (!!) deutlich schwächer ausgefallen war, gab es in unseren Medien wieder Schweigen. Merkwürdige Zeiten, die unselige Erinnerungen wecken.

Zusammenhänge der Winterwitterung auf der Nordhemisphäre

Betrachtet man die Anomaliegebiete im großräumigen Maßstab, fallen wie erwähnt der milde Winter in Mitteleuropa bis weit nach Osteuropa hinein sowie die extreme Kälte in der Osthälfte der USA auf. Im Westen der USA, namentlich in Kalifornien, schlossen sich große Gebiete an, die unter einer schon seit Längerem andauernden Dürre leiden. Die Niederschlagsarmut dürfte sich auch weit auf den Pazifik hinaus erstreckt haben, aber über Ozeanen von einer „Dürre“ zu sprechen ist wohl doch fehl am Platze.

In Ostasien und dem Ostteil Sibiriens schlossen sich dann wieder weite Gebiete mit extremer Kälte an. Extrem auch für diese Gebiete, allerdings ist es dort natürlich immer sehr kalt, und ich weiß nicht, ob es ins Gewicht fällt, ob die Temperatur -50°C oder -60°C beträgt.

Wie auch immer, es zeigt sich eine klare Wellenzahl drei: drei große Tröge (kalt) und drei große Hochkeile (warm) rund um den Nordpol. Am Besten spiegelt sich so etwas im 300-hPa-Niveau. Bekanntlich ist ja der mäandrierende Jet Stream die Summe mehrerer Wellenzahlen, die alle eine unterschiedliche Amplitude und Varianz (= Anteil der Einzelwelle am Gesamt-Wellenspektrum) haben.

Eine solche Wellenzahl drei war also ganz offensichtlich im Winter 2014/15 auf der Nordhemisphäre vorherrschend. Der Theorie nach ROSSBY zufolge haben diese sog. Langen Wellen klimatologisch eine statistisch bevorzugte Position, die der Orographie der Nordhemisphäre folgt. So liegt der Hochkeil der Wellenzahl drei im klimatologischen Mittel vor der Westküste Amerikas über dem Pazifik. Der nächste Hochkeil befindet sich dann 130 Längengrade weiter östlich, also über Mitteleuropa und dem östlichen Mitteleuropa. Dazwischen liegt jeweils ein langwelliger Trog. Auf diese Weise lässt sich ziemlich einfach die Witterungs-(!)Verteilung auf der Nordhemisphäre beschreiben.

Diese sog. Klimatologischen langen Wellen (im Winter bis zur Wellenzahl vier, im Sommer fünf) ändern sich immer mal wieder, wie ja alles im ständigen Wandel begriffen ist (Wetter, Witterung und Klima). Lange Wellen verlagern sich auch nicht, sondern bleiben immer mehr oder weniger stationär – es sei denn, die Wellenzahl ändert sich. Das alles sind grob vereinfachte Ableitungen aus der ROSSBY-Theorie. Näheres dazu gibt es hier.

Aus dieser Quelle stammt auch die folgende Abbildung:

Sie zeigt die langen Wellen mit der Wellenzahl drei in ihrer mittleren klimatologischen Position. Im vergangenen Winter war diese Konfiguration um einige Längengrade nach Osten verschoben.

Interessanterweise ist nun die Änderung eines Langwellen-Regimes nicht gleichmäßig über das Jahr verteilt, sondern es gibt hierbei statistisch bevorzugte Zeiten. Die größte Signifikanz weist der Zeitraum Anfang Juli („Siebenschläfer-Regel“) und Anfang Dezember auf, wobei ein Wellenregime, das sich bis spätestens zum 10. Dezember eingestellt hat, in der Regel bis weit in das meteorologische Frühjahr hinein gehalten wird (mein Freund Chris Frey hat das mal so ausgedrückt: „Anfang Dezember wird der Winter gebacken“).

Die milde Witterung bei uns, die Dürre in Kalifornien und die extreme Kälte im Ostteil der USA sind also dem Wellenregiment dieses Winters geschuldet, das wie zu erwarten war den ganzen Winter über gehalten wurde mit kleineren Schwankungen. Daran ist weder etwas Aufregendes, noch hat das irgendwas mit dem Klimawandel zu tun.

Noch einmal zurück zur Arbeit von Kämpfe und Kowatsch (2015): Am Ende des Beitrags findet sich eine Tabelle, in der die Langfristvorhersagen des Winters bewertet werden, die im Herbst vorigen Jahres abgegeben worden waren. M. E. hat sich Kämpfe dabei zu schlecht beurteilt, denn im Gegensatz zum Autor dieses Beitrags hat er den eher milden Winter erwartet. Warum habe ich diesen Winter kälter erwartet?

Nun, das Wellenregiment dieses Winters hat sich sehr spät eingestellt. An sich ist eine starke und milde Westlage Anfang Dezember fast ein Garant für einen milden Winter bei uns, aber Anfang Dezember 2014 gab es diese Westlage noch nicht. Als sich dann aber in der Ersten Dezemberdekade die ersten Mega-Orkanwirbel auf dem Atlantik bildeten (was im Vorjahr 2013 bereits im September angefangen hatte!) war dies ein Hinweis, dass sich bei uns dauerhaft kalte Witterung wohl nicht einstellen würde. Das allein ist aber noch kein Hinweis, denn am 15 Dezember 1986 hat sich im Seegebiet zwischen Island und Grönland der stärkste, im vorigen Jahrhundert bekannte Orkanwirbel jemals entwickelt mit einem Kerndruck unter 920 hPa! Dennoch gab es bekanntlich 1986/87 in Mitteleuropa einen sehr kalten Winter. Irgendetwas war also damals anders, und zwar etwas sehr Augenfälliges. Ich bekenne, dass ich dies zu Beginn des vergangenen Winters übersehen hatte.

Kalte oder sehr kalte Witterung kann sich bei uns nur bei Ost- oder Nordostlagen einstellen. Dazu ist aber außerdem noch das Vorhandensein eines Kaltluftkörpers über Nordosteuropa erforderlich. Im Dezember 1986 war dieser ausgeprägt vorhanden, während er im Dezember 2014 vollständig fehlte und sich auch bis heute nie eingestellt hatte. Das sollen die folgenden Abbildungen zeigen:

Das Datum stimmt zwar nicht ganz auf den Tag genau, aber in beiden Fällen findet sich auf dem Atlantik ein Orkanwirbel. Man erkennt sehr gut den Kaltluftkörper im Dezember 1986 über Nordosteuropa, der sogar deutlich stärker ausgeprägt war als sein Pendant im Osten Amerikas. Bodennah waren damals dort Temperaturwerte zwischen -20°C und -40°C vorherrschend.

Ganz anders im Dezember 2014: Ein Kaltluftkörper über Nordosteuropa ist nicht einmal rudimentär vorhanden. Dagegen weist die Wetterlage über dem Atlantik Ähnlichkeiten auf.

Fazit bis hier: Aus statistisch-synoptischer Sicht war aufgrund der Strömungsverhältnisse Anfang/Mitte Dezember 2014 kein kalter Winter zu erwarten. Dies gilt auch generell: Sollte sich bis spätestens Mitte Dezember über Nordosteuropa kein ausgeprägter Kaltluftkörper gebildet haben, ist dies statistisch gesehen den ganzen Winter über nicht zu erwarten. Es gibt natürlich Ausreißer dergestalt, dass sich im Januar doch noch ein solcher bildet, aber dieser Fall tritt so selten auf, dass die Aussage signifikant ist. Mit etwas größerer Streuung gilt das auch umgekehrt: Ist ein solcher Kaltluftkörper über Nordosteuropa vorhanden und auch stärker ausgeprägt als sein Pendant am Westatlantik, sind im Winter zumindest einige längere handfeste Kältewellen zu erwarten.

Wobei wir bei einem Punkt sind, der mir als einzigem zu denken gibt: Kältewellen im Osten der USA gibt es immer wieder. Auch ich habe in den siebziger Jahren im US-Bundesstaat Pennsylvania solche Winter erlebt. Aber: Es ist die Intensität der diesmaligen Kältewelle dort, die mich beunruhigt! Sollte sich das nächste Mal wieder ein Kaltmuster für Mitteleuropa einstellen (und das wird mit Sicherheit in naher Zukunft wie üblich wieder der Fall sein, zumal eine die Wellenzahl drei begünstigende Warmphase der NAO in die Kaltphase wechseln dürfte), so dürften auch bei uns die Kälterekorde purzeln – mit allen gravierenden Folgen für Wirtschaft und Gesellschaft – also für uns alle!

Und wer weiß? Vielleicht schon im nächsten Jahr im Zuge des (zugegebenermaßen unwissenschaftlichen) Al-Gore-Effektes? Schließlich findet Anfang Dezember das nächste große Klima-Konferenz-Spektakel in Paris statt…

Dipl.-Met. Hans-Dieter Schmidt

Nachwort: In den USA ist das Zufrieren der Großen Seen ebenfalls ein großes Thema. Die Eisbedeckung und -dicke ist noch stärker als vor einem Jahr; auch die Niagara-Fälle sind weitgehend eingefroren. Das ist aber keine Folge noch extremerer Kälte, sondern dem Umstand geschuldet, dass die sommerliche Erwärmung der Seen im Jahre 2014 erst mit großer Verzögerung erfolgen konnte, weil erst im Juni (!) das letzte Eis des Vorwinters verschwunden war. Die Wassertemperatur der Seen lag also eingangs des Winters 2014 deutlich niedriger als eingangs des Vorwinters.




Reaktortypen in Europa – Teil5, ESBWR

Geschichte

Bereits nach dem Reaktorunglück von TMI in Harrisburg begann man in den USA das Genehmigungsverfahren für einen stark vereinfachten Reaktor, den SBWR (Simplified Boiling Water Reactor). Nachdem man über eine halbe Milliarde Dollar Entwicklungs- und Genehmigungskosten investiert hatte, mußte man erkennen, daß dieser Reaktor mit 670 MWel schlicht zu klein und damit unverkäuflich war. Im nächsten Schritt legte man mehr Wert auf die “Wirtschaftlichkeit (Economic)” und erhöhte die Leistung auf 1600 MWel. Ein weiteres Jahrzehnt mit unzähligen Prüfungen verging. Seit letztem Jahr liegen endlich alle Genehmigungen für den Typ vor. Es fehlt nur noch ein Kunde mit einem konkreten Bauauftrag. Inzwischen gibt es auch dazu Verhandlungen in USA, Polen und Indien. Wie immer, wird der “mutige Investor” gesucht, der bereit ist, in eine neue Technik (first of a kind) zu investieren. Dabei ist die Technik alles andere als revolutionär, sondern im Gegenteil strikt evolutionär. Man hat Schritt für Schritt auf in der Praxis bewährte Bauteile zurückgegriffen. Dies sei nur am Rande bemerkt, für all die Erfinder, die immer nach revolutionären Konzepten schreien. Erfinden und in allen Details den Nachweis der Funktionstüchtigkeit erbringen, sind zwei völlig verschiedene Dinge. Zumindest der Nachweis der Funktionstüchtigkeit – nach den Maßstäben der Kerntechnik – erfordert Jahrzehnte und verschlingt somit immense Summen. Vergleichbares gibt es nur in der zivilen Luftfahrt. Auch dort sind revolutionäre Flugzeugentwürfe nur etwas für Universitäten und Medien.

Anforderungen

Alle bisherigen Erfahrungen mit Kernkraftwerken – insbesondere die Unglücke in Harrisburg, Tschernobyl und Fukushima – haben zu folgenden Anforderungen für einen sicheren und wirtschaftlichen Betrieb geführt:

·       Je weniger Bauteile man hat, je weniger kann kaputt gehen (Schaden) und je weniger muß gewartet und überwacht werden (Wirtschaftlichkeit).

·       Je einfacher (“kiss = keep it simple stupid”) das Kraftwerk ist, je einfacher ist es auch zu bedienen – dies gilt für die Automatik, wie auch für das Personal.

·       Je mehr man auf Naturkräfte (Schwerkraft, Speicherung etc.) bei der Sicherheitstechnik setzt, um so sicherer ist ihre Verfügbarkeit im Ernstfall.

·       Je unabhängiger man von äußeren Einflüssen ist (Netzanschluss, Kühlwasser etc.), je weniger können solche “Einwirkungen von außen” (Tsunami, Wirbelsturm, aber auch Flugzeugabsturz, Terror etc.) zu Schäden beim Kraftwerk führen.

·       Je passiver die Sicherheitsketten sind, je weniger muß man sich auf eine hohe Bereitschaft des Schichtpersonals verlassen. Gerade in Ausnahmesituationen (Erdbeben mit Tsunami) brauchen Menschen Zeit sich darauf umzustellen.

·       Wenn man bewußt von dem Versagen aller Sicherheitssysteme ausgeht und offensiv solche Ereignisse durchspielt, kann man trotzdem die Schäden für die Umwelt noch weiter mindern.

Nur die konsequente Umsetzung der vorausgehenden Punkte hat zu der gewaltigen Steigerung der Sicherheit beim ESBWR geführt. Hatte die “Fukushima-Generation” noch eine Wahrscheinlichkeit von einer Kernschmelze in 100.000 Betriebsjahren, so liegt diese Wahrscheinlichkeit beim ESBWR bei etwa einer Kernschmelze in 170.000.000 Betriebsjahren. Spätestens nach den Ereignissen von Tschernobyl und Fukushima legt man großen Wert auf die Freisetzung von Radioaktivität nach dem Versagen aller Sicherheitseinrichtungen (z. B. Beschädigung des Containment etc.). Man kann durch geeignete Maßnahmen auch in einem solchen schweren – und unwahrscheinlichen – Unfall, die Freisetzung von radioaktiven Stoffen erheblich verringern. Simulationen für Standorte in USA haben ergeben, daß selbst in Betrachtungszeiträumen von einer Milliarde Jahren (berücksichtigt die geringe Wahrscheinlichkeit der Ereignisse) in einer Entfernung von 800 m (!) keine Dosen über 1 Sv auftreten würden. Natürlich können solche Berechnungen “Atomkraftgegner” nicht überzeugen. Sie halten auch nach Tschernobyl und Fukushima tapfer an ihrem Glauben von Millionen-Tote-für-zehntausende-Jahre-unbewohnbar fest. Was soll’s, es gibt auch heute noch Menschen, die an Hexen glauben.

Der Naturumlauf

Die Idee einen Siedewasserreaktor ohne Umwälzpumpen zu bauen, ist keinesfalls neu. Allerdings waren die ursprünglichen Modelle, wie z. B. Dodewaard (183 MWth) und Humboldt Bay (165 MWth) geradezu winzig gegenüber einem ESBWR (4500 MWth). Gleichwohl haben sie in den Jahrzehnten ihres Betriebs wertvolle Erkenntnisse und Messreihen geliefert, die als Referenz für die Auslegungsprogramme des ESBWR dienen. Dodewaard war von 1969 bis 1997 am Netz und hat trotz seiner bescheidenen Leistung von 55 MWel fast 11000 GWhel Strom produziert.

Wenn man einen Reaktor mit Naturumlauf bauen will, muß man die treibende Kraft der Umwälzpumpen durch einen Kamineffekt ersetzen: Es steht nur die Dichtedifferenz zwischen kaltem Abwärtsstrom und dampfhaltigem Aufwärtsstrom zur Verfügung. Um überhaupt genug Druck erzeugen zu können, damit man die Reibung in den Bauteilen überwinden kann, ist eine erhebliche Bauhöhe erforderlich. Genau das war aber in den Anfangsjahren das Problem. Man konnte solch große Druckgefäße – zumindest wirtschaftlich – nicht herstellen. Es bot sich deshalb an, besser Umwälzpumpen zu verwenden. Heute haben sich die Verhältnisse umgekehrt. Es gelang praktisch das im ABWR verwendete Druckgefäß auch im ESBWR zu verwenden. Es mußte allerdings für den Kamin oberhalb des Reaktorkerns, von 21,7 auf 27,6 m verlängert werden. Solch schlanke Behälter haben Vor- und Nachteile. Für die Gebäudehöhe und den Erdbebenschutz ist eine solche Länge eher nachteilig. Allerdings ergibt sich auch ein sehr großes Wasservolumen, was sich positiv bei Störfällen auswirkt.

Der Kern des ESBWR ist gegenüber dem ABWR größer (1590 gegenüber 1350 Brennelemente) und flacher (3,0m gegenüber 3,7m aktive Brennstablänge). Dies ist auf die höhere Leistung (4500 gegenüber 3926 MWth) und die anderen thermohydraulischen Bedingungen zurückzuführen. Wegen der höheren Anzahl der Brennelemente erhöht sich auch die Anzahl der Regelstäbe (269 gegenüber 205). Diesem Mehraufwand ist die Einsparung von zehn internen Umwälzpumpen gegen zu rechnen.

Der Rechenaufwand

Einfach anmutende, natürliche Systeme, sind meist wesentlich schwieriger zu beschreiben, als technische Systeme. Technische Anlagen, wie z.B. Pumpen, können definierte Randbedingungen schaffen, die eine Berechnung oft stark vereinfachen. Nur auf Naturkräfte beruhende Systeme sind die hohe Schule der Simulation. Schnell stößt man bei der notwendigen räumlichen und zeitlichen Auflösung an die Grenzen heutiger Rechner. Hinzu kommt hier eine sehr große Anzahl von Gleichungen, da die Thermohydraulik und die Neutronenphysik sich sehr stark gegenseitig beeinflussen.

Man muß es eigentlich nicht besonders erwähnen, hier hat man es mit einer Genehmigungsbehörde zu tun und bewegt sich nicht als freischaffender Künstler in der Welt von Klimamodellen oder Wirtschaftsprognosen. Hier muß man nicht nur sein Programm offen legen, sondern auch noch nachweisen, daß es richtig rechnet. Dazu müssen zahlreiche Messreihen an 1:1 Modellen nachgerechnet werden, um Unterprogramme (z. B. Druckverlust in einem Brennelement) zu testen. Ist diese Hürde – zur Zufriedenheit der Genehmigungsbehörde – erfolgreich genommen, geht es daran, Versuche an bereits gebauten Reaktoren nachzurechnen. Erst wenn der Genehmigungsbehörde kein Testfall mehr einfällt, ist das Programm zugelassen. So etwas kann dauern, schließlich arbeitet die Behörde im Stundenlohn für einen Stundensatz von 280 US-Dollar. So viel zum Thema: Junge Unternehmen entwickeln einen innovativen Reaktor. Die alten Zeiten eines Admiral Hyman G. Rickover, für den der Reaktor der USS Nautilus noch mit Rechenschieber, Bleistift und ganz viel Hirn ausgelegt wurde, sind lange vergangen.

Allein die Anpassung des vorhandenen Programms an die Besonderheiten des ESBWR soll bei GE mehr als 100 Mann-Jahre gedauert haben. Erst dann konnten für alle möglichen geforderten Zustände, die Leistungen, Durchflüsse, Dampfzustände und Dampfanteile, Blasenkoeffizienten, die Leistungsdichte und -verteilung, sowie die Stabilität (z.B. Xenon-Schwingungen) nachgewiesen werden.

Führt man sich diesen Aufwand vor Augen, wird einsichtig, warum die Entwicklung evolutionär verläuft. Man hat versucht, soviel wie möglich vom ABWR beim ESBWR weiter zu verwenden. Nicht einmal ein Verbund von internationalen Konzernen, aus GE, Hitachi und Toshiba kann es sich heute noch erlauben, die Entwicklung eines kommerziellen Reaktors mit einem weißen Blatt Papier zu beginnen. Ob das nun gut oder eher schlecht ist, mag jeder für sich selbst entscheiden.

Die Notkühlung

Nach dem Unglück in Fukushima sind zwei Ereignisse in den Mittelpunkt der Sicherheitsüberlegungen gerückt:

1.     Der Verlust der Hauptwärmesenke. In Fukushima wurden durch die Flutwelle die Kühlwasserpumpen und Einlaufbauwerke zerstört. Damit ging die Fähigkeit zur Abfuhr der Nachzerfallswärme verloren. Für sich genommen, schon ein wesentlicher Schritt zur Kernschmelze.

2.     Verlust (nahezu) jeglicher Stromversorgung. Durch die Schnellabschaltung infolge der Erdstöße war die Eigenversorgung weg, durch die großräumigen Verwüstungen durch die Naturkatastrophe, die Stromversorgung über das Netz und durch die Flutwelle wurden die Schaltanlagen und Notstromdiesel zerstört.

Wie hätte sich nun ein ESBWR in einer solchen Ausnahmesituation verhalten? Er verfügt über eine zusätzliche Wärmesenke für den Notfall, die vollständig unabhängig vom normalen Kühlwassersystem funktioniert: Die Außenluft. Der Auslegungsphilosophie folgend, sich nur auf Naturkräfte zu verlassen, handelt es sich dabei um offene “Schwimmbecken” oberhalb des Sicherheitsbehälters. Das Volumen ist so bemessen, daß es für mindestens 72 Stunden reicht. Die Temperatur ist – unabhängig von den Umweltbedingungen – durch die Verdampfung auf maximal 100 °C begrenzt. Es kann jederzeit – auch von außen durch die Feuerwehr – aus verschiedenen Tanks nachgefüllt werden.

Das nur mit der Schwerkraft betriebene Notkühlsystem ECCS (Emergency Core Cooling System) besteht aus vier voneinander unabhängigen Zügen. In jeweils einem “Schwimmbecken” oberhalb des Sicherheitsbehälters befindet sich zwei Kondensatoren. Diese bestehen aus je zwei übereinander angeordneten Sammlern, die durch zahlreiche dünne Rohre verbunden sind. Von dem Reaktordruckgefäß steigt eine Leitung zu den Sammlern auf. Im Kondensator kühlt sich das entweichende Dampf/Wassergemisch ab und strömt über den (kalten) Rücklauf wieder dem Reaktordruckgefäß zu. Es entsteht ein natürlicher Kreislauf, der sich selbst antreibt. Im Normalbetrieb ist die “warme” Dampfleitung stets offen. Jede “kalte” Rückleitung ist durch je zwei parallele Ventile verschlossen. Aus Gründen der Diversität ist ein Ventil elektrohydraulisch und das jeweils andere pneumatisch über einen Druckgasspeicher betrieben. Die Ventile befinden sich in einer “fail-safe” Stellung: Während des Betriebs werden sie durch die Kraft der Hydraulik oder des Gases geschlossen gehalten. Geht der Druck weg – aus welchen Gründen auch immer, gewollt oder nicht – geben die Ventile den Weg frei. Wegen der Redundanz, reicht ein Ventil aus, um den gesamten Strom durchzulassen. Da die Kondensatoren und die Rückleitung vollständig mit “kaltem” Wasser gefüllt sind, rauscht dieses Wasser infolge der Schwerkraft in den Reaktordruckbehälter und der Kondensator saugt dadurch ein “warmes” Gas- und Dampfgemisch aus dem Reaktorgefäß nach. Ein Naturumlauf ist entfacht. Dieser läuft solange, wie der Kern Nachzerfallswärme produziert und die Außenluft diese Wärme abnimmt.

Wenn das nukleare System irgendwo ein Leck hat, würde irgendwann der Kern trocken fallen. Das entweichende Wasser muß sofort ersetzt werden. Zu diesem Zweck gibt es innerhalb des Sicherheitsbehälters große Wassertanks. Damit aber das Wasser in freiem Fall nachströmen kann, muß zuerst der Druck im System abgebaut werden. Hierfür gibt es 8 Sicherheitsventile, 10 Abblaseventile (die zeitweilig durch pneumatische Antriebe geöffnet werden können) und 8 Druckentlastungsventile unmittelbar am Reaktordruckgefäß. Letztere enthalten verschweißte Membranen, durch die sie dauerhaft dicht und wartungsfrei sind. Wenn sie öffnen müssen, “durchschneidet” ein Kolben die Dichtung. Dieser Kolben wird durch Gas, welches pyrotechnisch in einem Gasgenerator erzeugt wird, bewegt. Es ist das gleiche Prinzip, wie bei einem “Airbag” im Auto – ein sehr kleiner “Signalstrom” reicht zur Zündung aus und erzeugt über die “Sprengkraft” eine sehr große Gasmenge. Diese Ventile sind so gebaut, daß sie den Weg vollständig frei geben, nicht verstopfen können und sich nicht wieder schließen lassen.

Der Energieabbau und die Kühlung geschieht in mehreren miteinander verknüpften Schritten:

1.     Aus den diversen Abblaseventilen strömt (zumindest am Anfang) ein Dampfstrahl mit hoher Energie und Geschwindigkeit. Dieser wird feinverteilt in Wasserbecken eingeblasen. Diese sog. Kondensationskammern befinden sich unten im Sicherheitsbehälter.

2.     Durch die Kondensation fällt der Dampf in sich zusammen und bildet wieder Wasser. Die Verdampfungswärme geht dabei an das Wasser der Kondensationskammer über. Würde man das Wasser nicht kühlen, wäre irgendwann Schluß damit. Der Zeitraum hängt von der Nachzerfallswärme und dem Wasservolumen ab.

3.     Das Wasser in den Kondensationskammern kann auf verschiedenen Wegen gekühlt werden. Der wichtigste Weg ist über die weiter oben beschriebenen Kondensatoren.

4.     Damit der Reaktorkern stets sicher gekühlt ist, sind die Wasservolumina in den Kondensationskammern und Speichern so bemessen, daß der Kern auch dann unter Wasser bleibt, wenn sich das Wasser im Sicherheitsbehälter ausbreitet. Dieser Zustand kann auch absichtlich herbeigeführt werden.

5.     Um eine Kettenreaktion sicher und dauerhaft zu verhindern, wird zusätzlich aus Speichern borhaltiges (Neutronengift) Wasser eingesprüht.

Der “Supergau”

Im Gegensatz zu den Anfängen der Kernkraftwerkstechnik, diskutiert man schon heute im Zulassungsverfahren ganz offensiv das Versagen aller Sicherheitseinrichtungen: Einerseits setzt man sich dabei mit den Auswirkungen der dadurch freigesetzten Radioaktivität auf die Umgebung auseinander und andererseits beschäftigt man sich mit Möglichkeiten diese Auswirkungen trotzdem abzumildern.

Ein typischer Fall ist das Versagen des Sicherheitsbehälters. Man versucht alles erdenkliche zu tun, dies zu verhindern, beschäftigt sich aber trotzdem mit diesem Ereignis. Ein Schritt diesen Unfall abzumildern, ist die gesteuerte Ableitung über Filter und den Abgaskamin. Durch die Kaminhöhe verdünnt sich die Abgaswolke beträchtlich. Durch das Vorschalten von geeigneten Filtern kann die Schadstoffmenge zusätzlich gemindert werden.

Ähnlich verhält es sich mit dem Kern: Durch redundante, passive Kühlsysteme versucht man den Brennstoff und die Spaltprodukte im Reaktordruckgefäß zu halten. Trotzdem untersucht man auch ein Versagen des Druckbehälters. Wie Fukushima gezeigt hat, ist auch beim Versagen der Notkühlung nicht mit einem “China Syndrom” (Hollywood Phantasie, nach der sich der schmelzende Kern immer weiter in den Untergrund frisst) zu rechnen. Trotzdem geht man von einem Schmelzen des Stahlbehälters, wie bei einem Hochofenabstich aus. Die Grube des Reaktorgefässes ist deshalb als “feuerfester Fußboden” (BiMAC, Basemat Internal Melt Arrest and Coolability device) ausgeführt. Unterhalb einer feuerfesten Schicht befindet sich ein Rohrleitungssystem, welches – quasi wie bei einer Fußbodenheizung – diese Schicht kühlt. Dieser “Fußboden” ist bezüglich seiner Konstruktion und Leistung für den 4-fachen Kerninhalt ausgelegt. Zusätzlich könnte die Grube mit dem im Sicherheitsbehälter vorhandenem Wasser vollständig geflutet werden, um die Spaltprodukte größtenteils darin zurückzuhalten.

Leistungsregelung

Normalerweise geschieht die Leistungsregelung bei Siedewasserreaktoren über die Steuerstäbe und die Umwälzpumpen. Die Steuerstäbe dienen nur zum Anfahren und bis etwa 50% der Auslegungsleistung. Im Bereich oberhalb 60% wird die Leistung nur noch über die Umwälzpumpen durchgeführt. Die Steuerstäbe dienen dann nur noch zur Kompensation des Abbrands.

Beim ESBWR kann der Reaktor durch langsames ziehen der Steuerstäbe auf Temperatur gebracht werden. Da im Siedebereich Temperatur und Druck miteinander gekoppelt sind, steigt auch der Druck im nuklearen System entsprechend an. Würde man keinen Dampf entnehmen, würde der Druck im “Kessel” immer weiter ansteigen, bis die Sicherheitsventile ansprechen. Natürlich wird so bald wie möglich Dampf entnommen, um die Turbine und das gesamte nukleare System damit aufzuwärmen. Wenn man aber Dampf entnimmt, muß die gleiche Menge durch Speisewasser ersetzt werden. Das Speisewasser wird im Betriebszustand auf 216°C vorgewärmt. Dies geschieht in sechs Stufen. Man entnimmt dazu, an bestimmten Stellen der Turbine, eine gewisse Menge Dampf. Dies ist sinnvoll, da der jeweils entnommene Dampf bereits Arbeit geleistet hat und sich somit der Wirkungsgrad verbessert. Man nennt diese Strategie “Carnotisierung”.

Der ESBWR hat gegenüber einem normalen Siedewasserreaktor (z. B. ABWR) eine siebte Vorwärmstufe, die mit frischem Dampf aus dem Reaktor beheizt wird. Normalerweise wird sie deshalb umgangen. Wenn man beispielsweise mit dieser Stufe die Speisewassertemperatur auf 252°C erhöht, geht die Leistung des Reaktors – bei gleicher Position der Steuerstäbe – auf 85% zurück. Umgekehrt könnte man die Steuerstäbe etwa so weit einfahren, daß nur noch rund 50% der Auslegungsleistung erzeugt wird. Würde man nun die Speisewassertemperatur auf 180°C absenken, würde sich wieder die ursprüngliche Leistung einstellen. Es ergibt sich somit im Bereich zwischen 50% bis 100% Leistung ein umfangreiches Feld, in dem sich die Leistung durch Kombination von Steuerstabstellungen und Speisewassertemperatur regeln läßt.

Die physikalische Ursache ist bei allen Siedewasserreaktoren die Abhängigkeit der Abbremsung der Neutronen von der Dichte des Moderators. Bei Reaktoren mit Umwälzpumpen wird die Dichte durch “ausspülen” von Dampfblasen aus den Brennelementen erhöht, bei Naturumlauf durch das Absenken der mittleren Temperatur.

Wegen seiner Leistung von 1600 MWel dürfte dieser Reaktor eher in der Grundlast eingesetzt werden. Gleichwohl ist ein täglicher Lastfolgebetrieb vorgesehen und genehmigt. So sind z. B. die Steuerstäbe für eine Betriebsdauer von 10 Jahren bei täglichem Lastwechsel zugelassen. Idealerweise fährt man mit diesem Reaktor aber mit konstant volle Leistung. Wegen seiner Stabilität und seiner passiven Notkühlung ist er sogar für den Betrieb durch nur einen Bediener konstruiert und zugelassen!

Ausblick

Im nächsten Teil werden die Schwerwasserreaktoren vorgestellt. Es ist bereits beschlossen, einen weiteren solchen Reaktor, in Kooperation mit China, in Rumänien zu errichten.

Dr. Ing. Klaus Dieter Humpich; übernommen von Blog des Autors hier 




Die Winter in den USA und ihre Propheten

Ohne Rücksicht auf „seriöse“ Aussagen über die bevorstehende Klimaerwärmung – als Folge der wachsenden Emissionen des „Klimakillers“ Kohlendioxid – verzeichnen die Meteorologen immer wieder extrem harte Winter, speziell an der Ostküste Nordamerikas.

So brachte der Winter 2003/2004 eisige Kälte, heftige Schneefälle und Stürme, was im gesamten Osten der USA nicht nur ein Verkehrschaos auslöste, sondern 38 Menschen den Tod brachte. Öffentliche Gebäude mussten geschlossen werden, Tausende Haushalte waren zeitweise ohne Strom. (Leipziger Volkszeitung, 28.01.2004)

Im Winter 2005/2006 meldete New York mit 68 Zentimeter die höchste Schneehöhe seit Beginn der Wetteraufzeichnungen 1869. Der bisherige Rekord von 1947 wurde damit um einen Zentimeter überboten. Viele Schneeschuhläufer bevölkerten die Straßen der Stadt. 14 Bundesstaaten waren unter einer mächtigen Schneedecke, teils mehr als 70 Zentimeter dick, verborgen. Dazu kamen heftige Stürme und Gewitter.  Die Stromversorgung brach in Hunderttausenden Haushalten zusammen, der Flugverkehr musste stark eingeschränkt werden. (Frankfurter Allgemeine Zeitung, 14.02.2006)

Der darauf folgende Winter 2006/2007 war nicht weniger heftig: Ein Schneechaos im Nordosten der USA führte zu wenigstens 13 Toten. Das Zentrum Washingtons glich einem Skigebiet. Stürme führten zu teils drei Meter hohen Schneeverwehungen. Viele Schulen mussten geschlossen werden. Im Mittleren Westen und im Nordosten waren etwa 300.000 Menschen ohne Strom. Die Temperaturen fielen auf bis zu minus 17 °C. Fast 3000 Flüge fielen aus, teils musste der private Autoverkehr verboten werden. (Leipziger Volkszeitung, 15.02.2007 und 16.02.2007)

Dann endlich kam die „Erlösung“! Eine Studie von Barry Lynn und Leonard Druyan von der Columbia University und vom Goddard-Institut für Raumstudien der Nasa verkündete im Mai 2007, dass es in Zukunft an der amerikanischen Ostküste deutlich wärmer wird. Demnach dürften die durchschnittlichen Temperaturen ab etwa 2080 um sechs Grad höher als heute liegen, östlich des Mississippi sollen die Durchschnittstemperaturen dann bei 33 bis 36 °C liegen. Die Computermodelle der Klimaforscher versprechen, dass Kälteeinbrüche wie in der Vergangenheit wohl nicht mehr eintreten werden. (Frankfurter Allgemeine Zeitung, 12.05.2007)

Leider ignoriert das Wetter diese Prophezeiungen völlig, denn schon im Winter 2008/2009 forderten Eisregen und Schnee vom Norden bis in den Süden der USA 23 Todesopfer. Wieder kam es zu einem Verkehrschaos, rund 1,3 Millionen Privathaushalte und Geschäftskunden waren von der Stromversorgung abgeschnitten. (Leipziger Volkszeitung, 29. Januar 2009 und 02.02.2009; Frankfurter Allgemeine Zeitung, 30.01.2009)

Schon der Winter 2009/2010 schlug wieder zu: Bei einem massiven Wintereinbruch starben 16 Menschen, zumeist infolge des herrschenden Chaos auf den Straßen. Im Mittleren Westen mussten Regierungsgebäude, Schulen und Universitäten geschlossen werden. Dort lag eine fast ein Meter dicke Schneedecke. In Washington lagen bis zu 60 Zentimeter Schnee. Im Central Park in Man­hattan tummelten sich Skiläufer. Zu den Schneemassen kamen heftige Winterstürme, deren Stärke als außergewöhnlich eingeschätzt wurde. Flughäfen, darunter auch die von New York, mussten geschlossen werden. Die Temperaturen fielen bis auf minus 34 °C. In Dallas im eher warmen Texas wurde die erste weiße Weihnacht seit 80 Jahren registriert. Der bisherige Schneehöhen-Rekord in Oklaho­ma City, er stammt aus dem Jahr 1914, betrug sechs Zentimeter; Weihnachten 2009 wurde er mit 36 Zentimetern gebrochen. (Leipziger Volkszeitung, 11.12.2009 und 21.12.2009; Frankfurter Allgemeine Zeitung, 28.12.2009)

Im Winter 2013/2014 erlebte Nordamerika eine der schlimmsten Kältewellen der vergangenen Jahrzehnte mit bis zu minus 30 °C. Eisige Stürme führten zu gefühlten Temperaturen von bis zu minus 50 °C. Von den extremen Minustemperatu­ren waren mindestens 20 US-Bundes­staaten, vor allem im Mittleren Westen und im Nordosten betroffen. Auch den wärmeverwöhnten Südstaaten brachte die Kältewelle Schnee. In Minnesota mussten – erstmals wieder seit 1997 – zeitweise Schulen geschlossen werden. In New Orleans wurde den Notstand ausgerufen. Insgesamt gab es in den USA 24 Kälteopfer. Rund eine halbe Million Haushalte der USA waren zeitweilig von der Energieversorgung abgeschnitten. Tausende Flüge wurden gestrichen. In New York gab es innerhalb von sechs Wochen sechs Winterstürme. Sogar das UN-Hauptquartier schloss zeitweilig. Anfang Januar 2014 waren die Niagarafälle fast komplett zugefroren, was zuletzt 1936 geschehen war. Die Kältewelle im Dezember 2013 und Januar 2014 erfasste 240 Millionen US-Bürger. Man rechnet mit Schäden in Höhe von fünf Milliarden Dollar. (Leipziger Volkszeitung, 08.01.2014 und 15./16.02.2014; Frankfurter Allgemeine Zeitung, 06.01.2014 und 29.01.2014; Bild, 10.01.2014)

Auch im darauffolgenden Winter 2014/2015, dem bisher letzten, wurde Nordamerika von der Kältepeitsche nicht verschont. Im Februar 2015 wurden 180 Millionen Amerikaner von Neuengland bis Florida von der Kältewelle, verbunden mit riesigen Schneemassen, erfasst. Mit minus 17 °C meldete New York den kältesten 20. Februar seit Beginn der Wetteraufzeichnungen. Die Niagarafälle waren wieder teilweise gefroren. (Leipziger Volkszeitung, 21./22.02.2015)

Das alles wären noch vor einem halben Jahrhundert Meldungen gewesen, die man zwar mit Bedauern für die Betroffenen zur Kenntnis nimmt, aber anschließend wieder vergisst. Heute jedoch, im „Zeitalter der Klimaerwärmung“, die zudem noch angeblich vom Menschen selbst verursacht wird, erstaunen solche Nachrichten über extreme Kälteeinbrüche doch, zumal sie immer wieder auch vermeintlich sonnenverwöhnte Regionen betreffen. Neben den Südstaaten der USA sind das beispielsweise auch Mittelmeer-Anrainer.

Die Winterentwicklung der letzten Jahre in den USA erscheint unter dem Eindruck „wissenschaftlicher“ Aussagen über eine bevorstehende, sogar sehr starke, Erwärmung besonders brisant. Unmittelbar nach mehreren extrem kalten Wintern wurden von US-Wissenschaftlern Temperaturanstiege im Mittel von sechs Grad „versprochen“. Diese Aussage war – (klima-)politisch völlig korrekt – in erster Linie als Warnung vor der bevorstehenden überaus schädlichen Aufheizung der Welt, als Drohung, gedacht. Angesichts der vorausgegangenen außergewöhnlich kalten Winter wurde sie von den Menschen ganz im Gegenteil bestimmt als Hoffnungsschimmer gesehen.

Diese sechs Grad Erwärmung sollen allerdings erst nach etwa einem Dreivierteljahrhundert eintreten – dann wenn die Propheten mit Sicherheit nicht mehr für ihre Falschaussagen zur Verantwortung gezogen werden können. Aber sollte man nicht doch schon im ersten Jahrzehnt nach der „Heils-Versprechung“ wenigstens kleine Anzeichen einer Erwärmung erkennen können? Man kann es nicht! Bis jetzt hält sich das Wetter nicht an die „wissenschaftlichen“ Offenbarungen! Es ist aber noch viel Zeit bis 2080! Da können in den USA noch viele eisige Winter kommen, die dann – auf wundersame Weise – zu einer Erwärmung um sechs Grad hochgerechnet werden.

Anerkennen sollte man jedoch, dass die Forscher ihre Wahrsagungen an eine Bedingung geknüpft haben: An der USA-Ostküste wird es wärmer, „sollte sich der weithin beobachtete Klimawandel fortsetzen“ (FAZ 12.05.07). Wurde vergessen, dass sich der Klimawandel seit Milliarden Jahren pausenlos fortsetzt? Wenn die Herren aber einen „weithin beobachteten Klimawandel“ sehen, der – vom IPCC-verordnet – nur in Richtung Erwärmung verlaufen darf, dann haben sie wohl die letzten Winter in ihrer Heimat verschlafen. Der gewünschte Klimawandel setzte sich bisher nicht fort – das zeigen die Extremwinter der dem Orakel folgenden Jahre! Wieder einmal konnte ein vernichtendes Urteil über die „wissenschaftlichen“ Klimavorhersagen gefällt werden! 

„Es gibt zwei Arten von Leuten, die die  Zukunft  vorhersagen: jene, die nichts wissen, und jene, die nicht wissen, dass sie nichts wissen.“

John Kenneth Galbraith, Harvard-Ökonom (1908-2006)