Frühlingsbeginn in Deutschland – zeitiger oder leicht verspätet?

Bild rechts: Märzenveilchen blühten dieses Jahr erst Ende März. Aprilveilchen wäre dieses Jahr der exaktere Name. Foto Kowatsch

Wann der Frühling mit seinen ersten Boten wie Huflattich, Märzenveilchen, Scharbockskraut und Anemone erscheint, bestimmen vor allem die Temperaturen des letzten Wintermonates Februar und des ersten Frühlingsmonates März. Die Frühblüher könnten nur dann zeitiger erscheinen, wenn auch die Temperaturen in diesen beiden Monaten deutlich wärmer geworden wären. Diese fälschlicherweise in den „Qualitätsmedien“ behauptete Erwärmung zeigen die offiziellen Daten des Deutschen Wetterdienstes (DWD) jedoch nicht. Diese Temperaturbetrachtungen anhand der Daten des Deutschen Wetterdienstes stehen im Mittelpunkt dieses Artikels. Schauen wir uns zunächst die Temperaturen der beiden Monate Februar/März über einen Zeitraum von 30 Jahren näher an. 30 Jahre sind nach dem WMO- Standard ein klimatisch relevanter Zeitraum. Die Daten des Deutschen Wetterdienstes in Offenbach zeigen:

Bild 1: Das Ergebnis ist überraschend. Der Monat Februar wurde in den letzten 30 Jahren in Deutschland keinesfalls wärmer. Wir haben eine leicht fallende Trendlinie. Fallende Trendlinien sind das Gegenteil der ständigen Erwärmungsbehauptungen.

Diese Daten des Deutschen Wetterdienstes sind nicht wärmeinselbereinigt. Pflanzen aus den Vorgärten der meist wachsenden und wärmeren Siedlungen oder Ortschaften entwickeln sich schneller als solche in der freien, weniger wärmeinselbeeinflussten Landschaft. Von den etwa 2000 Messstationen des DWD stehen nur wenige in der freien Landschaft, die meisten befinden sich in oder am Rande der Ortschaften und Städte oder gar an den Landebahnen der Flughäfen im Strahl der gut 600 C heißen Flugzeugabgase.

Abb.2: Die Temperaturkurve des ersten Frühlingsmonats März zeigt über die letzten 30 Jahre nur eine sehr geringe, nicht signifikante Erwärmung.

Die CO2-Erwärmungsgläubigen stuften diesen Winter und vor allem den Februar als besonders mild ein. Dieser angeblich steigende Vorfrühlingstrend der letzten Jahre werde anhalten und die „Erwärmungstendenz“ sich beschleunigen, so die Falschmeldungen. Die Realität sieht anders aus. Betrachtet man den Gesamtzeitraum vom 1. Februar bis zum 31. März, so wird klar: Eine Erwärmung gab es im Spätwinter/Vorfrühling während der letzten 30 Jahre nicht (Abb. 3):

Abb. 3: Das Diagramm zeigt den Durchschnitt des Monates Februar und März. Im Spätwinter/Vorfrühling (Februar und März) blieb die von den „Klimamodellen“ vorhergesagte Erwärmung in Deutschland bislang aus. Die zusammengefasste Trendlinie beider Monate ist leicht fallend.

Aber weltweit soll doch dieser Februar neue Rekorde gebracht haben. Das würden sogar die Satellitendaten beweisen. Doch Vorsicht, diese sind gerade in jüngster Zeit noch oben korrigiert worden, um den langjährigen Stillstand per Softwareumschreibung zu beenden.

 Näheres siehe hier: http://www.kaltesonne.de/university-of-alabama-in-huntsville-uah-lehnt-fragwurdige-veranderungen-am-rss-satelliten-temperaturdatensatz-ab/ Die folgende Grafik haben wir aus dem Link entnommen

Abb.4: Globale Temperaturentwicklung seit 1980 laut RSS. In schwarz die Original-Version, in blau die nachjustierte Kurve. Graphik aus Mears & Wentz 2016. Softwaremanipulation zur Bereinigung der tatsächlichen Werte, das kennen wir doch aus einem anderen Bereich.

Bleiben wir bei den Daten des Deutschen Wetterdienstes. Was bedeuten die drei ersten Grafiken für die Vegetation und den Frühlingsbeginn in Deutschland?

Die Autoren dieses Artikels verfügen über langjährige Berufserfahrungen auf den Fachgebieten Naturschutz und Pflanzenbau. Sie beobachten die Natur seit vielen Jahrzehnten. Zusätzlich werteten wir Literatur über Frühjahrsblüher und das Erwachen der Vögel und Kröten aus. Auch einige Frühlingskinderlieder und Frühjahrsgedichte sind mehr als hundert Jahre alt. Man kann ihre Aussagen mit der heutigen Realität des Frühlingsbeginns vergleichen.

Die blauen Veilchen werden seit jeher Märzenveilchen genannt, weil sie auch schon damals im März blühten. Wäre der März vor über 100 Jahren kälter gewesen, hätte man sie Aprilveilchen genannt. Auch die Winterlinge heißen so, weil sie oft schon im Januar oder Februar blühen, heute genauso wie in früheren Zeiten.

Für vergleichende Vegetationsbeobachtungen sollte die freie Natur außerhalb der Wärmeinseln an unveränderten Örtlichkeiten bevorzugt werden. Mit Amtsberg-Dittersdorf haben wir sogar einen kleinen Ort mit privater Wetterstation am Fuße des Erzgebirges gefunden, den man zumindest für die letzten 30 Jahre als fast WI-frei bezeichnen kann.

Abb.5. Die braune Trendlinie sind die Aufzeichnungen des Deutschen Wetterdienstes wie in Grafik 1. Orte wie Amtsberg am Fuße des Erzgebirges, deren Umgebung sich in den letzten 30 Jahren kaum verändert hat, zeigen einen viel stärkeren Abwärtstrend der Februartemperaturen als der Mittelwert der DWD-Stationen.

Ergebnis: In der freien Fläche ist der Februar in den letzten 30 Jahren deutlich kälter geworden. Ohne Bevölkerungswachstum, Industrialisierung und Urbanisierung in die freie Fläche hinein wären die heute in Deutschland gemessenen Februartemperaturen um etwa ein Grad Celsius niedriger.

Den Monat März in Amtsberg im Vergleich zu dem Gesamtschnitt der Stationen des Deutschen Wetterdienstes zeigt das nächste Diagramm. Die DWD-Erhebungen sind in brauner Farbe dargestellt und entsprechen der Abb. 2

Auch der März folgt nicht dem Orakel der Erwärmungsverkünder. Er kühlte sich im WI-armen Standort Amtsberg leicht ab, auch wenn es 2012 und 2014 zwei sehr warme Monate gab. Der März 2016 lag im unteren Drittel der letzten 30 Jahre:

Abb.6 Fast wärmeinselfreie Orte wie Amtsberg-Dittersdorf (blau-violett) haben seit 30 Jahren eine leicht fallende Trendlinie im März.

Ein wichtiger Zeiger für den Beginn des sogenannten „Erstfrühlings“ ist die Laubentfaltung der Wild- Stachelbeere (Ribes uva- crispa). Diese fällt in klimatisch durchschnittlichen Regionen Deutschlands, zu denen auch die Kleinstadt Weimar/Thüringen zählt, meist in den Zeitraum um Anfang März.

Abb. 7: Die ersten, entfalteten Laubblätter der Wild- Stachelbeere zeigen den Beginn des Erstfrühlings an. Foto: Stefan Kämpfe

Einer der beiden Autoren, der Botaniker, Phänologe und Klimaforscher STEFAN KÄMPFE, hat seit 1990 im Park an der Ilm, der wegen seines Denkmalschutzes inklusive seiner näheren Umgebung weitgehend unverändert blieb, den Stachelbeeraustrieb dokumentiert. Zwar gab es im Jahr 2016 den bisher frühesten Laubaustrieb, doch konnte dieser den leichten, seit Beobachtungsbeginn erkennbaren (nicht signifikanten!) Verspätungstrend nicht ausgleichen:

Abb. 8: Achtung: Eine steigende Trendlinie heißt Verspätung. Auf der x-Achse sind die Tage nach Neujahr aufgetragen. In Weimar zeigt sich seit 1990 keine Verfrühung des Wildstachelbeer- Austriebes- im Gegenteil!

Auf den Stachelbeer- Austrieb hat freilich der März fast keinen Einfluss, umso mehr aber das Temperaturniveau der vorangehenden Wintermonate. Trotz eines eher kühlen Januars erfolgte der Austrieb 2016 so zeitig, weil es einen rekordmilden Dezember 2015 gab. In den meisten Fällen bestimmt jedoch das Temperaturniveau der Monate Januar und Februar den Zeitpunkt des Austriebes:

Abb. 9: Geringfügig fallende Temperaturmittelwerte im Januar/Februar an der Station Erfurt/Weimar, etwas späterer Stachelbeeraustrieb. Wegen der großen Streuung sind die Trends nicht signifikant, von einer „Verfrühung“, wie sie viele Klimaforscher vorhergesagt haben, ist jedoch nichts zu sehen.

Im Jahr 2016 „schleppten“ sich Vor- und Erstfrühling auch deshalb so quälend lange hin, weil die wärmende Sonne viel zu selten schien (Februar und März waren sehr sonnenscheinarm). So konnten sich auch Pflanzen an windgeschützten Südhängen diesmal nicht schneller entwickeln. Wegen des extrem milden Dezembers dauerte die Haselblüte in Weimar rekordverdächtige 118 Tage, auch Schwarzerle, Schneeglöckchen, Winterlinge, Krokusse, Märzenbecher und die Kornelkirsche blühten anderthalb bis 3 Monate! Pollenallergiker klagten seit Mitte Dezember über Beschwerden, doch ist dies keine Folge des „Klimawandels“, sondern eine Folge der ungünstigen Wetterlagenverteilung: Viel mildes Süd- und Westwetter im Frühwinter, dann kälteres Nordwetter im Spätwinter. Unter http://www.eike-klima-energie.eu/climategate-anzeige/extremes-winterwetter-in-europa-der-waermeinseleffekt-und-das-maerchen-vom-co2-treibhauseffekt-teil-1-die-gegenwaertigen-witterungsextreme-und-wesentliche-hintergruende-der-erwaermung-in-deutschland/ hatten wir über die Ursachen dieser Witterungsextreme berichtet.

Abb. 10: Quälgeist Haselkätzchen: Von den allerersten Blüten (5. Dezember) bis zu den allerletzten (um den 31. März) vergingen diesmal in Weimar rekordverdächtige 118 Tage. Foto: Stefan Kämpfe

Fazit: Der Frühling beginnt seit 30 Jahren etwas später, weil die Temperaturen der Monate Februar und März laut den Temperaturerhebungen des Deutschen Wetterdienstes gleichbleibend oder sogar leicht sinkend sind. Und weil auch die Temperaturen im Winter stagnierten, lässt sich ebenfalls kein zeitigerer Vegetationsbeginn beobachten.

Gehen wir noch 10 Jahre weiter zurück in die Vergangenheit. Da ab dem Jahr 1977 fünf wärmere Märzmonate folgten, ist die Trendlinie des Monates März schon seit 40 Jahren fast ausgeglichen. Würden sich Pflanzen nur nach den Temperaturen richten, dann müsste die Forsythie dieses Jahr den gleichen Blütenbeginn wie um 1977 haben, falls nicht andere Faktoren wie winterharte Züchtungen auf die Pflanzen Einfluss gewonnen haben. In der freien Fläche und im Erzgebirge müsste die Verspätung deutlich erkennbar sein.

Abb. 11: Der erste Frühlingsmonat März zeigt laut Temperaturangaben des Deutschen Wetterdienstes schon seit 40 Jahren eine fast ebene Trendlinie. Die Erwärmung dieses Monates hörte schon vor 40 Jahren fast auf. Der Monat März ist somit der Monat, der am längsten sein Temperaturniveau hält und nicht mehr wärmer wird. Wärmeinselbereinigt würde er sogar eine leichte Abkühlung zeigen.

Wir möchten hier ausdrücklich betonen, dass die CO2-Konzentrationen in dem Zeitraum der letzten 30 bis 40 Jahre besonders gestiegen sind. Die Temperaturen Deutschlands halten sich nicht daran.

Warum können wir gegen die Erwärmungsfalschbehauptungen der Medien und des DWD nicht gerichtlich vorgehen? Die Führungsriege des DWD argumentiert schließlich gegen die eigenen Daten.

Die Antwort zeigt die letzte Grafik. Nahezu jeder Monat verhält sich über einen längeren Zeitraum wie der Monat März. Im letzten Jahrhundert gab es zwei Temperaturhöhen und eine Kältedelle um die Jahrhundertmitte

Abb.12: Um die Mitte des letzten Jahrhunderts war der März genauso wie die anderen Monate kälter als heute, auch kälter als in den 20er Jahren. Die Daten sind die Originaldaten des Deutschen Wetterdienstes, also nicht einmal wärmeinselbereinigt.

Im Zeitraum seit 1911 ist die CO2-Konzentration natürlich ständig gestiegen. Allein diese Grafik zeigt, dass der Erwärmungsglaube CO2-Treibhauseffekt nicht richtig sein kann.

Zum Temperaturvergleich ziehen sowohl DWD als auch die CO2-Erwärmungsgläubigen mitsamt den Medien immer die etwas tieferen Temperaturen der Jahrhundertmitte oder der 60er Jahre als Betrachtungszeitraum heran. Und die waren nun einmal kälter als heute, aber auch kälter als zu Beginn des letzten Jahrhunderts. Ironischerweise wird dieser Zeitpunkt des Kältelochs auch noch als „Normal“ bezeichnet. Ein Diagramm mit dem Startjahr beispielsweise 1966 zeigt deshalb eine 50ig jährige steigende Trendlinie bis heute. In Wirklichkeit sind es aber ein 20ig -jähriger Anstieg und seit 1987 ein 30ig -jähriger Stillstand bzw. wärmeinselbereinigt ein leichter Abfall. Lohnt es sich deshalb, vor Gericht zu gehen? Denn die Aussage, vor 50 Jahren waren die Winter, einschließlich März kälter als heute, würde sogar stimmen. Verschwiegen wird nur der Stillstand seit 30 Jahren.

Josef Kowatsch, Naturbeobachter und unabhängiger Klimaforscher

Stefan Kämpfe, Diplom- Agrar- Ingenieur, Naturbeobachter und Klimaforscher




Wider die Panikmacher! Terroralarm? Wie sicher ist Atomenergie in der Ära IS?

Das sind zum einen Fragen zur Sicherheit kerntechnischer Anlagen, zum anderen aber auch Fragen zum Phänomen der gefühlten Sicherheit in einer kernenergienutzenden Gesellschaft. Denn dieses Sicherheitsempfinden ist es, das die Terroristen neben Flughäfen, Bahnhöfen, Museen, Supermärkten und Cafés ins Visier nehmen. Und die Sinnverbindung von »Terror« und »Atom« ist in der Lage, schon durch ihre bloße Andeutung eine Gesellschaft wie die deutsche in Angst und Schrecken zu versetzen. Haben die Terroristen also schon gewonnen? Oder sollten wir nicht vielmehr versuchen, dem Terror seinen psycho-politischen Nährboden zu entziehen, indem wir die Gefährdung unserer Kernkraftwerke historisch einordnen und aktuell mit kühlem Kopf einschätzen?

Deutschland 1986: Der erste Mord an einem Repräsentanten der Atomindustrie

Seit den 1970er Jahren nutzen viele europäische Gesellschaften die Kernenergie in großindustriellem Maßstab – und ebenfalls seit den 1970er Jahren sind viele der kernenergienutzenden Länder auch von international agierendem politischem Terrorismus betroffen. Damals waren es Palästinenser im Verbund mit linksextremen Terroristen, keine religiösen Fanatiker, aber die Frage nach der kerntechnischen Sicherheit vor Terrorangriffen stellte sich schon damals. In dieser Problematik wurzelte auch die Diskussion um den sogenannten »Atomstaat«, also um die Frage, ob die Sicherung kerntechnischer Anlagen vor illegaler Proliferation und terroristischen Angriffen nicht am Ende zur Außerkraftsetzung der Grundrechte zunächst der Beschäftigten in der Atomindustrie und schließlich auch der Gesamtgesellschaft führe (Robert Jungk, Alexander Rossnagel). Nach dem Schock der Terrorangriffe vom 11. September 2001 konnten wir die befürchtete Aushöhlung vorher selbstverständlicher Grundrechte in den USA beobachten. Seitdem der IS-Terror in europäischen Metropolen wütet, geht die Diskussion bei uns in dieselbe Richtung – auch ohne die Frage der Kernenergiesicherheit.

Ganz konkret rückten leitende Beschäftigte der kerntechnischen Industrie schon in der Vergangenheit in den Fokus sowohl der Strafverfolgung als auch der Terroristen. Klaus Traube, Geschäftsführender Direktor der Firma Interatom, verlor infolge einer Terror-Denunziation 1976 seinen Arbeitsplatz. Der Lauschangriff auf ihn wurde Anlass eines der großen bundesdeutschen Skandale, in dessen Verlauf Innenminister Werner Maihofer 1978 zurücktreten musste. Der Physiker und Siemens-Manager Karl Heinz Beckurts wurde von der Roten Armee Fraktion 1986 explizit als Repräsentant der »Atomindustrie« angegriffen und zusammen mit seinem Fahrer ermordet.

Schon die semantische Kombination der  Wörter „Atom“ und „Terror“ löst Panik aus

Die Sicherheitsdiskussion ist weder neu noch auf die Kernenergiefrage beschränkt. Gleichwohl löst allein schon die Kombination der semantischen Felder »Atom« und »Terror« in unserer Gesellschaft Angst und Schrecken aus. Zuverlässiges Anzeichen für diesen Zustand ist – wie immer beim Diskutieren um die Kernenergie in unserem Land – eine unpräzise, stellenweise hysterische Sprache und ein Einsatz von Maximalforderungen.

Dass die belgischen Anlagen Tihange und Doel wegen der Terrorgefahr »evakuiert« worden seien, hört sich eben sehr viel dramatischer an, als wenn man berichtete, dass beim Inkrafttreten von Terrornotfallplänen in Belgien prinzipiell das Tages- und Fremdpersonal das Anlagengelände verlassen muss, während die Betriebsschichten und die Bereitschaftsdienste die weiterlaufende Anlage betreuen – genau wie an den Wochenenden.

Viele assoziieren mit dem Begriff »Evakuierung« jedoch, dass im Kraftwerk bereits ein Schaden angerichtet worden sei. Und im nächsten Atemzug wird diese Begrifflichkeit mit den – sprachlich und sachlich ebenso nachlässigen – Berichten der Vergangenheit über die belgischen "Rissreaktoren" verquickt. Stellt sich dann noch heraus, dass tatsächlich ein Islamist Zugang zu einem nuklearen Kontrollbereich hatte, dann ist das Resultat ein zündfähiges Angstgemisch made in Germany. Am Ende steht die Maximalforderung, alle Kernkraftwerke wegen einer nicht mehr zu kontrollierenden Terrorgefährdung vom Netz zu nehmen.

Vielschichtige Risikoeinschätzung

Um die tatsächliche Gefährdung nüchtern einzuschätzen, muss man das hochkomplexe Gesamtproblem, in dem sich viele Fragestellungen überlagern, auseinandernehmen und Stück für Stück bewerten. Im Wesentlichen muss man sich fünf Fragen stellen:

1.     Sind Terroristen in der Lage, Materialien und/oder Werkzeuge für den Bau primitiver Nuklearwaffen oder sogenannter Schmutziger Bomben, bei denen Radionuklide mittels eines konventionellen Sprengsatzes freigesetzt werden, aus Kernkraftwerken zu entwenden?

2.    Können Terroristen durch einen Angriff von außen – etwa mit einem gekaperten Verkehrsflugzeug oder mit Kriegswaffen – ein Kernkraftwerk in einen nicht mehr beherrschbaren Unfall treiben

3.    Sind Mitglieder terroristischer Vereinigungen oder fanatische Einzeltäter in der Lage, als Innentäter in einem Kernkraftwerk schwere Schäden anzurichten?

4.    Können Terroristen mittels Erpressung von (leitendem) kerntechnischem Personal in die Lage versetzt werden, eines der oben aufgelisteten Szenarien in die Tat umzusetzen?

5.    Können Terroristen auf cyberkriminellem Wege die IT-Systeme und Maschinensteuerungen eines Kernkraftwerks derart beschädigen, dass es zu einem nicht beherrschbaren Unfall kommt?

Die kanadische Kommunikationswissenschaftlerin Suzanne Waldman hat sich einschlägiges Material über die Terrorrisiken von Kernkraftwerken angeschaut und kommt zu nachdenklichen, aber keinesfalls krass beunruhigendenSchlussfolgerungen, die ich hier mit einigen weiteren Überlegungen anreichere.

Kernwaffen aus Kernkraftwerken sind umständlich

So wird das Risiko des Baus und erfolgreichen Einsatzes einer primitiven Kernwaffe aus Materialien, die aus der zivilen Kerntechnik stammen, von Experten als verschwindend gering eingestuft: Terroristen wählen den effizientesten Weg zur Maximierung des Schadens. Der Bau einer primitiven Kernwaffe ist aber ein für die Täter sehr umständlicher und risikoreicher Weg mit ungewissem Ausgang. Er erfordert außerdem viele technische Hilfsmittel, welche außerhalb einer spezialisierten Laboreinrichtung nicht zu haben sind. Der in den Trockenlagern der zivilen Kernkraftwerke vorgehaltene frische, unbestrahlte nukleare Brennstoff eignet sich wegen seines niedrigen Anreicherungsgrades überhaupt nicht für den Bombenbau. Die Entwendung hochaktiver abgebrannter Brennelemente würde eher den baldigen Tod der Terroristen als eine erfolgreiche Verwendung als Waffe bedeuten – abgesehen davon, dass man für das Umladen und Ausschleusen dieser schweren und unhandlichen Gegenstände eine Menge technischer Ausrüstung und mehrere Prozessbediener mit Spezialausbildung braucht.

Schmutzige Bomben: Medizinischer Bereich eher im Visier

Schmutzige Bomben wiederum kann man mit Materialien aus der Nuklearmedizin eher bauen als mit den Stoffen und Werkzeugen, mit denen man im Kernkraftwerk umgeht. Das wirft allerdings Fragen nach der Sicherung unserer Alltagskerntechnik auf, die jenseits gut gesicherter Kraftwerksgelände in der medizinischen und wissenschaftlichen Anwendungs- und Verwertungskette genutzt wird. Der Fall des ausgeforschten Leiters einer Anlage, die auf die Produktion von Radionukliden für den medizinischen Gebrauch spezialisiert ist, lässt daher aufhorchen. Da wir aber die Frage zu beantworten haben, ob mit der Terrorgefahr die Abschaltung unserer oder der belgischen Kernkraftwerke zu rechtfertigen wäre, ist dieser Fall gesondert zu behandeln. Mit der Nutzung der Kernenergie zur Stromerzeugung hat er ja wenig zu tun.

Angriff aus der Luft: Pulverisierung des Flugzeugs nicht des AKW

Ähnlich unwahrscheinlich schätzen die Sicherheitsstudien einen erfolgreichen kriegsähnlichen Angriff von außen ein, etwa durch den Versuch, ein Verkehrsflugzeug in ein Reaktorgebäude zu steuern oder dieses mit panzerbrechenden Waffen zu beschießen, um eine Kernschmelze auszulösen. Abgesehen von der Schwierigkeit des Zielanflugs auf ein niedrig gelegenes, kompaktes Objekt scheitern solche Angriffe an der Physik des Reaktorgebäudes und der gegen dieses eingesetzten Mittel. Ein Verkehrsflugzeug weist eine weit höhere Verformbarkeit und eine geringere Dichte auf als ein Reaktorgebäude. Ein Einschlag würde daher in der Pulverisierung des Flugzeugs enden, nicht in der des Reaktorgebäudes. Auch ein Beschuss vom Boden erfordert hohen Aufwand:  Um auf diese Weise von außen schwere Schäden an einem Reaktorgebäude anzurichten, brauchten Terroristen vermutlich mindestens schwere Artillerie mit bunkerbrechenden Geschossen.

Sabotage der Stromnetzanbindung: Ersatz im Standby-Modus

Bleibt der Angriff auf die elektrischen Netzanbindungen eines Kernkraftwerks. Der ist auch ohne einen Angriff auf das Kraftwerksgelände denkbar, etwa durch die Sprengung der Verbindung zum Landesnetz, in das das Kernkraftwerk einspeist (bei uns das 380-kV-Netz) und zum Fremdnetz (110 kV), das als Reservenetz dient. Für diesen sogenannten Notstromfall sind europäische Kernkraftwerke jedoch bestens gerüstet – mit mehrfach redundant ausgelegter und gesichert untergebrachter Notstromversorgung, verbunkerten Notspeisegebäuden, üppigen Dieselvorräten für die Notstrom- und Notspeisenotstromaggregate, in einigen Fällen auch mit einer weiteren Netzreserve über 30-kV-Erdkabel.

Angriffe von innen: Technisch und logistisch schwer überwindbares System

Viel ernster zu nehmen erscheint die Möglichkeit, dass ein terroristischer Innentäter in einem Kernkraftwerk Schaden anrichtet, etwa im Verlauf einer sich über Jahre hinziehenden persönlichen Radikalisierung, die aus dem freundlichen Kollegen einen unerbittlichen Islamisten macht. Aber auch in diesem Falle sprechen sowohl die bisher gemachten Erfahrungen aus rund 16.000 Reaktorbetriebsjahren als auch die vorhandenen Sicherheitsvorkehrungen eine andere Sprache. Denn führt man sich Komplexität der Anlage und die gestaffelten Sicherheitsvorkehrungen vor Augen, ist es unmöglich, als Innentäter den von Terroristen erwünschten maximalen Effekt zu erzielen, nämlich den schweren, nicht mehr beherrschbaren Unfall. Aus naheliegenden Gründen machen Behörden und Betreiber keine Detailangaben über die Technologie und Ausführung bestimmter Sicherheitsvorkehrungen, beispielsweise zur äußeren Sicherung der Anlage und der Personenkontrolle. Technologisch wiederum ist anzumerken, dass alle sicherheitsrelevanten anlagentechnischen Prozesse von Innentätern zwar punktuell beeinflussbar wären. Sie können aber nicht so weit modifiziert werden, dass es zu einem unbeherrschbaren Unfall führt. Ziel bei der Auslegung deutscher Kernkraftwerke war es jedenfalls, es für einen Einzeltäter innerhalb der Anlage unmöglich zu machen, durch Sabotage gravierenden Schaden anzurichten; für eine Gruppe sollte es zumindest schwierig sein.

An einem sicherheitsrelevanten Eingriff in die Systeme eines Kernkraftwerks müssten stets mehrere Personen beteiligt sein. Anders lässt sich der überhaupt nicht bewerkstelligen. Begrenzungs- und Schutzautomatiken sorgen beim Über- oder Unterschreiten von festgelegten Parametern oder bei mutwillig fehlerhaften Schalthandlungen für eine Blockade der Handlung und/oder die Rückführung der Anlage auf die Sollwerte. Sicherheitsrelevante Armaturen und Aggregate sind durch Zusatzvorkehrungen gegen unautorisierten Eingriff abgesichert und plombiert.

Sollten Komponenten durch einen gewaltsamen Eingriff ausfallen, bewegt sich die Gesamtanlage stets in die sichere Richtung, das heißt es kommt im schlimmsten Fall zu einem hohem ökonomischen Schaden, womöglich auch zur Verletzung Einzelner. Die Anlage selbst aber würde durch automatische Verfahren in einen stabilen Zustand gebracht, als ultima ratio durch Reaktor- und Turbinenschnellabschaltung. Alle wichtigen Systeme sind redundant und räumlich getrennt ausgelegt, so dass ein Einzeldefekt oder ein räumlich begrenzter schwerer Schaden – auch ein absichtlich herbeigeführter – zum einen nicht zu einem schweren Unfall führen kann, zum anderen aber frühzeitig bemerkt würde.

Auch für diesen Fall gibt es ein belgisches Beispiel, den vermutlichen Sabotageakt an der Turbinenanlage von Doel 4, die 2014 infolge mutwilligen Entleerens des Ölversorgungssystems schwer beschädigt wurde. Jedoch wurde der Kernreaktor im betroffenen Block sicher abgefahren.

Cyberterrorismus: Analoge Systeme setzen Grenzen

Bleibt die Frage nach dem Cyberterrorismus, einem von außen oder innen unternommenen Angriff auf die Prozessleitsysteme eines Kernkraftwerkes. Auch in diesem Bereich bleiben Betreiber und Behörden zurückhaltend mit Informationen. Es ist in der Literatur bekannt, dass es erfolgreiche Hackings von Maschinensteuerungen großer Industrieanlagen gegeben hat, inklusive jenes berühmt-berüchtigten Stuxnet-Angriffs auf iranische Urananreicherungsanlagen. Europäische Kernkraftwerke waren dem Vernehmen nach noch nicht von solchen Angriffen betroffen. Abgesehen von den – öffentlich nicht diskutierten – IT-Schutzpolitiken der Kernkraftwerke, die sich mit diesem Problem auseinandersetzen, ist festzustellen, dass die Digitalisierung im Kernkraftwerk und damit der Einfallspfad für Terroristen bestimmte Grenzen hat.

So wird in den sicherheitsrelevanten Bereichen von Kernkraftwerken, die in den 1980er Jahren errichtet wurden, etwa im Reaktorschutz hauptsächlich analog gearbeitet. Das schützt die Systeme vor digitalen Attacken. Dort, wo in Messtechnik und Prozesssteuerung digitale Systeme verwendet werden, verzichtet man bewusst auf speicherprogrammierbare Steuerungen (SPS), die anfällig für Attacken wie die von Stuxnet sind. Vielmehr setzt man auf moderne Formen verbindungsprogrammierter Steuerungen (VPS), die im laufenden Betrieb nicht umprogrammiert werden können. Auch diese Steuerungen sind jedoch nicht gegen mögliche Manipulationen durch einen kompetenten Innentäter gefeit. Dagegen helfen nur weitere Sicherheitsmaßnahmen wie das Vier-Augen-Prinzip bei Arbeiten an solchen Systemen und die lückenlose Kontrolle auch bei Komponenten-Zulieferern.

Prinzipiell ist festzustellen, dass Cyberkriminalität gegenwärtig vor allem von Geheimdiensten mit dem Ziel der Industriespionage genutzt wird. Fälle von islamistischen Cyberangriffen auf nukleare Anlagen sind mir nicht bekannt. Vermutlich erscheinen solche Angriffe wegen der benötigten Qualifikationen und Mittel, die in ungünstigem Verhältnis zum erwartbaren »Ertrag« stehen, aus Sicht islamistischer Terroristen weniger effizient als die Attacke auf weit weniger gesicherte Ziele, wie etwa Flughäfen, Bahnhöfe oder Chemieanlagen.

AKW’s wegen Terror abschalten? Dann müsste auch der Flugverkehr abgeschafft werden

Legt man also die klassische Formel »Risiko gleich Schadenshöhe mal Eintrittswahrscheinlichkeit« zugrunde und vergleicht das hier in Umrissen skizzierte tatsächliche Terrorrisiko der Kernenergienutzung mit dem potenziellen Schaden durch einen sofortigen Kernenergieausstieg (Klimaschädlichkeit der fossilen Ersatzkraftwerke, zusätzliche Tote durch Atemwegs- und Herz-Kreislauf-Erkrankungen, Landschaftsverbrauch durch regenerative Energieumwandlung), dann müsste man sich zugunsten der Kernenergienutzung entscheiden. Man kann hinzufügen: eine Abschaltung der Kernkraftwerke aus Angst vor einer potenziellen Terrorgefahr gleicht einem Selbstmord aus Angst vor dem Tod. Fordert man diese, so müsste man sich konsequenterweise auch für eine Abschaffung des Flugverkehrs stark machen, denn auf diesem Gebiet haben Terrorangriffe Tausende von tatsächlichen, nicht nur abstrakt-potenziellen Opfern gekostet. Auch andere risikobehaftete Industrieanlagen wie Tanklager und Chemiewerke, die weit weniger gesichert sind als Kernkraftwerke, müssten dann geschlossen werden.

Die unterschätzten Schwachstellen mit Handlungsbedarf

Bevor wir nun aber zu optimistisch in unsere Zukunft schauen, die durch IS-Terror und Kriegshandlungen in Osteuropa (wo es auch Kernkraftwerke gibt) gekennzeichnet ist, sei zum Abschluss auf jene Felder der nuklearen Sicherheit verwiesen, in denen dringender Handlungsbedarf besteht – und die nicht von ungefähr abgekoppelt sind vom Gelände des konkreten Kernkraftwerks. Dazu gehört, wie im belgischen Falle schon angeklungen, auf jeden Fall der Modus der Sicherheitsüberprüfungen: es darf nicht sein, dass Islamisten und andere Extremisten Zugang zu den Sicherheitsbereichen kerntechnischer Anlagen erhalten. Andererseits ist es immer schwierig bis unmöglich, noch nicht straffällig Gewordene mit Hinblick auf ihre künftigen Entscheidungen aufzuspüren. Das ist ein Grundproblem demokratischer Rechtsstaaten, in denen sich eine islamistische Radikalisierung in kaum durchdringbaren Parallelgesellschaften vollzieht. Das bezieht aber auch „ganz normale Jungs“ mit ein. Man braucht also ein nahes Miteinander und große Vertrautheit, um herauszufinden, dass mit dem Kollegen womöglich etwas nicht mehr stimmt.

Und hier berühren wir ein weiteres Handlungsfeld, nämlich die heutige Organisationsstruktur der Nuklearindustrie als solcher. Sie macht es immer schwieriger, Kollegen über lange Zeiträume im Auge zu behalten und sich zu kümmern, wenn jemand in Bedrängnis zu sein scheint oder in die Radikalisierung abdriftet. Im Zuge der Neoliberalisierung der Energiemärkte und der Zerschlagung der quasi-staatlichen öffentlichen Energieversorgung hat sich auch die Arbeitswelt der kerntechnischen Industrie wesentlich verändert – nicht immer zum Guten der Sicherheit.

Während die Kernbelegschaften der Kernkraftwerke immer weiter schlankgeschrumpft und die Arbeitsprozesse rationalisiert wurden, breitete sich die Praxis des Outsourcing, der Subkontraktierung, der Leih- und Vertragsarbeit im Kernenergiesektor rapide aus. Im Ergebnis sehen wir ein hochkomplexes, transnationales Netz verschachtelter Subunternehmen und häufig wechselnder Fremdfirmenpartner der europäischen Kernkraftwerke. Gleichzeitig stieg die Schlagzahl der Arbeitsaufträge enorm, die in immer kürzeren Revisionszeiträumen abgeleistet werden müssen. In einem solchen System gibt es keine Möglichkeit mehr zum Innehalten und Nachhaken. Es ist eine Herausforderung, den Überblick über ein derart stark fluktuierendes und grenzüberschreitend aktives Personal zu behalten.

Man kann diese Praxis nicht von heute auf morgen revidieren, aber man sollte sie überdenken. Sie stellt uns in einer Ära der Unsicherheiten zweifelsohne vor größere Probleme als die Instandhaltung durch Eigen- und Ortspersonal, wie sie beispielsweise in osteuropäischen Ländern bis heute betrieben wird, auch wenn sie kostenträchtiger ist und sich auf die Verfügbarkeit der Anlagen merklich auswirkt.

Terroristen sind ökonomisch denkende Schwerverbrecher

IS-Terroristen sind ökonomisch denkende Schwerverbrecher. Sie machen Kosten-Nutzen-Rechnungen auf. Aus ihrer Perspektive ist ein Kernkraftwerk ein eher nicht lohnendes Ziel. Seine gestaffelten Sicherheitsvorkehrungen bedeuten für Terroristen ein hohes eigenes Risiko und hohen Aufwand bei ungewissem „Erfolg“. Andererseits ist aber der Diskurs um das Kernkraftwerk ein durchaus lohnendes Ziel für Terroristen. Sie greifen die Schwachstellen offener Gesellschaften an. Sie wählen möglichst weiche, wehrlose Ziele, wenig gesicherte öffentliche Bereiche, um einen maximalen „Ertrag“ an Opfern und an Schreckensverbreitung zu erzielen.

Zum Repertoire terroristischer Praktiken gehört daher auch die Verbreitung von Angst vor unwahrscheinlichen, aber sehr großen Gefahren. Wenn allein schon die Möglichkeit (nicht: die Erfolgswahrscheinlichkeit) eines terroristischen Angriffs auf ein Kernkraftwerk unsere Gesellschaft in Angst und Schrecken zu versetzen vermag, dann haben die Terroristen bereits einen Teilerfolg erzielt. Die Aufgabe einer offenen, demokratischen Gesellschaft ist es, Terroristen die Ernte des Todes und den Ertrag des abstrakten Schreckens so sauer und so knapp wie möglich zu machen. Wer wider besseres (Experten-) Wissen aus Kernenergie und Terror diskursiv ein Feld des Schreckens erzeugt, der kapituliert vor dem Terror, statt unsere Welt sicherer zu machen.

Dr. Anna Veronika Wendland forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte.

Dieser Beitrag erschien zuerst auf der website Nuklearia. Der Verein Nuklearia e.V. ist gemeinnützig und ganz bewusst partei- und konzernunabhängig. Entstanden ist er aus der AG Nuklearia der Piratenpartei. Er veröffentlicht Sachinformationen zu Kernkraft, Strahlung und ähnlichen Themen.

Literatur

Robert Jungk, Der Atom-Staat. Vom Fortschritt in die Unmenschlichkeit, München 1977
Alexander Rossnagel, Radioaktiver Zerfall der Grundrechte? Zur Verfassungsverträglichkeit der Kernenergie, München 1984
Suzanne Waldman, Examining the Risks of Nuclear Terrorism, 2014-11-22
James L. Ford, Radiological Dispersal Devices, März 1998, Air University
United Nations, General Assembly Official Records, Sixty-eighth session, Supplement No. 46, Report of the United Nations Scientific Committee on the Effects of Atomic Radiation, Sixtieth session, (27-31 May 2013)
New York State, Department of Health, Dirty Bombs, Februar 2011
The New York Times, Nuclear Reactors as Terrorist Targets, 2002-01-21
Wikipedia, Chaïm Nissim, 2014-09-11
Robert Wilson, A Case Study in how Junk Science is Used by Anti-Nuclear Environmentalists, 2014-10-28, The Energy Collective
World Nuclear Association, Safety of Nuclear Reactors, August 2015
Wikipedia, Stuxnet, 2016-02-29
Anna Veronika Wendland, Belgische Rissreaktoren: Wie sicher sind Tihange 2 und Doel 3?, 2016-02-04, Nuklearia
Diarmaid Williams, Electrabel confirms Doel 4 nuclear power plant sabotage, 2014-08-15, Power Engineering International

Übernommen von Nuklearia hier 




Kollaps des CAGW-Wahns: Nach 2020 nicht mehr haltbar

1. Die Probleme des IPCC mit Globalen Vorhersagemodellen

Harrison und Stainforth schreiben hier:

Dem Reduktionismus zufolge sind deterministische Annäherungen an die Wissenschaft und positivistische Ansichten von Kausalität geeignete Verfahren, um komplexe, multivariable Systeme zu erkunden … wobei das Verhalten eines komplexen Systems abgeleitet werden kann aus dem fundamentalen reduktionistischem Verständnis. Große komplexe Systeme können besser verstanden werden und vielleicht nur verstanden werden hinsichtlich beobachtetem auftretendem Verhalten. Die praktische Auswirkung ist, dass es Verhaltensweisen des und Strukturen im System gibt, die mit Erklärungen oder Prophezeiungen durch reduktionistische Verfahren nicht zugänglich sind … das Globale Zirkulationsmodell GCM ist die numerische Lösung eines komplexen, jedoch rein deterministischen Satzes nichtlinearer Differentialgleichungen über ein definiertes zeitliches und räumliches Netz, und kein Versuch wird unternommen, irgendeine Quantifizierung der Unsicherheit in das System einzuführen … Das reduktionistische Argument, dass großräumiges Verhalten repräsentiert werden kann durch kumulierende Effekte von Prozessen in kleinerem Scale wurde im Zusammenhang mit natürlichen umweltlichen Systemen niemals validiert.

Das Modellierungs-Verfahren ist inhärent wertlos bei der Vorhersage zukünftiger Temperaturen mit irgendeiner berechenbaren Sicherheit, und zwar wegen der Schwierigkeit, die initialen Bedingungen zu spezifizieren in einem hinreichend engmaschigen räumlichen und zeitlichen Netz einer großen Anzahl von Variablen mit hinreichender Präzision vor multiplen Iterationen. Mehr dazu hier und hier.

In Abschnitt IPCC AR4 WG1 8.6 geht es um Antriebe, Rückkopplungen und Klimasensitivität. Die Unzulänglichkeiten der Modelle werden erkannt. Die Schlussfolgerungen finden sich in Abschnitt 8.6.4, wo es unter Anderem heißt:

Außerdem ist noch nicht klar, welche Tests kritisch sind hinsichtlich der Zukunfts-Projektionen, konsequenterweise mit einem Satz von Modellmetrik, der herangezogen werden könnte, um die Bandbreite plausibler Klimawandel-Rückkopplungen und der Klimasensitivität einzuengen. Ein solcher Satz muss noch entwickelt werden“.

Was könnte klarer sein. Im Jahre 2007 sagte das IPCC selbst, dass es noch nicht einmal weiß, welche Metriken man in die Modelle stecken muss, um ihre Zuverlässigkeit zu testen (d. h. wir wissen nicht, wie die Temperatur in der Zukunft sein wird, und wir können nicht die Klimasensitivität hinsichtlich CO2 berechnen). Dies enthält außerdem die Frage, welche irrigen Hypothesen (z. B. dass CO2 der Haupt-Klimatreiber ist) in die „plausiblen“ Modelle eingegangen sind, die auf irgendeine Weise getestet werden sollen.

Selbst das IPCC hat jetzt aufgegeben, die Klimasensitivität CS zu schätzen – im AR5 heißt es (versteckt in einer Fußnote):

Kein Best Estimate für die Gleichgewichts-Klimasensitivität kann angegeben werden wegen fehlender Übereinstimmung bei Werten über abgeschätzte Beweislinien und Studien hinweg“.

Paradoxerweise behaupten sie immer noch, dass das UNFCCC eine gewünschte Temperatur einstellen kann mittels Kontrolle des CO2-Niveaus. Dies ist so extrem unsinnig, dass es irrational ist. Es gibt keine empirischen Beweise dafür, dass das CO2 mehr als nur vernachlässigbare Auswirkungen auf die Temperaturen hat.

Was genauso wichtig ist: Die Klimamodelle, auf denen der gesamte CAGW-Wahn beruht, sind strukturiert ohne jede Berücksichtigung der natürlichen Periodizitäten über ±60 und – noch wichtiger – 1000 Jahre (beobachtetes Verhalten), welche sich so deutlich in den Temperaturaufzeichnungen zeigen. Das Verfahren der Modellierer ist einfach nur eine wissenschaftliche Katastrophe, dem sogar jeder gesunde Menschenverstand fehlt. Es ist genauso, als ob man die Temperaturentwicklung von Februar bis Juli nimmt und diese linear 20 Jahre oder so in die Zukunft projiziert. Die Modelle sind nur für weniger als 100 Jahre zurück ausgelegt, während doch der relevante Zeitrahmen Jahrtausende beträgt.

Abbildung 1: (überarbeitet {grüne Linie hinzugefügt} von Syun_Ichi Akasofu) aus: http://www.scirp.org/journal/PaperInformation.aspx?paperID=3217

Bildinschrift: Die Abbildung zeigt, dass der lineare Trend zwischen 1880 und 2000 eine Fortsetzung der Erholung aus der Kleinen Eiszeit ist, zusammen mit der überlagerten multidekadischen Oszillation. Sie zeigt auch den vom IPCC prophezeiten Temperaturanstieg nach dem Jahr 2000. Es wird angenommen, dass die Erholung aus der Kleinen Eiszeit sich bis zum Jahr 2100 fortsetzen wird, zusammen mit der überlagerten multidekadischen Oszillation. Dies könnte den Stopp der Erwärmung nach dem Jahrtausendwechsel erklären. Die im Jahre 2008 gemessene Temperatur wird mit einem roten Punkt dargestellt mit einem grünen Pfeil. Das IPCC hat vorgegeben, dass der Anteil der dicken blauen Linie hauptsächlich dem Treibhauseffekt geschuldet ist, so dass deren Zukunfts-Prophezeiung eine Art Ausdehnung der blauen Linie ist. – Ende der Bldinschrift.

Abbildung 1 vergleicht die IPCC-Vorhersage mit der Vorhersage aus der Akasofu-Studie und mit der einfachen, aber höchst ökonomischen Arbeitshypothese dieses Beitrages (grüne Linie), dass nämlich der Spitzenwert um das Jahr 2003 der jüngste Spitzenwert im Milleniums-Zyklus ist, der so offensichtlich aus den Temperaturdaten hervorgeht. Die Daten zeigen außerdem, dass der gut dokumentierte 60-Jahre-Temperaturzyklus zufällig etwa zur gleichen Zeit seinen Spitzenwert erreicht.

Die Temperatur-Projektionen der Modelle des IPCC und des UK Met.-Office sowie alle Studien bzgl. der Auswirkungen, die sich daraus ableiten, haben in der empirischen Wissenschaft keine solide Grundlage, sind sie doch aus inhärent nutzlosen und im Besonderen strukturell falschen Modellen abgeleitet. Sie sind keine Grundlage für die Diskussion über zukünftige Klimatrends und repräsentieren eine gewaltige Verschwendung von Zeit und Geld. Als Grundlage für die Klima- und Energiepolitik der Regierungen muss man diese Vorhersagen als umfangreich falsch und daher schlimmer als nutzlos ansehen.

Ein neues Vorhersage-Paradigma muss her.

2. Die Vergangenheit ist der Schlüssel zu Gegenwart und Zukunft. Herausfinden, wie man die natürlichen Quasi-Periodizitäten vorhersagen kann, die das Erdklima regieren – die geologische Annäherung

2.1 Allgemeine Prinzipien

Die Kern-Kompetenz in den geologischen Wissenschaften ist die Fähigkeit, die sich mit Zeit und Raum ändernden Verteilungen von Ereignissen zu erkennen und zu korrelieren. Dies erfordert eine Denkweise und vielfältige Erfahrung, die sich sehr unterscheidet von der reduktionistischen Annäherung an die Natur, welche jedoch angemessen und notwendig ist, um das Klima der Vergangenheit zu untersuchen und zukünftige Klimatrends vorherzusagen. Wissenschaftler und Modellierer mit physikalischem und mathematischem Hintergrund haben wenig Erfahrung, multiple und oft fragmentarische Datensätze multipler Variablen miteinander zu korrelieren.

Es ist notwendig, das Verständnis dieser Vorgänge zu entwickeln, ebenso wie ein Narrativ allgemeiner Trends aus der tatsächlichen individuellen lokalen und regionalen Zeitreihe bestimmter Variablen. Das Erdklima ist das Ergebnis von Resonanz und Berührungen verschiedener quasi-zyklischer Prozesse mit variierender Wellenlänge.

Die Zukunft vorherzusagen ist nicht möglich, solange wir nicht verstehen, wo sich die Erde gerade befindet relativ zu den gegenwärtigen Phasen dieser unterschiedlichen und in Wechselwirkung stehenden natürlichen Quasi-Periodizitäten, die sich in zwei Hauptkategorien unterteilen:

a) Die orbitalen langwelligen Milankovitch-Zyklen, also Exzentrizität, Schiefe und Präzession, welche moduliert werden durch

b) Solare „Aktivitäts“-Zyklen in möglichen Zeitrahmen von vielen Jahrtausenden, Jahrtausenden, Jahrhunderten und Jahrzehnten.

2.2 Die gegenwärtige Erwärmung in Relation zu den Milankovitch-Zyklen:

Abbildung 2 (aus Wiki-Milankovitch)

Wir haben den Höhepunkt der jüngsten Zwischeneiszeit-Erwärmung überschritten (Abbildung 2) mit einem abnehmenden Trend während der letzten 3500 Jahre (Abbildung 3).

2.3 Die Quasi –  Millennial Solar Cycle -Periodicity:


Abbildung 3: (von http://www.climate4you.com/). Siehe auch den Übersichts-Abschnitt von Humlum)

Man beachte die Spitzen vor 10.000; 9000; 8000; 7000; 2000 und 1000 Jahren vor heute und dann die jüngste Spitze um das Jahr 900, die sich klarer in Abbildung 4 zeigt, und diejenige das Jahres 2003 in Abbildung 5.


Abbildung 4: (Christiansen and Ljungqvist 2012 (Fig 5)   http://www.clim-past.net/8/765/2012/cp-8-765-2012.pdf)


Abbildung 5

Den Abbildungen 4 und 5 zufolge erstreckt sich der jüngste Milleniums-Zyklus von etwa 900 bis 2003, also über 1013 Jahre. Dies ist bemerkenswert konsistent mit der Periodizität von 1024 Jahren, die sich in der Analyse der Wellenlänge der Sonnenaktivität abzeichnet (hier). Es ist von Interesse, dass die quasi-millenialen Spitzen in Abbildung 3 aus Grönland stammen, während die 1024-Jahre-Periodizitäten in Abbildung 6 aus der Antarktis stammen:

Abbildung 6

2.4 Der quasi-milleniale Temperaturzyklus – Amplitude

Eine nützliche empirische Schätzung der Amplitude des millenialen Temperaturzyklus‘ auf der Nordhemisphäre kann man mit dem über 50 Jahr gleitenden Mittel (rote Kurve in Abbildung 4) vornehmen. Sie beträgt etwa 1,7°C vom Spitzenwert um das Jahr 900 bis zum Minimum um das Jahr 1640 während der Kleinen Eiszeit. Dies ist übereinstimmend mit der Schätzung von Shindell, Schmidt, Mann et al. (2001) mit dem Thema [übersetzt] Solarer Antrieb der regionalen Klimaänderung während des Maunder-Minimums (hier).

2.5 Der solare Treiber

Der wichtigste Faktor bei der Klimavorhersage ist, wo sich die Erde hinsichtlich des quasi-millenialen natürlichen solaren Aktivitätszyklus‘ befindet, der eine Periode von 960 bis 1024 Jahren aufweist. Aus Abbildung 4 geht trivial hervor, dass die Erde sich unmittelbar vor oder nach einem Spitzenwert im Milleniums-Zyklus befindet.

Das beste Proxy für die Sonnenaktivität sind die Neutronenzählung und die 10 Be-Daten.

Die allgemeine Zunahme der Sonnenaktivität, die für den Temperaturanstieg seit der Kleinen Eiszeit ursächlich ist, zeigt sich offensichtlich in den 10 Be-Flussdaten im Eisbohrkern zwischen etwa dem Jahr 1700 und dem Ende des 20.Jahrhunderts.

Abbildung 7 (von Berggren et al) http://www.eawag.ch/forschung/surf/publikationen/2009/2009_berggren.pdf

Mein Standpunkt auf der Grundlage der Oulu-Neutronenzählung (Abbildung 8) in Kombination mit den Abbildungen 4, 5, 6 und 7 lautet, dass das milleniale Maximum der Sonnenaktivität im Zyklus 22 um das Jahr 1991 erfolgte.

Abbildung 8.

Es gibt eine variierende Verzögerung zwischen dem Höhepunkt der Sonnenaktivität und dem korrespondierenden Spitzenwert der verschiedenen Temperatur-Metriken. Es gibt eine Verzögerung von 12 Jahren zwischen dem solaren Aktivitäts-Höhepunkt und dem millenialen Temperatur-Spitzenwert, wie aus den RSS-Daten im Jahre 2003 hervorgeht (Abbildung 5).

3. Vorhersagen

3.1 Langfristig

Ich glaube fest an den Wert von Ockhams Rasierer. Daher lautet die einfachste Arbeitshypothese auf der Grundlage der Wichtung aller Daten, dass der milleniale Temperaturzyklus um das Jahr 2003 seinen Spitzenwert erreicht hat und dass sich die allgemeinen Trends von 990 bis 2003 (Abbildung 4) von 2003 bis 3016 wiederholen, wobei der Tiefpunkt der nächsten Kleinen Eiszeit um das Jahr 2640 erreicht werden wird.

3.2 Mittelfristig

Betrachtet man die kürzere ±60-Jahre-Wellenlänge, lautet die einfachste Hypothese, dass der Abkühlungstrend seit 2003 einfach ein Spiegelbild des Anstiegs-Trends ist. Dies wird illustriert durch die grüne Kurve in Abbildung 1, welche Abkühlung bis zum Jahr 2038 zeigt, dann eine leichte Erwärmung bis 2073, gefolgt von einer weiteren Abkühlung bis zum Ende dieses Jahrhunderts.

3.3 Gegenwärtige Trends

Der Abkühlungstrend seit dem millenialen Höhepunkt im Jahre 2003 wird in Abbildung 5 in blau illustriert. Ab dem Jahr 2015 ist der dekadische Abkühlungstrend verschleiert durch den gegenwärtigen El Nino. Der SOI erreichte Ende 2015 seinen Höhepunkt. Die Temperaturspitze läuft dem SOI-Höhepunkt gewöhnlich um 6 bis 7 Monate hinterher, so dass es bis April 2016 zu einer weiteren moderaten Erwärmung kommen kann. Danach jedoch, also von 2017 bis 2019 können wir mit guten Gründen eine Abkühlung erwarten, die mindestens so stark ist wie Abkühlung nach dem El Nino im Jahre 1998, wie es aus Abbildung 5 hervorgeht – etwa 0,9°C.

Erwähnenswert ist, dass die Zunahme der Neutronenzählung im Jahre 2007 (Abbildung 8) eine mögliche Änderung des Sonnen-Regimes zeigt, welche eine unerwartet scharfe Abnahme der RSS-Temperaturen 12 Jahre später erzeugen könnte um das Jahr 2019 auf ein signifikant niedrigeres Niveau, als die blaue Linie in Abbildung 5 zeigt.

4. Conclusions

Zum Schaden des Rufes der Wissenschaft allgemein haben die etablierten Klimawissenschaftler zwei ungeheuerliche Fehler der Beurteilung gemacht mit ihrem Verfahren zur Klimavorhersage und folglich mit ihren Ratschlägen an Politiker in den folgenden SPMs. Erstens, sie stellten ihre Analysen auf die Grundlage von inhärent nicht überprüfbarer und vor allem strukturell falscher Modelle, welche viele fragwürdige Hypothesen enthalten. Zweitens, sie haben vollständig die natürlichen, solar angetriebenen millenialen und multidekadischen Quasi-Zyklen ignoriert. Solange wir nicht wissen, wo wir uns relativ dazu befinden und die Phase des millenialen Zyklus‘ im Einzelnen nicht einbeziehen, ist eine sinnvolle Vorhersage schlicht unmöglich.

Es ist in etablierten Klimakreisen Mode, Klimavorhersage als ein „verzwicktes“ [wicked] Problem darzustellen. Ich würde im Gegensatz dazu den Standpunkt verfechten, dass bei einer Berücksichtigung geeigneter Zeit-Scales und Analyseverfahren dies vollständig machbar ist, so dass mit dem gesunden Menschenverstand folgenden Arbeitshypothesen mit hinreichender Genauigkeit und Erfolgschancen eine Anleitung für die Politik formuliert werden kann.

Falls die wirklichen Ergebnisse den kurzfristigen Vorhersagen in Abschnitt 3.3 oben folgen, dann folgere ich daraus, dass die Position des Establishments nach dem Jahr 2020 nicht mehr haltbar ist. Dies ist hinsichtlich Klima unmittelbar bevorstehend. Der wesentliche Punkt dieses Beitrages lautet, dass der Spitzenwert des Jahres 2003 in Abbildung 1 einen millenialen Spitzenwert markiert, der komplett in allen IPCC-Projektionen ignoriert wird.

Link: http://wattsupwiththat.com/2016/03/24/collapse-of-the-cagw-delusion-untenable-past-2020/

Übersetzt von Chris Frey EIKE




Studie: Äthanol schädigt Maisbauern

RFS wurde vom Kongress als Teil der Energie-Gesetzgebung (Energy Policy Act) im Jahre 2005 aus der Taufe gehoben. Das Äthanol-Mandat wurde von Unterstützern von RFS als ein Weg bejubelt, den Profiten der Landwirte in Mais-Anbaugebieten der USA einen kräftigen Schub zu verleihen.

Aber der Studie von SP und IPE zufolge war das genaue Gegenteil der Fall. Die Forscher zeigen, dass die amerikanischen Steuerzahler allein für direkte Äthanol-Subventionen seit dem Jahr 1980 58 Milliarden Dollar berappt haben, zusätzlich zu den Kosten, die der Wirtschaft durch diese Vorschriften entstanden sind.

Vergleicht man die US-Staaten im ,Maisgürtel‘ der Nation – darunter Eastern Kansas, Eastern Nebraska, Illinois, Indiana Iowa, Southern Michigan, Southern Minnesota, Missouri und Western Ohio – mit den übrigen Gebieten der USA, kommt die Studie zu dem Ergebnis, dass die Bewohner [des Maisgürtels] einen Einkommensverlust erlitten haben, der 20% höher war als die Verluste in der übrigen Nation, und zwar seit Einführung der Verordnung bzgl. Erneuerbarer im Jahre 2005.

Das Pro-Kopf-Einkommen in dem Maisgürtel ist im gleichen Zeitraum um 1942,51 Dollar gesunken, verglichen mit 1614,32 Dollar in den übrigen USA. Die Arbeitslosigkeit im Maisgürtel sank lediglich um 1,41 Prozent, während es in den übrigen USA zu einem Rückgang von 1,89 Prozent gekommen war.

Raffinerien scheitern

In der Studie heißt es weiter, die [Behörden der] Maisgebiete haben oftmals Äthanol-Raffinerien in ihre Landkreise gelockt, und zwar mittels Steueranreizen und speziellen Abkommen, aber die Forscher fanden heraus, dass die Gemeinden schwer geblutet haben, als diese Raffinerien in Schwierigkeiten gerieten. Im Einzelnen benannten die Forscher das Beispiel des VeraSun-Werkes in Dyersville in Iowa. Dieses Werk erhielt einen 20 Jahre währenden Steueranreiz von der Stadt Dyersville, nur um zwei Monate nach Betriebsbeginn wegen der steigenden Maispreise Insolvenz anzumelden. Die steigenden Preise waren die Folge von Provisionen, die der Verordnung zu erneuerbaren Energien innewohnte.

Ryan Yonk, ein Assistenzprofessor an der Utah State University und einer der Leitautoren der Studie sagt, dass VeraSun kein Einzelfall ist. „Die Preise für Mais sind volatil, die Nachfrage nach Benzin fluktuiert, und die Produktion ist stark abhängig von diesen Vorlagen der Regierung – die Anzahl der Raffinerien war einfach zu hoch“.

Er sagte weiter, dass Äthanol-Raffinerien als Folge der Regierungspolitik im Maisgürtel wie Pilze aus dem Boden schossen, aber, wie er erklärte: „Zu viele davon gingen zu schnell in Betrieb, gierten sie doch alle nach den Subventionen der Regierung anstatt auf die Nachfrage am Markt zu reagieren“.

Etwa 10% aller Raffinerien in den USA sind allein im Jahre 2012 stillgelegt worden. „Ob das jetzt permanent ist oder nicht, muss man abwarten, aber es hat mit Sicherheit große Auswirkungen auf die kleinen Städte im Maisgürtel“.

Vorschriften „verzerren die Märkte“

York sagte weiter, dass RFS den Markt im Maisgürtel verzerrt. Er führte aus:

„Anstatt dass in alle andere Bereiche der Diversifizierung von landwirtschaftlichen Erträgen investiert wurde, wurden die Investitionen umgeleitet in den Maisanbau und die Äthanol-Raffinade. Dies macht die Ökonomien dieser Gebiete abhängiger von diesem einzelnen Industriebereich als es auf natürliche Weise der Fall wäre. Als sich dann die Dinge für Mais und Raffinade zum Schlechteren wendeten, waren die Schockauswirkungen auf die lokale Wirtschaft viel größer als auf die US-Wirtschaft insgesamt“.

Yonk sagte, dass die durch RFS verursachte einseitige ökonomische Landschaft im Maisgürtel wahrscheinlich die Ursache für die flauen wirtschaftlichen Umstände der Region ist. „Während sich die übrige Wirtschaft mit einem breiter gefächerten Industriepark erholt, hängt das Schicksal des Maisgürtels in größerem Umfang allein vom Schicksal von Äthanol ab“.

Marita Noon, Direktorin von Energy Makes America Great, ist skeptisch, dass der Gesetzgeber RFS in naher Zukunft aufheben wird. „Das Problem ist, dass Subventionen immer in Multi-Milliarden-Dollar-Senken in Gestalt von Übereinkünften verschwinden, die nachts zwischen beiden Parteien ausgehandelt werden. Ich glaube, dass sich diese Kultur dieser Vorlagen von Washington D. C. Fortsetzen wird“.

Link: http://news.heartland.org/newspaper-article/2016/03/18/study-says-ethanol-harms-corn-counties

Übersetzt von Chris Frey EIKE




EIKE 9. IKEK: Prof. Ewert – Erderwärmung- Was wurde gemessen und wie wurde ausgewertet?

Video des Vortrags von Prof. Karl-Friedrich Ewert (Geologe) gehalten anlässlich der 9. Internationalen Klima- und Energiekonferenz am 10. und 11.12.15 im Haus der Technik Essen. Erderwärmung – was wurde gemessen und wie wurde ausgewertet?