Stromnetze am Limit – das Risiko wächst: Mit jedem Windrad nehmen die Probleme zu

Schafft die Leitstelle dies nicht, so gerät das Netz innerhalb von Sekundenbruchteilen aus dem Takt. Grundlage des Problems ist die Tatsache, dass unsere Stromversorgung mit Wechselstrom arbeitet. Jeder Erzeuger, der in ein Verbundnetz einspeist, muss dies nicht nur mit der exakt gleichen Frequenz tun wie alle anderen Generatoren, sondern auch mit genau synchronem Verlauf der positiven und negativen Halbwellen. Anders ausgedrückt darf das eine Kraftwerk nicht gerade in dem Moment mit negativer Spannung einspeisen, wenn das andere gerade eine positive Spannung erzeugt, denn diese unterschiedlichen Polungen würden dazu führen, dass die Generatoren gegeneinander statt miteinander arbeiten würden, Bild 1. Statt gemeinsam Strom ins Netz zu liefern, würden sie sich gegenseitig innerhalb von wenigen Sekunden zerstören, weil die Wicklungen der Generatoren ausbrennen würden.

Bild 1. Würden zwei Generatoren mit derartiger Phasenverschiebung gleichzeitig ins Netz einspeisen, so würden sie sich gegenseitig beschädigen (Grafik: Saure, Wikipedia Creative Commons)

Eine der wichtigsten Aufgaben der Netzleitstellen besteht daher darin, die Netzfrequenz zu überwachen und innerhalb extrem enger Grenzen stabil zu halten, damit die mehr als eine Million Teilnehmer, die allein in das deutsche Verbundnetz einspeisen, stets synchron und mit exakt gleicher Phasenlage einspeisen können.

Zusammenhang von Frequenz und Netzlast

Die Netzfrequenz hängt wiederum direkt von Gleichgewicht zwischen Erzeugung und Verbrauch ab. Je höher der Verbrauch, desto größer ist auch das von der Turbine aufzubringende Drehmoment, damit der Generator seine exakt vorgeschriebene Drehzahl halten kann. Laständerungen wirken sich daher sofort auf seine Drehzahl und damit auf die Frequenz des erzeugten Wechselstroms aus. Das Kraftwerk überwacht deshalb die Frequenz und versucht, diese stabil zu halten, indem es mehr oder weniger Dampf auf die Turbine leitet. Im Verbundnetz muss dies stets von allen einspeisenden Generatoren synchron nachvollzogen werden, um das dynamische Gleichgewicht von Erzeugung, Verbrauch und Netzfrequenz innerhalb der für den stabilen Netzbetrieb erforderlichen Sicherheitsmargen zu halten. Voraussetzung hierfür ist die Fähigkeit der einspeisenden Kraftwerke, ihre Energieerzeugung bedarfsgerecht entweder zu steigern oder zu drosseln.

Solar- und Windenergieanlagen können solche gezielten Leistungsanpassungen prinzipbedingt nicht in nutzbarem Umfang erbringen und sind daher außerstande, das Netz zu stabilisieren. Im Gegenteil, ihre nur von den Zufällen von Wind und Wetter abhängige Einspeisung, die von den Netzbetreibern aufgrund gesetzlicher Vorgaben zwangsläufig abgenommen werden muss, erschwert den restlichen Kraftwerken die sowieso schon anspruchsvolle Aufgabe, das Netz auch im Falle unvorhersehbarer Störungen ständig im Gleichgewicht zu halten.

Reaktion auf Netzstörungen

Im Netz treten unablässig Änderungen der Belastung auf, die durch ständige Anpassung der Erzeugung aufgefangen werden müssen. Viele dieser Änderungen sind mit einer gewissen Zuverlässigkeit vorhersehbar – beispielsweise das Einschalten zahlloser Fernseher pünktlich zum Beginn eines Bundeligaspiels oder das morgendliche Duschen vor der Arbeit – und können daher in den Tagesfahrplänen der Kraftwerke berücksichtigt werden. Andere Ereignisse sind jedoch nicht planbar, zum Beispiel Leitungsausfälle, Trafo- oder Kraftwerksstörungen oder Blitzeinschläge, die zu Kurzschlüssen und damit zu größeren Ausfällen im Stromnetz führen können. Erschwerend kommt hinzu, dass solche Ereignisse oft in Sekundenbruchteilen eintreten, viel schneller, als jeder Mensch reagieren könnte. Erste Sicherheitsreserve im Netz sind deshalb die riesigen Schwungräder, als die in solchen Fällen die rotierenden Turbinen und Generatoren fungieren. In diesen rotierenden Massen (Bild 2) sind enorme Energiemengen gespeichert, die sofort zur Verfügung steht. Große Turbinen und Generatoren wiegen hunderte von Tonnen und rotieren mit hohen Drehzahlen, typischerweise 1500 oder 3000 Umdrehungen pro Minute.

 

Bild 2. Solche Wellen für Kraftwerke wiegen oft mehr als 100 Tonnen und rotieren mit bis zu 3000 Umdrehungen pro Minute. Sie speichern daher große Energiemengen Bild http://www.saarschmiede.com/69.html

Es ist die darin gespeicherte, sofort ohne jede Verzögerung verfügbare Energie, welche in den ersten Sekunden einer größeren Störung die Netzfrequenz und damit die Netzstabilität innerhalb der zulässigen Grenzen hält. Unmittelbar darauf reagieren die Dampfventile der für die Notversorgung herangezogenen Kraftwerke und sorgen beispielsweise dafür, dass mehr Dampf auf die Turbine geleitet wird. Damit wird die zweite Verteidigungslinie der Netzstabilisierung aktiviert, die großen Energiereserven, die in den vielen tausend Tonnen extrem hoch erhitzten und komprimierten Dampfs gespeichert sind, welchen die riesigen Dampfkessel fossiler Kraftwerke ständig vorrätig halten. Diese extrem schnelle und in Sekunden verfügbare Stabilisierung kann nur von dampfbetriebenen Fossil- und Kernkraftwerken mit massiven, schnell rotierenden Generatoren gewährleistet werden. Einen gewissen Beitrag können auch Wasserkraftwerke leisten. Solar- und Windenergie sind hierzu dagegen außerstande, denn sie halten weder nennenswerte Rotationsenergie vor noch lassen sich Sonne und Wind gezielt herauf- oder herunterregeln. Vor diesem Hintergrund lassen Behauptungen, eine 100 prozentige Stromversorgung aus erneuerbaren Energien ohne konventionelle Kraftwerke sei möglich, doch erhebliche Zweifel daran aufkommen, ob die Betreffenden überhaupt wissen, wovon sie reden.

Worst Case: Ein Kraftwerks-Totalausfall

Eine der kritischsten Situationen, auf die eine Netzleitstelle ständig vorbereitet sein muss, ist der Totalausfall des größten derzeit am Netz befindlichen Kraftwerks oder einer sonstigen leistungsbestimmenden Komponente wie einer großen Fernleitung. Die im Netz vorgehaltenen Leistungsreserven müssen selbst in einem solchen Fall ausreichen, um einen Zusammenbruch zu verhindern. Dafür muss die ausgefallene Leistung innerhalb von Sekundenbruchteilen ersetzt werden. Um das zu erreichen, muss die Leitstelle dafür sorgen, dass automatisch genügend Zusatzleistung von den anderen mit dem Netz verbundenen Großkraftwerken bereitgestellt wird. Da einige wenige Kraftwerke einen solchen plötzlichen Mehrbedarf gar nicht stemmen könnten, wird die benötigte Ersatzleistung in vielen Teilbeträgen auf zahlreiche Kraftwerke aufgeteilt. Die einzelnen Beiträge sind dabei so klein, dass die jeweiligen Kraftwerke damit noch problemlos zurechtkommen. In der Regel sind dies 2,5 % der jeweils möglichen Erzeugungsleistung. Diese Reserve muss zur Hälfte innerhalb von 5 Sekunden und insgesamt innerhalb von 30 Sekunden bereitgestellt werden [PRIM]. Im Rahmen ihrer ständigen Notfallbereitschaftsplanung führt die Netzleitstelle eine ständig aktualisierte Liste mit denjenigen Kraftwerken, die zurzeit am Netz sind und über die Fähigkeit verfügen, diese Systemdienstleistung zu erbringen. Die Leistungsregler dieser Kraftwerke müssen hierfür ständig direkt von der Leitstelle aus ansteuerbar sein und werden von dort im Notfall dann aufgefahren. Dies erfolgt vollautomatisch computergesteuert innerhalb von Sekundenbruchteilen, viel schneller als ein Mensch reagieren könnte. Da Deutschland im Rahmen des europäischen Verbundnetzes im Notfall auch auf Hilfe aus dem Ausland zählen kann, liegt der Umfang dieser Leistungsreserve, die jederzeit abrufbereit zur Verfügung stehen muss, bei 700 MW [PRIM]. Aus beiden Angaben lässt sich leicht ausrechnen, dass zur Aufrechterhaltung der Netzsicherheit jederzeit 28000 MW an primärregelfähiger Kraftwerksleistung am Netz sein müssen – was inzwischen jedoch aufgrund des ständig wachsenden Aufkommens an Solar- und Windstrom im Netz nicht mehr ständig der Fall ist, Bild 3.

Bild 3. Als am 27.10. 2013 – einem Sonntag mit geringer Netzlast – ein Sturm über Deutschland hinwegfegte, war das Aufkommen an zwangseingespeistem Wind- und Solarstrom so hoch, dass der Beitrag konventioneller Kraftwerke unter die kritische Marke von ca. 28.000 MW gedrückt wurde (Daten: Strombörse EEX)

Wird diese kritische untere Grenze unterschritten, so gerät das Netz in Gefahr. Zwar kann man in solchen Fällen über das europäische Verbundnetz Hilfe von den Nachbarn erhalten, doch erwarten diese im umgekehrten Falle natürlich gleichwertige Dienste auch von Deutschland, so dass die ständig vorzuhaltende Leistung in der Summe letztlich gleich bleibt.

Die erste Regelebene ist entscheidend

Neben den ersten beiden Regelebenen – der Trägheitsreserve und der Sekundenregelung – verfügt die Leitstelle noch über eine Sekundär und Tertiärebene [WIKI], die innerhalb von 30 s bis 5 min bzw. innerhalb von 5 bis 15 min zur Verfügung stehen müssen. Aus diesem Grund bezeichnet man die zweite Ebene als Sekundenreserve und die dritte Ebene als Minutenreserve. Zur Sekundenreserve gehören vor allem schnellstartfähige Kraftwerke wie Gaskraftwerke, die innerhalb kürzester Zeit von Null auf Vollleistung gehen können, sowie Speicher-Wasserkraftwerke, die nur die Regelventile weiter zu öffnen brauchen. Die Sekundärregelung hat vor allem die Aufgabe, den Abfall der Netzfrequenz aufzufangen und damit die „rotierende Reserve“ zu entlasten, so dass sie für eventuelle weitere Notfälle wieder voll verfügbar wird. Überlappend hierzu werden auch die anderen Regelebenen aktiviert, indem zunächst Pumpspeicher- oder Gasturbinenkraftwerke – die auch die Sekundärregelung besorgen – und mit entsprechender Zeitverzögerung auch Großkraftwerke auf höhere Leistung gefahren werden.

Ungeachtet der Feinheiten des Zusammenspiels verschiedener Regelebenen muss man sich jedoch darüber im Klaren sein, dass die ersten Sekundenbruchteile einer größeren Störung entscheidend sind. Gelingt es nicht, das Netz innerhalb dieser ersten „Flackersekunden“ zu stabilisieren, so reicht selbst eine noch so große, aber eben erst nach 30 s verfügbare Zusatzleistung nicht aus, um einen Zusammenbruch zu verhindern: Dann geht es, bildlich gesprochen, nicht mehr um Therapie, sondern um Autopsie, denn die unterbrechungsfreie Stromversorgung ist dann nicht mehr möglich, es müssen Netze und/ oder Verbraucher abgeworfen und später mit hohen Kosten wieder hochgefahren werden.

Und bei der Betrachtung der zur Verfügung stehenden Rotationsenergie zeigt sich, dass die oft als „Dinosaurier“ geschmähten Großkraftwerke (Bild 4) hier einen entscheidenden Vorteil gegenüber kleineren Einheiten haben, denn ihre riesigen Turbinen-Rotor-Einheiten können erheblich mehr Energie speichern als kleinere Systeme, weil die Energie eines Schwungrads mit dem Quadrat des Durchmessers zunimmt.

 

Bild 4. Die oft als Dinosaurier geschmähten großen Dampfkraftwerke – hier das Kraftwerk Neurath – sind für die Aufrechterhaltung der Netzstabilität ganz einfach unersetzlich (Foto: Kohlekraftwerke.de)

Enorme Risiken

Vor diesem Hintergrund versteht man schnell, dass die „Energiewende“ mit der ins Auge gefassten Steigerung der Kapazitäten an Wind- und Solarstromerzeugung so nicht funktionieren kann, ohne die Netzstabilität zu opfern. Zur Zeit sind 32000 MW Windleistung und 34000 MW Solarleistung am deutschen Netz [EEX]. Sie tragen kumuliert jedoch nur etwa 12 % zur Gesamtstromerzeugung bei. Um die ca. 64 % zu erreichen, die nach EEG-Planung bis 2050 erreicht werden sollen (Annahme: 80 % Wind- und Solaranteil an insgesamt 80 % EE-Erzeugung), müssten bei gleichbleibendem Verbrauch noch fünfmal so viele Windräder und Solaranlagen wie aktuell verfügbar aufgestellt werden. Damit würden die konventionellen Anlagen endgültig aus dem Markt gedrängt, obwohl sie bei Flaute und fehlendem Sonnenschein dennoch gebraucht werden. Das ist völlig unrealistisch, kann doch die Lage in den deutschen Netzen bereits jetzt als kritisch bezeichnet werden [FOCU, RWE]. So sagte der Tennet-Chef einem Bericht in den VDI-Nachrichten vom 4.10.2013 zufolge: „Wir haben heute im Schnitt drei Eingriffe ins Stromnetz am Tag. Vor zehn Jahren waren es drei im gesamten Jahr” [EIKE]. Ähnliche Meldungen gibt es auch von den anderen deutschen Netzbetreibern. Falls nicht bald gegengesteuert wird, drohen im Falle von Blackouts insbesondere in modernen Industrien (Bild 5) mit ihren fein austarierten Hochleistungsprozessen oft enorme Schäden [BER].

 

Bild 5. Stromausfälle legen die in jedem modernen Betrieb unentbehrlichen Computer lahm. Das kann zu erheblichen Ausfällen und sogar Anlagenschäden führen

Schon eine einzige Stunde Blackout in Deutschland kann Schäden von bis zu 600 Mio. € verursachen [WEWO]. Hält man sich diese Tatsachen vor Augen, so weiß man angesichts von Berichten wie dem des Spiegel-Journalisten Stefan Schultz [SPON], der behauptet, die Stromversorgung lasse sich auf absehbare Zeit auch mit den bestehenden Mitteln ohne die Gefahr von Blackouts sichern, wirklich nicht mehr, ob man nun lachen oder weinen soll.

Vor diesem Hintergrund sind die jüngsten Äußerungen von RWE-Chef Peter Terium, dass sein Unternehmen aus den Planungen zum Bau konventioneller Kraftwerke komplett aussteigen will [RWE2], im Prinzip als Resignation zu werten. Im Bereich der Stromversorger scheint man offensichtlich die Hoffnung aufgegeben zu haben, dass die deutsche Politik in absehbarer Zukunft wieder zur Vernunft findet. Frau Merkel und ihre neue Regierung haben damit ein im Prinzip unlösbares Problem am Hals, noch bevor die Koalition auch nur steht. Auf Deutschland dürften somit im Sinne des Wortes düstere Zeiten zukommen.

Fred F. Mueller

Quellen

[BER] Bericht “Gefährdung und Verletzbarkeit moderner Gesellschaften – am Beispiel eines großräumigen und langandauernden Ausfalls der Stromversorgung”, Ausschuss für Bildung, Forschung und Technikfolgenabschätzung des Deutschen Bundestags (04/2011)

[EEX] http://www.transparency.eex.com/de

[PRIM] http://www.udo-leuschner.de/basiswissen/SB124-03.htm

[EIKE] http://www.eike-klima-energie.eu/news-cache/deutscher-journalismus-kommmir-nicht-mit-fakten-meine-meinung-steht/

[FOCU] http://www.focus.de/immobilien/energiesparen/bedrohliche-energiewende-502-stoerfaelle-im-ersten-halbjahr-stromnetz-steht-vor-kollaps_aid_1089770.html

[RWE] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[RWE2] http://de.nachrichten.yahoo.com/rwe-chef-warnt-strom-engp%C3%A4ssen-080510591–finance.html

[SPON] http://www.spiegel.de/wirtschaft/soziales/kraftwerke-darum-braucht-deutschland-keinen-teuren-reservemarkt-a-929302.html

[WEWI] http://www.welt.de/wirtschaft/article121265359/Jede-Stunde-Blackout-kostet-600-Millionen-Euro.html

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)




Führender Wissenschaftler: Echtes Risiko einer ‚kleinen Eiszeit’ nach Art des Maunder-Minimums

Bild rechts: Autor Paul Hudson

Ich war dabei, als Professor Mike Lockwood einen Blick auf seine Forschungen geworfen hat hinsichtlich einer möglichen Verbindung zwischen Sonnenaktivität und Klimavorgängen. Ihm zufolge war die zweite Hälfte des 20. Jahrhunderts eine Periode, in der die Sonne ungewöhnlich aktiv war und mit einem so genannten ‚Grand Maximum’ um das Jahr 1985 ihren Höhepunkt erreichte. Seitdem ist die Sonne immer ruhiger geworden.

Aufgrund bestimmter Isotope in Eisbohrkernen konnte er die Sonnenaktivität über Tausende von Jahren bestimmen. Nach der Analyse seiner Daten glaubt Prof. Lockwood, dass die Sonnenaktivität derzeit schneller zurück geht als zu irgendeiner Zeit während der letzten 10.000 Jahre. Er fand 24 verschiedene Zeitpunkte während dieser Zeit, in der sich die Sonne in genau dem gleichen Zustand wie derzeit befand – und die gegenwärtige Abnahme verläuft schneller als in diesen 24 Fällen.

Aufgrund seiner Ergebnisse hat er die Wahrscheinlichkeit des Auftretens eines neuen Maunder-Minimums von 10% vor einigen Jahren auf jetzt 25 bis 30% angehoben. Und die Wahrscheinlichkeit des Auftretens eines solaren Dalton-Minimums, wie es in der ersten Hälfte des 19. Jahrhunderts der Fall war und ebenfalls mit kalten Wintern und kühlen Sommern einher gegangen war, ist größer als die, dass es nicht dazu kommt.

Er glaubt, dass wir schon jetzt anfangen zu sehen, wie sich unser Klima in diese Richtung verändert – sind wir doch Zeuge kälterer Winter und kühlerer Sommer – und dass wir uns während der nächsten fünf Dekaden auf dem Weg in ein neues Maunder-Minimum befinden.

Es muss betont werden, dass nicht jeder Winter streng und nicht jeder Sommer kühl ausfällt. Aber strenge Winter und kühle Sommer werden häufiger auftreten.

Professor Lockwood hält in seiner Beschreibung der potentiellen Auswirkungen eines solchen Szenarios in UK nichts zurück. Er sagt, dass eine derartige Änderung unseres Klimas ausgeprägte Implikationen für die Energiepolitik und die Transport-Infrastruktur bereit hält.

Obwohl die größten Auswirkungen einer solchen von der Sonne getriebenen Änderung regionaler Natur hier in UK und Europa wären, gäbe es auch weltweite Implikationen.

Forschungen von Michael Mann im Jahre 2001 zufolge, einem lautstarken Befürworter der vom Menschen verursachten globalen Erwärmung, kann man abschätzen, dass die globale Temperatur durch das Maunder-Minimum um 0,3°C bis 0,4°C gesunken ist.

Man muss betonen, dass die meisten Wissenschaftler glauben, dass die langfristige globale Erwärmung nicht beendet ist. Jede globale Abkühlung durch dieses natürliche Phänomen wäre ultimativ vorübergehend, und falls die Projektionen korrekt sind [in Wirklichkeit sind sie ja Unsinn!, A. d. Übers.], würde die langfristige Erwärmung durch Kohlendioxid und andere Treibhausgase diese solar getriebene Abkühlung überkompensieren.

Sollte jedoch Nordwesteuropa wirklich Schauplatz einer neu heraufdämmernden ‚Kleinen Eiszeit’ sein, könnte das weit reichende politische Folgen haben – nicht zuletzt, wenn die Temperaturen stark genug fallen, wenn auch temporär, um Vieles der Erwärmung seit den fünfziger Jahren zu eliminieren.

ENDE 

Link: http://www.live.bbc.co.uk/blogs/blogpaulhudson/posts/Real-risk-of-a-Maunder-minimum-Little-Ice-Age-says-leading-scientist

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Extrem störend war für mich, am Ende der Übersetzung die Überzeugung des Autors dokumentieren zu müssen, dass CO2 der maßgebliche Klimatreiber ist. Warum nur fällt es selbst Menschen mit Denkkraft so schwer, diesen Superbetrug endlich über Bord zu werfen?

C. F.




Klimapolitik braucht wissenschaftliche Vorhersagen und keine Szenarien

Bild rechts: Autor J. Scott Armstrong

Die Computermodelle, auf die das IPCC sich verlässt, sind komplizierte Repräsentationen der Hypothese, dass menschliche CO2-Emissionen jetzt der primäre Faktor sind, der die Klimaänderung antreibt. Die Modellierer haben korrekt festgestellt, dass sie Szenarien erzeugen. Szenarien sind Geschichten, die aus einer Sammlung verschiedener Annahmen konstruiert worden sind. Gut konstruierte Szenarien können sehr überzeugend sein, so überzeugend wie ein gut geschriebener Roman oder ein gut gemachter Spielfilm. Allerdings sind Szenarien weder Vorhersagen noch das Produkt validierter Vorhersageverfahren.

Den IPCC-Modellierern waren offensichtlich die vielen Jahrzehnte der Erforschung von Vorhersagemethoden nicht bewusst. Zusammen mit Dr. Kesten Green habe ich ein Audit der Verfahren durchgeführt, die zur Erstellung der IPCC-Szenarien geführt haben. Wir fanden heraus, dass das IPCC 72 von 89 relevanten Prinzipien wissenschaftlicher Vorhersagen verletzt hat. (Die Prinzipien sind hier frei im Internet verfügbar). Würden Sie eine Flugreise antreten, wenn sie Zeuge der Unterhaltung zwischen dem Bodenpersonal wären, aus der hervorgeht, dass der Pilot 80 Prozent der Sicherheitsvorschriften vor dem Flug verletzt hat?

Angesichts der kostspieligen politischen Maßnahmen, die im Namen der Verhinderung einer vom Menschen verursachten globalen Erwärmung vorgeschlagen und eingeführt worden sind, sind wir erstaunt darüber, dass es nur eine einzige veröffentlichte und wissenschaftlich begutachtete Studie gibt, die behauptet, wissenschaftliche Langfrist-Vorhersagen der globalen mittleren Temperaturen zur Verfügung zu stellen. Die Studie: Der Artikel von Green, Armstrong und Soon 2009 im International Journal of Forecasting.

In der Studie wurden der Wissensstand und die verfügbaren empirischen Daten untersucht, um geeignete, auf Beweisen basierende Verfahren für langfristige Vorhersagen der globalen Mitteltemperaturen auszuwählen. Angesichts der Komplexität und der Ungewissheit der Lage kamen wir zu dem Ergebnis, dass das „Kein-Trend“-Modell die am meisten mit den Vorhersageprinzipien konsistente Methode ist.

Wir testeten das Kein-Trend-Modell mit den gleichen Daten, die auch das IPCC verwendet hat. Wir erzeugten jährliche Vorhersagen für Zeiträume von einem bis 100 Jahren im Voraus. Startpunkt war das Jahr 1851, von dem aus wir uns Jahr für Jahr vorwärts bewegt haben bis zum Jahr 1975, also dem Jahr, bevor der gegenwärtige Erwärmungs-Alarm ausgelöst worden ist. (Es ist auch das Jahr, in dem Newsweek und andere Magazine berichtet hatten, dass die Wissenschaftler „fast einstimmig“ der Ansicht seien, dass die Erde in eine neue Periode der globalen Abkühlung eintreten werde). Wir führten die gleiche Analyse für das IPCC-Szenario durch, bei dem die Temperaturen mit einer Rate von 0,03°C pro Jahr als Folge der zunehmenden menschlichen CO2-Emissionen steigen. Dieses Verfahren ergab 7550 Vorhersagen aus jeder Methode.

Alles in Allem hatte der Fehler der Kein-Trend-Vorhersage nur ein Siebentel der IPCC-Projektion betragen. Sie waren genauso akkurat oder noch akkurater als die IPCC-Temperaturen für alle Vorhersagezeiträume. Noch wichtiger, die relative Akkuratesse der Kein-Trend-Vorhersagen nahm mit der Länge des Vorhersagezeitraumes zu. Zum Beispiel betrug der Fehler der Kein-Trend-Vorhersage nur ein Zwölftel der IPCC-Szenarien für Vorhersagen 91 bis 100 Jahre im Voraus.

Unsere weiteren Forschungen überprüften eingehend andere Vorhersagemethoden, verwendeten mehr und bessere Daten und erweiterten unsere Validerungstests. Die Ergebnisse unterstreichen die Schlussfolgerung, dass es keine wissenschaftlichen Vorhersagen gibt, die eine gefährliche globale Erwärmung prognostizieren.

Auf einen auf- oder abwärts gerichteten Trend der Temperaturen gibt es hinsichtlich wissenschaftlicher Vorhersagen keinerlei Hinweise. Ohne Stützung durch wissenschaftliche Vorhersagen ist der Alarm der globalen Erwärmung ein falscher Alarm und sollte ignoriert werden.

Regierungsprogramme, Subventionen, Steuern und Vorschriften als Reaktion auf den Alarm der globalen Erwärmung führen dazu, dass wertvolle Ressourcen verschwendet werden. Sie führen zu inflationären Energiepreisen, abnehmender internationaler Wettbewerbsfähigkeit, dem Verschwinden von Industrien und Arbeitsplätzen und bedrohen Gesundheit und Wohlstand.

Klimapolitik erfordert wissenschaftliche Vorhersagen und keine von Computern erzeugten Storys darüber, was dem Glauben mancher Wissenschaftler zufolge geschehen könnte.

Professor J. Scott Armstrong ist ein Mitbegründer der zwei wichtigsten Journale zu Vorhersagemethoden, Autor von Long-Range Forecasting, Herausgeber des Handbuches Principles of Forecasting und Gründer der Website forecastingprinciples.com. Wenn jemand Vorhersagen haben möchte, ist er genau der Richtige, an den man sich wenden sollte.

Im Jahre 2007 schlug er Al Gore eine Wetter über zehn Jahre vor, dass er eine genauere Vorhersage erstellen könne als jede Vorhersage, die Al Gore ins Spiel bringen könnte. Siehe The Climate Bet, um die jüngsten monatlichen Ergebnisse zu sehen, die bislang eingetreten sein könnten.

Link: http://wmbriggs.com/blog/?p=9681

Übersetzt von Chris Frey EIKE




Im Takt der AMO und der NAO (2):Das Häufigkeitsverhalten der Großwetterlagenund dessen Auswirkungen auf die Deutschland- Temperaturen

Bild rechts: Mehr Südwestlagen durch höhere Wassertemperaturen? Quelle: WERNER/GERSTENGARBE  (2010)

Im Teil 1 hatten wir gesehen, dass die Häufigkeit südwestlicher und südlicher Wetterlagen mit Ausnahme des Winters deutlich zunahm und es gerade diese Wetterlagen waren, welche am stärksten erwärmend wirkten. Als eine mögliche Ursache für deren gehäuftes Auftreten (und dem gleichzeitigen Rückgang nördlicher Strömungskomponenten)kommt unter anderem die AMO in Betracht. Diese schwankte zumindest seit Beginn ihrer Erfassung in einem etwa 50- bis 70-jährigen Zyklus, und insgesamt sind die Wassertemperaturen momentan noch etwas höher, als im späten 19. Jahrhundert. Für die folgende Grafik (und alle weiteren im Teil 2) wurden 11- jährige Gleitmittel verwendet, um die stark schwankende Häufigkeiten der Großwetterlagen, Großwettertypen und Clusterzu glätten, so dass die Darstellungen jeweils 1886 beginnen und 2007 enden:

Abb. 1: AMO (Grün) sowie die Häufigkeit der Großwettertypen Süd (Dunkelrot) und Südwest (Orange) im Vergleich. Man beachte, dass die Südwestlagen (SWA und SWZ) als eigenständiger Großwettertyp nicht im Großwettertyp Süd enthalten sind. Beide Großwettertypen, vor allem aber die Südwestlagen, wurden deutlich häufiger und folgen außerdem- wenngleich mit einer gewissen zeitlichen Verzögerung und nur undeutlich- den Schwankungen der AMO.

Und bei den nördlichen bis östlichen Wetterlagen zeigen sich genau umgekehrte Verhältnisse:

Abb. 2: AMO (Grün) sowie die Häufigkeit der Großwettertypen Nord (Hellblau)und Ost (Hellgrün) im Vergleich. Auch hier gibt es bei den jeweils enthaltenen Großwetterlagen keine Überschneidungen. Beide Großwettertypen, vor allem aber die Ostlagen, wurden seltener.Die Häufigkeit der Nördlichen Lagen folgt fast exakt den Schwankungen der AMO, während die Ostlagen diesen mit deutlicher Zeitverzögerung folgen.

Aufgrund der hier gewonnenen Erkenntnisse bietet sich eine Auflistung aller Lagen und Cluster an, die von der AMO (jeweils Jahresmittel) wenigstensandeutungsweise (Betrag der Korrelationskoeffizienten >0,2) beeinflusst wurden:

Abb. 3 (Tabelle): Lagen mit AMO- Korrelationskoeffizienten, deren Betrag mindestens 0,2 erreichte (Gesamtjahr) im Vergleich. Man beachte, dass aufgrund der sehr unterschiedlichen Häufigkeitsverhältnisse sowie der mehrfachen Präsenz einzelner Lagen in verschiedenen Clustern ein quantitativer Vergleich über die Zusammenhänge nicht möglich ist! Trotzdem kann man unschwer erkennen, dass besonders „wärmende“ Lagen mit “positiver“ Reaktion auf erhöhte AMO- Werte zu- und viele kühlenden Lagen mit negativer Reaktion auf hohe AMO- Werte abgenommen haben. So sind, rein statistisch betrachtet, gegenwärtig pro Jahr fast 44 Tage mehr mit Südanteil zu erwarten, als im späten 19. Jahrhundert, während besonders östliche, nördliche und antizyklonale Lagen abnahmen. Bemerkenswert ist auch die starke Zunahme der (insgesamt im Jahresmittel) leicht erwärmend wirkenden zyklonalen Lagen auf Kosten der antizyklonalen.

Auch hier muss davon ausgegangen werden, dass die Jahresmittelung jahreszeitliche, deutlichere Unterschiede, auf die später noch eingegangen wird, verwischt. Außerdem werden hier mögliche übergeordnete Antriebsmechanismen für AMO, Wetterlagenverhalten und Deutschlandtemperaturen nicht untersucht.  Die folgenden Grafiken veranschaulichen weitere interessante Zusammenhänge zwischen AMO und Wetterlagen:

Abb. 4: Zyklonale Lagen (Mintgrün) nahmen deutlich zu und schwingen- wenn auch zeitverzögert- deutlich im Takt der AMO; bei Antizyklonalen Lagen (Orangerosa) ist es umgekehrt; auch ist der (hier negative) Zusammenhang zur AMO weniger deutlich.

Abb 5: Hier zeigt sich die deutliche Zunahme der Lagen mit südlicher Strömungskomponente (Südanteil) sowie der zwei Troglagen(von denen TRM kühlend, aber TRW erwärmend wirkt), beide mehr oder weniger zeitverzögert etwas von der AMO beeinflusst. TRW ist im Cluster Südanteil enthalten.

Abb. 6: Man erkennt sehr schön, dass „normale“ Westlagen (WA und WZ, Dunkelviolett) erstens viel häufiger als die „gestörten“ Westlagen (Hell Blauviolett)auftreten, beide konträr schwingen und von der AMO in umgekehrter Weise beeinflusst werden. Das rhythmische Verhalten der Westlagen wird noch zu diskutieren sein.

Bei solchen, auf das Gesamtjahr bezogenen Betrachtungen verschwinden allerdings jahreszeitliche Besonderheiten, welche nicht außer Acht gelassen werden dürfen. Die folgenden Tabellen fassen daher alle Großwetterlagen (GWL) und Großwettertypen sowie weitere Cluster zusammen, welche sich in den einzelnen Meteorologischen Jahreszeiten durch die jeweils stärkste Zu- oder –Abnahme der Häufigkeit, die stärkste positive/ negative Beeinflussung des Deutschlandmittels (°C Jahreszeiten) auszeichneten und deren Häufigkeit am stärksten positiv/negativ von der AMO und der NAO (jeweilige Jahreszeit, letztere nur im Winter) beeinflusst wurde:

Abb. 7 bis 10 (4 Jahreszeittabellen): Zusammenfassung der in den einzelnen Jahreszeiten auffälligsten Lagen. Nur im Winter zeigten 2 Cluster, nämlich alle Lagen mit Westlichem Strömungsanteil und der Großwettertyp Ost, einen deutlichen Einfluss auf die zugehörigen Wintermitteltemperaturen in Deutschland. In einzelnen Monaten, die aus Gründen des Umfangs hier nicht behandelt werden konnten, sind noch einige wenige ähnlich enge Zusammenhänge ermittelt worden, siehe Abb. 5 im Teil 1. Außerdem muss betont werden, dass die linearen Zu- und Abnahmen als Rechengrößen nicht überbewertet werden dürfen, denn bei Betrachtung kürzerer Zeiten zeigen sich bemerkenswerte Einzelheiten und oft auch periodische Verhaltensweisen der Häufigkeiten, auf welche im Teil 3 näher eingegangen wird.

Man kann vermuten, dass die Sonnenscheindauer, welche besonders zwischen etwa Ende März und Anfang Oktober einen deutlichen Einfluss auf die Lufttemperaturen in Deutschland hat (KÄMPFE, LEISTENSCHNEIDER, KOWATSCH, 2013; WEHRY, 2009) die durch die Großwetterlagen bedingten Temperaturunterschiede (Luftmassen!) verringert und nivelliert (in trockener Subpolarluft führt der lange und intensive Sonnenschein zur raschen Erwärmung der Kaltluft, beispielsweise im Juli 2013, als es trotz häufiger nördlicher Windkomponente recht warm war und sich nur in den kurzen, sehr kühlen Sommernächten die meist subpolare Herkunft der Luftmassen zeigte, während sich subtropische, aber wolkenreichere Luftmassen tagsüber im Sommeroft weniger erwärmen). Dem entsprechen auch die Untersuchungsergebnisse, nach denen Südwestlagen im Juli als einzigem Monat nicht erwärmend wirkten. Im Winter, wenn der Einfluss der Sonnenscheindauer gering ist, können sich hingegen die Unterschiede zwischen trocken- kalter Nordostluft und feucht- milder Atlantikluft über Deutschland halten oder sogar verschärfen, weil in der Atlantikluft die Wolken die Auskühlung bremsen, während die klare, wasserdampfarme Nordostluft weiter auskühlt. Die nächste Abbildung zeigt zur Verdeutlichung, wie schwierig die Interpretation und die Bewertung der Folgen der Häufigkeitsschwankungen der Großwetterlagen und deren Cluster ist, das Verhalten von 3 insgesamt deutlich erwärmend wirkenden Clustern im Herbst:

Abb. 11: Drei Cluster mit deutlicher linearer Zunahme im Herbst. Aber nur beim Cluster Südanteil hielt diese Zunahme tatsächlich bis zum Ende des Untersuchungszeitraumes an, während besonders das Cluster Westanteil etwa ab der Jahrtausendwende wieder seltener wurde.

In diesem zweiten Teil wurde verdeutlicht, dass die AMO das Häufigkeitsverhalten zahlreicher Wetterlagencluster, Großwettertypen und sogar einzelner Großwetterlagen, im Jahresmittel zumindest andeutungsweise mit beeinflusst. Dabei ist außerdem nicht ausgeschlossen, dass übergeordnete Antriebe wie etwa die Variabilität der Sonnenaktivität oder der großräumigen (planetarischen) Zirkulation, als übergeordnete Treiber fungieren. Die Zusammenhänge sind nur schwach bis mäßig (Korrelationskoeffizienten zwischen +0,46 und -0,31); aufgrund des großen Stichprobenumfangs dürfen diese jedoch nicht unterschätzt werden. Dabei zeichnet sich ab, dass für Deutschland erwärmend wirkende Lagen, besonders Südwestlagen, in positiven AMO- Phasen häufiger auftreten und insgesamt mit den leicht steigenden Wassertemperaturen stark zunahmen; bei den meisten kühlenden Lagen herrschten umgekehrte Verhältnisse. In den einzelnen Jahreszeiten zeigte sich, dass mit Ausnahme des Winters südliche und südwestliche Lagen deutlich häufiger wurden. Außerdem war im Winter als einziger Jahreszeit und in einzelnen Sommermonaten ein deutlicher Einfluss der Häufigkeiten bestimmter Cluster auf die Lufttemperaturen zu verzeichnen (Cluster Westanteil- stark erwärmend, GWT E- stark kühlend; Kontinentale Hochdrucklagen- vor allem im Juli stark wärmend). Besonders in den Übergangsjahreszeiten werden die meisten Zusammenhänge undeutlicher; und oft nivelliert in der strahlungsreicheren Jahreszeit die Sonnenscheindauer viele luftmassenbedingte Unterschiede.

Verfasst und zusammengestellt von Stefan Kämpfe, Weimar, 2012/2013.

Eine ausführliche Zusammenstellung der verwendeten Literatur und Informationsquellen finden Sie am Ende des 3. Teiles




Wir hatten es Euch doch gesagt! „Öl-Knappheit ist ein Mythos“ meint der BND

Nun aber meldet sich der BND mit einer „Studie“ macht- und geräuschvoll und dazu öffentlich zurück. In der Welt lesen wir zur BND Studie:

„Künftig haben wir kein Problem knapper Reserven mehr.“

Daraus folge aber, dass der Ausstoß des Klimagases Kohlendioxid zunehme und die Umwelt weiter belaste.“

Um gleich danach die chronisch klimaalarmistischen Kollegen der AFP zu zitieren: „Der Klimawandel geht weiter“ so der Titel einer Bildstrecke mit der Abbildung eines Globus und darauf „Extreme Wetterereignisse“.

Im Laufe des weiteren Artikel wird dann berichtet (Hervorhebungen vom Autor):

Daraus folge aber, dass der Ausstoß des Klimagases CO2 zunehme und die Umwelt weiter belaste. „Der Verteilungskampf wird darum gehen, wer künftig wie viel CO2 emittieren darf“, heißt es in einer neuen Bewertung des BND, der damit seine Analyse über die Folgen der Schiefergas-/Schieferölfunde in den USA von November 2012 und Juni 2013 aktualisiert hat. Die Behörde bestätigte die Existenz der Studie auf Nachfrage der „Welt“.

Grund für den erwarteten dramatischen Wechsel in geostrategischen Debatten ist laut BND nicht nur, dass Schwellenländer immer mehr Energie verbrauchen. Vor allem erschwert die zunehmende Förderung von sogenanntem unkonventionellem Gas und Öl den Wechsel von fossilen auf erneuerbare Energien immer mehr…

..Und die frühere Sorge vor einem Versiegen der Öl- und Gasquellen ist verflogen. Stattdessen nehme die Zahl der heute nachgewiesenen anerkannten Reserven fossiler Energieträger weltweit immer mehr zu. Grund sind neue Technologien, die die Förderung aus bisher unzugänglichen Lagerstätten ermögliche.

Brisant ist die Analyse und die Warnung vor einem „Deponieproblem“ für Klimagase, weil sie nicht von Umweltschützern stammt, sondern von einem Auslandsgeheimdienst. Bereits heute sei absehbar, dass noch vor 2040 die Grenze des CO2-Anteils in der Luft von 0,045 Volumenprozent (450 ppm) überschritten werde. Dies bedeutet, dass in einer Million Luftmoleküle 450 Kohlendioxidmoleküle enthalten sind.

und die FAZ assistiert:

Die Warnung hat mittlerweile Widerhall in der deutschen Innenpolitik gefunden. „Wenn die Kohlefreunde von Union und SPD sich durchsetzen, wäre das katastrophal fürs Klima und teuer für die Verbraucher“, sagte die Grünen-Parteichefin Simone Peter: „Wer auf fossile Energien wie Kohle und Öl setzt, beschleunigt den Klimawandel, verschärft internationale Konflikte und spielt mit der Zukunft nachfolgender Generationen.“

Offensichtlich sind sowohl die Schlapphüte des BND, wie auch viele Mitglieder der schreibenden Zunft, immer noch nicht darauf gekommen, dass die Klimakatastrophenidee sich schon länger totgelaufen hat, weil die Natur sich einfach nicht um die Kristallkugeln der Klimakatastrophenwissenschaftler kümmert. Vielleicht deshalb, weil sie nur das sehen oder hören wollen, was sie dürfen, oder wollen. Wie beim Kanzlerinnenhandy. Das konnte jeder wissen, nur der BND nicht. Denn damit gibt er sich gar nicht erst ab. Bei Wikipedia findet man über seine Aufgaben: 

Der BND ist der Auslandsnachrichtendienst der Bundesrepublik Deutschland und damit zuständig für die Beschaffung sicherheits- und außenpolitisch relevanter Erkenntnisse aus dem Ausland bzw. über das Ausland (§ 1 Abs. 2 BND-Gesetz).[5] Er darf hierzu nachrichtendienstliche Mittel, wie zum BeispielObservationLegendierungen und Tarnkennzeichen, anwenden. Im Unterschied zu den Auslandsgeheimdiensten einiger anderer Staaten hat der BND nach § 2 des BND-Gesetzes grundsätzlich keine polizeilichen Exekutivbefugnisse, ist also z. B. nicht zur Durchführung von Festnahmen berechtigt.

Seine Erkenntnisse gibt der Dienst weiter an die Bundesregierung und Abgeordnete des Bundestags. Nach eigenen Angaben erstellt der BND im Monat rund 300 Berichte zu verschiedenen Themen und Ländern und beantwortet im Monat etwa 800 Anfragen zu Krisengebieten oder konkreten Sachverhalten (Stand 2013). In Hintergrundgesprächen informiert der BND Abgeordnete, er nimmt an Sitzungen von Bundestagsausschüssen teil und brieft Ministerien.[6]

Zu diesen sicherheitsrelevanten Erkenntnissen gehört zwar nicht das Kanzlerinnen-Handy, wohl aber die Angst vorm Klimawandel. Leider wohl nicht mehr die Angst vorm baldigen Ende der Energieressourcen. Da muss schnell was Neues her. Wasserknappheit z.B. böte sich auch im wasserreichen Deutschland an.

* Vielleicht hält es Frau Merkel aber nur mit unserem Altkanzler Konrad Adenauer der sagte: „Was interessiert mich mein Geschwätz von gestern.“