Die Blackout-Koalition! Sicherheit der Stromversorgung bleibt auf der Strecke

Die Energiewende soll noch einmal beschleunigt werden, so die aktuelle Meldungslage zur großen Koalition [SPI1, SPI2]. Statt der bisher angestrebten 35 % sollen bis zum Jahr 2025 sogar 40-45 % Strom aus sogenannten Erneuerbaren Energien erzeugt werden. Der Schwerpunkt dürfte dabei auf der Windenergie liegen, insbesondere an den „guten“ küstennahen Standorten in Norddeutschland, und die Kapazität der Offshore-Windenergie soll von derzeit wenigen 100 MW auf 6500 MW vervielfacht werden. Dies dürfte vor allem zu Lasten der konventionellen Kraftwerke gehen, denen man – soweit sie fossil befeuert werden – zusätzlich auch noch die CO2-Zertifikate verteuern will [CO2]. Als Antwort auf den überbordenden Preisanstieg bei den EE-Energien will man lediglich die Förderung in einigen Bereichen nach unten anpassen oder gar deckeln. Falls dies so umgesetzt wird, könnte sich der Anteil der Windenergie an der deutschen Stromerzeugung, der im Jahre 2012 noch bei 7,3 % lag, bis zum Jahr 2025 mehr als verdreifachen und auf über 22 % anwachsen. Für Solarenergie kann von einem Anwachsen von 4,6 auf bis zu 7 % ausgegangen werden, während das Wachstum bei Wasser, Biomasse und Müll gedrosselt werden dürfte. Für Deutschlands Energieversorgung bedeutet diese Entwicklung eine Katastrophe. Grund ist, dass im Netz im Prinzip kaum Strom gespeichert werden kann. Produktion und Verbrauch müssen deshalb stets im Gleichgewicht gehalten werden. Erzeuger wie Wind und Sonne, die nicht stabil einspeisen, stören dieses Gleichgewicht. Zur Stabilisierung müssen die Netzbetreiber dabei vor allem auf die konventionellen Kraftwerke zurückgreifen. Und genau die dürften zu den Leidtragenden der Koalitionsvereinbarungen gehören.

Wind und Sonne bieten weder Versorgungssicherheit…

Ursache der Probleme ist die Unzuverlässigkeit der Energielieferungen aus Sonne und Wind. Die moderne Industrienation Deutschland benötigt an Werktagen im Winter bis zu 80000 MW an elektrischer Leistung. Da Wind und Sonne selbst zusammen manchmal nur wenige 100 MW liefern können (Bild 1), muss die Differenz – also nahezu die gesamte erforderliche Leistung von bis zu 80000 MW – durch konventionelle Kraftwerke abgesichert werden.

Bild 1. Am 22.8.2013 lag die gesamte EE-Stromproduktion aus Wind und Sonne in der Zeit von 05:00 und 07:00 Uhr bei weniger als 600 MW. Ganz rechts die installierten Gesamtkapazitäten (Datenquelle: EEX)

Um dies zu gewährleisten, wird in Deutschland eine sogenannte gesicherte Kraftwerksleistung bereitgehalten, die zurzeit bei 85000 MW liegt [ENLE]. Diese kann faktisch nur von konventionellen Kraftwerken inklusive Kernkraftwerken erbracht werden. Zwar wird im Prinzip auch Windrädern ein gewisser Beitrag von 6 % ihrer Nennleistung zugesprochen, doch zeigt Bild 1 deutlich, dass dies eher eine ideologisch motivierte Wunschvorstellung ist: Bei einer installierten Windkapazität von knapp 32000 MW hätten mehr als 1900 MW zur Verfügung stehen müssen, tatsächlich waren es zeitweise weniger als 600 MW. Versorgungssicherheit sieht anders aus.

…noch Vorhersagbarkeit

Von den Befürwortern der EE-Energien wird oft behauptet, dank moderner Methoden zur Wettervorhersage sei das Aufkommen an Wind- und Solarenergie inzwischen so gut vorhersagbar, dass man den Fahrplan der konventionellen Kraftwerke problemlos an das zu erwartende Leistungsprofil anpassen könne. Leider ist dies jedoch nichts anderes als eine ideologisch motivierte Lüge, die an den harten Fakten der Realität zerbricht. Trotz modernster Computersysteme liegen die Prognosen manchmal schon im 24-h-Bereich grausam daneben, wie Bild 2 anschaulich zeigt.

Bild 2. Verlauf von Windenergieprognose, tatsächlicher Stromerzeugung und des resultierenden Prognosefehlers am 11.10.2013, ergänzt um die entsprechenden Werte bei gleichem Wettergeschehen unter Annahme einer verdreifachten Windenergiekapazität im Jahre 2025 (Datenquelle: EEX)

Der Blick auf Bild 2 zeigt, wie das Windenergieaufkommen im Verlauf des Vormittags mehr und mehr von der Prognose abweicht. Um die Mittagszeit herum lag die Differenz zwischen Vorhersage und Ist-Werten bei bis zu 12500 MW, das entspricht der Leistung von 12 Großkraftwerken der 1000-MW-Klasse. Zu diesem Zeitpunkt erreichte die Windenergieleistung 22000 bis 23000 MW. Besonders interessant wird die Darstellung, wenn man sie um eine Projektion für das Jahr 2025 mit einer verdreifachten Windenergiekapazität bei Annahme einer gleichen Wetterlage ergänzt. Man kommt dann auf einen Prognosefehler von knapp 38.000 MW bei einer maximalen Windenergieleistung von 68000 MW. Da die EE-Erzeugung Vorrang vor allen anderen Stromanbietern hat, müssten dann faktisch alle konventionellen Kraftwerke vom Netz genommen werden.

Ähnlich groß sind solche Abweichungen auch im Bereich der Solarenergie. So kam es im Zeitraum zwischen dem 4. und dem 6. April zu einem Prognosefehler von mehr als 8800 MW. Beim Netzbetreiber 50 Hz war die Lage dadurch zeitweilig äußerst kritisch [ZFK].

….noch Stabilität

Ein weiteres Problem insbesondere der Windenergie sind die teilweise extremen, kurzfristig im Viertelstunden-Rhythmus auftretenden Schwankungen der Einspeisung. Ungeachtet gegenteiliger Behauptungen der Windkraftlobby ändert daran auch die großräumig verteilte Aufstellung der Windräder kaum etwas. Bild 3. zeigt die kurzfristigen Sprünge der Windenergieleistung am 11. Oktober 2013. Solche Schwankungen „rütteln“ ganz erheblich an der Netzstabilität und zwingen die Netzbetreiber, von den konventionellen Kraftwerken teure Regelenergie abzurufen, um das Gleichgewicht aufrechtzuerhalten. Bei den verärgerten Mitarbeitern der entsprechenden Schaltwarten setzen sich für den Strom aus Wind und Sonne daher inzwischen Ausdrücke wie „Zappelstrom“ oder „Neue Instabile Energie“ (NIE) immer mehr durch. Die Folgen sind fatal.

Bild 3. Kurzfristige Schwankungen des Aufkommens an Windenergie im Viertelstundenabstand um bis zu + 3000/ -2500 MW/h am 11.10.2013 (blau). Bei der entsprechenden Projektion für das Jahr 2025 (rot) zeigen sich Gradienten von bis zu + 10000/ -6500 MW/h (Datenquelle: EEX)

Konventionelle Kraftwerke als Lückenbüßer missbraucht

Je höher der Anteil der sogenannten EE-Stromerzeugung im Netz ist, desto unzuverlässiger und schwankender ist das Stromaufkommen im Netz. Da dieser Strom aufgrund des Erneuerbare-Energien-Gesetzes jedoch Vorrang hat, müssen die konventionellen Kraftwerke ihre Leistung immer häufiger stark reduzieren oder gar ganz vom Netz gehen, ohne jedoch abschalten zu können, weil sie dennoch dringend gebraucht werden: Zum einen müssen sie einspringen, wenn Sonne und Wind gerade mal wieder keine Lust zur Arbeit haben, zum anderen müssen sie ständig dafür sorgen, dass die Schwankungen der EE-Erzeuger ausgeglichen werden. Statt kontinuierlich arbeiten zu können, wofür sie eigentlich ausgelegt sind, müssen sie zunehmend in einem Stop-and-Go-Modus agieren, der für sie sowohl technisch als auch wirtschaftlich desaströs ist. So muss beispielsweise auch im sogenannten „Hot Standby“, bei dem ein Kohlekraftwerk seinen Kessel auf Betriebsdruck und -temperatur hält, in erheblichem Maße Kohle verbrannt werden. Zusammen mit der Tatsache, dass auch die Belegschaft weiterhin präsent sein muss, bedingt dies erhebliche Kosten, ohne dass auch nur ein Cent verdient werden kann. Unter dem erzwungenen Stillstand leidet auch die Fähigkeit der Kraftwerke zu schneller Reaktion auf plötzlich auftretende Bedarfsspitzen, denn sie können bei stillstehenden Generatoren keine Rotationsenergie zur Netzstabilisierung bereitstellen.

Bild 4. Großkraftwerke wie das 2575-MW-Braunkohlekraftwerk Boxberg kann man nicht einfach an- und abschalten wie ein Auto (Foto: Kohlekraftwerke.de)

Reaktionsfähigkeit von Großkraftwerken

Konventionelle Kraftwerke kann man nicht einfach wie einen Automotor betreiben, den man mal eben mit dem Zündschlüssel anwirft, um sofort losfahren zu können. Große, dampfbetriebene Kraftwerke (Bild 4) sind riesige Anlagen mit gewaltigen Massen. Sie müssen zunächst auf Temperatur gebracht werden, bevor sie Leistung liefern können, denn allein im Kessel müssen mehrere 1000 Tonnen Wasser in superheißen Dampf verwandelt werden. Bei den wirklich großen Grundlastkraftwerken mit Leistungen im Bereich ab 1000 MW kann es bis zu einer Woche dauern, bevor sie nach längerem Kaltstillstand wieder ans Netz gehen können [WIDA]. Die typischen Hochlaufzeiten von Kohlekraftwerken – diese werden häufig für den reaktionsschnellen Mittellastbetrieb eingesetzt – liegen zwischen 6-7 Stunden bei einem Kaltstart und immerhin noch 2 Stunden bei einem sogenannten Heißstart, worunter ein Stillstand von weniger als 8 h zu verstehen ist [WIKO]. Zwingt man solche Kraftwerke also zum Stop-and-Go-Betrieb, so nimmt man ihnen gleichzeitig die Fähigkeit, im Notfall rasch Energie liefern zu können. Das hat nachteilige Auswirkung auf die Versorgungssicherheit.

Stabilität in Gefahr

Das entscheidende Problem für die Aufrechterhaltung der Netzstabilität ist, dass sich einerseits aufgrund des Anwachsens von Zappelstrom-Erzeugung der Bedarf an Regelenergie erheblich erhöht, während gleichzeitig aufgrund der zunehmenden Stillsetzung konventioneller Kraftwerke deren Verfügbarkeit zurückgeht. Um bei einem größeren Ausfall wie z.B. einer Kraftwerksstörung sofort gegensteuern zu können, benötigen die Netzbetreiber zuverlässige Kraftwerke, von denen sie kurzfristig gestaffelt die benötigte Regelenergie abrufen können, Bild 5.

 

Bild 5. Schema des zeitlichen Einsatzes der unterschiedlichen Regelleistungsarten (Grafik: DF5GO/ Wikimedia Commons)

Hierfür eignen sich nur konventionelle Kraftwerke oder Wasserspeicherkraftwerke. Am wichtigsten sind hierbei die augenblicklich wirksame Trägheitsreserve – hierfür sorgt der Schwungradeffekt der riesigen Turbinen und Generatoren – sowie die Primärregelleistung, die innerhalb von Sekunden zur Verfügung gestellt werden muss. Für beides braucht man Großkraftwerke. Damit die einzelnen liefernden Kraftwerke dabei nicht selbst überlastet werden, wird hierfür pro Einheit nur 2,5 % der Anlagenleistung herangezogen. Für Deutschland wird aktuell eine jederzeit verfügbare Primärregeleistung von 700 MW für erforderlich gehalten. Somit kann eine ständige Präsenz von 28000 MW primärregelfähiger Leistung von konventionellen Kraftwerken als Untergrenze der Netzstabilität angesetzt werden. An Wochenenden liegt die Netzlast jedoch manchmal nur bei 30000 bis 40000 MW. Bereits jetzt kommen dann manchmal 20000 MW an Windleistung und ebensoviel Solarleistung dazu, so dass es nahezu unmöglich wird, die erforderliche Präsenz an konventionellen Kraftwerken zu gewährleisten. Wenn in zwölf Jahren 40 % statt wie derzeit 22 % EE ins Netz eingespeist werden sollen, ist die Stabilität der Netze nicht mehr zu gewährleisten.

Hinzu kommt eine Tatsache, über die sich kaum jemand Gedanken zu machen scheint. Jedes „Zappeln“ von Zufallsstrom im Netz muss durch entsprechende Zufuhr von Regelenergie der zweiten und dritten Ebene kompensiert werden. Dazu muss jedoch entsprechende Kraftwerksleistung von konventionellen Kraftwerken abrufbar bereitstehen. Zurzeit werden in Deutschland insgesamt 7000 Megawatt positiver Regelleistung und 5500 Megawatt negativer Regelleistung vorgehalten [WIKI]. Die Kosten dafür betragen etwa 40 Prozent des gesamten Übertragungsnetzentgeltes. Sie werden im Netzentgelt versteckt, obwohl sie eigentlich durch die “Erneuerbaren” verursacht werden. Bereits im Jahr 2006 wurde geschätzt, dass es hierbei um etwa 300 bis 600 Mio. Euro ging [CARE]. Inzwischen dürfte die Milliardengrenze längst überschritten sein.

Das eigentliche Problem ist jedoch, dass für den Ausgleich der „Zappelei“ künftig immer noch mehr an Regelleistung bereitgehalten werden muss, während der Marktanteil der konventionellen Kraftwerke gleichzeitig zurückgedrängt werden soll. Von den Verantwortlichen scheint sich kaum jemand darüber Gedanken zu machen, woher denn bei dieser gegenläufigen Entwicklung die künftig benötigte Regelenergie kommen soll. Mit Gaskraftwerken allein ist das nicht zu stemmen, nicht nur aufgrund der Kosten, sondern auch weil im Stillstand befindliche Gasturbinen weder Trägheitsreserve vorhalten noch schnell genug hochgefahren können, um in nennenswertem Umfang Primärregelenergie bereitstellen zu können. Sie sind zwar Schnellstarter, aber es dauert dennoch eher Minuten als Sekunden, bis sie wirklich hohe Leistungen abgeben können.

Konventionelle Kraftwerke verschwinden vom Markt

Nach der Aufstellung der deutschen Strombörse umfasst der konventionelle Kraftwerksbestand derzeit Anlagen mit einer Gesamt-Erzeugungskapazität von knapp 110000 MW. Für eine Projektion bis zum Jahre 2020 (bzw. 2022) muss man hiervon noch rund 8000 MW Pumpspeicherkapazität abziehen, da Pumpspeicher ja selbst keine Energie erzeugen, sondern sie lediglich zwischenspeichern. Außerdem muss man bedenken, dass bis 2022 rund 12000 MW an Kernkraftkapazität zur Stilllegung anstehen. Ab 2022 verbleiben also rund 90000 MW, doch will man diesen ein um 18 % kleineres Marktsegment zugestehen als bisher. Zudem werden sie mehr und mehr zu unwirtschaftlichem Teillastbetrieb gezwungen. Schon heute ist die Situation für viele Betreiber kritisch, wie die aktuellen Pläne von RWE und E.ON zur Stilllegung von Kraftwerken und Freistellung von Mitarbeitern belegen. Auch immer mehr Stadtwerke haben mit ihren Kraftwerken Schwierigkeiten. In den nächsten Jahren ist damit zu rechnen, dass zahlreiche weitere der zurzeit noch existierenden Kraftwerke stillgelegt werden. Planungen für neue Kraftwerke sind mittlerweile nahezu zum Erliegen gekommen. Bei Bauzeiten von bis zu 15 Jahren ist dies eine bedenkliche Situation.

Bild 6. Die Politik wird weiterhin daran festhalten, im Namen des angeblichen Umwelt- und Klimaschutzes unsere Natur zu schädigen

Welche Entwicklung ist zu erwarten?

Nachdem noch vor kurzem Stellungnahmen des NRW-Wirtschaftsministers Garrelt Duin sowie von NRW-Chefin H. Kraft Hoffnungen geweckt hatten, dass bei den Koalitionsverhandlungen die Bedenken der Industrie zumindest ansatzweise Berücksichtigung finden könnten, zeigt der derzeit kommunizierte Verhandlungsstand, dass man seitens der Politik weiterhin unbeirrt in die falsche Richtung marschieren wird, Bild 6. Im Prinzip hat man sich völlig verfahren. Es gibt keinerlei strategische Planung, stattdessen scheint man nur noch zu versuchen, sich im Widerstreit zwischen den Interessengruppen mit den für Politiker üblichen „Formelkompromissen“ weiter durchzumogeln. Zurzeit wird zwar noch behauptet, man wolle das Tempo des EE-Ausbaus weiter steigern, dabei jedoch gleichzeitig an der Kostenschraube drehen und allzu üppige Vergütungszahlungen zurückschneiden. Gleichzeitig hält man die konventionellen Kohlekraftwerke wegen ihres CO2-Ausstosses weiterhin auf der Abschussliste und will sie durch Verknappung von CO2-Zertifikaten bestrafen. Vermutlich erhofft man sich dadurch eine Besserung der Wettbewerbssituation der notleidenden Gaskraftwerke. Diese will man offensichtlich als flexible Schnellstarter verfügbar halten, damit sie als Ausputzer für die Eskapaden der EE-Erzeuger einspringen können. Augenscheinlich war bei den Verhandlungen niemand dabei, der auch nur ein klein wenig Ahnung davon hatte, warum wir auf unsere Großkraftwerke und ihre entscheidende Fähigkeit, das Netz in den ersten entscheidenden Sekunden(bruchteilen) einer Störung zu stabilisieren, umso weniger verzichten können, je mehr Zappelstrom ohne Sinn und Verstand in die Netze gedrückt wird.

Bild 7. Egal wie solide ein (Energieversorgungs)-Gebäude auch gebaut sein mag – man kann es viel schneller kaputtmachen als wieder aufbauen

 Nicht bedacht wird zudem, dass bis 2022 mit den zur Stilllegung verurteilten Kernkraftwerken weitere 12000 MW Großkraftwerksleistung vom Netz gehen werden, deren Funktion durch Gaskraftwerke nicht zu ersetzen ist. Unsere Energiepolitik steuert daher so oder so unbeirrt auf einen massiven Crash zu (Bild 7), langdauernde Blackouts eingeschlossen. Denk ich an Deutschland in der Nacht…

Fred F. Mueller

Quellen

[CARE] http://www.care-energy-online.de/index.php/stromgas/strom/oekostrom.html?showall=&start=19

[ENLE] http://www.energie-lexikon.info/jahreshoechstlast.html

[SPI1] http://www.spiegel.de/politik/deutschland/energiewende-koalition-will-windrad-schwemme-bremsen-a-932599.html

[SPI2] http://www.spiegel.de/wirtschaft/soziales/arbeitsgruppe-union-und-spd-wollen-energiewende-billiger-machen-a-932733.html

[CO2] http://www.spiegel.de/wissenschaft/natur/emissionshandel-eu-staaten-wollen-co2-ausstoss-teurer-machen-a-932575.html

[WIDA] http://de.wikipedia.org/wiki/Dampfturbine

[WIKI] http://de.wikipedia.org/wiki/Regelleistung_(Stromnetz)

[WIKO] http://de.wikipedia.org/wiki/Kohlekraftwerk

[ZFK] http://www.zfk.de/strom/artikel/prognosefehler-von-8800-mw.html




Klima: Konkurs der Modelle

Beispielsweise ist es, bei großzügigem Vertrauen in die Messgenauigkeiten, zutreffend, für die 47 Jahre von 1951 bis 1998 von einer Phase –moderater- Klimaerwärmung zu sprechen. In dieser Periode hat sich die weltweit gemessene und auf Jahres-Durchschnittswerte geglättete Temperatur der boden- bzw. meeresnahen Luft um 0,12 Grad Celsius pro Jahrzehnt, insgesamt also um etwa 0,6 Grad Celsius erhöht.

Auf diesem gegenüber der Mitte des letzten Jahrhunderts leicht erhöhten Niveau ist nun seit 1998, also seit 15 Jahren kein anhaltender Erwärmungstrend mehr erkennbar. Sollte dieser Stillstand noch weitere fünf Jahre andauern, ist davon zu sprechen, dass die vorangehende Phase einer moderaten weltweiten Klimaerwärmung etwa seit der Jahrtausendwende abgelöst wurde von der aktuellen Phase eines weitgehend konstanten weltweiten Durchschnittsklimas. (1.)

Einflüsse und wechselseitige Abhängigkeiten

Die für den Menschen und das menschliche Leben wichtigsten Wettermerkmale sind Temperatur, Niederschlag und Wind. Diese „finalen“ Wettermerkmale stehen zueinander in komplexen wechselseitigen Zusammenhängen.

Hinzu kommen die „kausalen“ Wettermerkmale wie beispielsweise Sonneneinfall, Luftdruck, relative Luftfeuchtigkeit und Wolkenbildung. Diese kausalen Wettermerkmale sind ebenfalls wechselseitig verflochten, also „interdependent“; und zwar sowohl mit den finalen wie mit den übrigen kausalen Wettermerkmalen.

(1.) Der SPIEGEL, Nr. 25 / 17. Juni 2013: “ Wenn das so weitergehen sollte,müssten wir uns spätestens in fünf Jahren   eingestehen, dass mit den Klimamodellen etwas fundamental nicht stimmt. Aber bereits heute passt der reale Temperaturtrend nur noch schwer zu unseren Erwartungen.“

      GESPRÄCH mit Hans von STORCH: "Wir stehen vor einem Rätsel“

  

Schließlich gibt es die dritte, für das Wetter und damit für das Klima wichtige Gruppe der „Infrastrukturgrößen“. Zu diesen infrastrukturellen Wetter- und Klimabedingungen zählen zum Beispiel der Wärme- bzw. Energiegehalt der Luft, die Einstrahlung von der Sonne hin zur Erde, die Rückstrahlung und die Reflektion von der Erde in Richtung Orbit, die –ebenfalls beidseitige- Isolationswirkung von Wasserdampf bzw. Wolken oder der Wärme-, Energie- und Strahlungsaustausch zwischen Wasser, Eis, Luft, Biosphäre und Lithosspähre.

Wie leicht einzusehen ist, befinden sich auch die infrastrukturellen Wetter- bzw. Klimagrößen sowohl zueinander als auch zu den Größen der beiden erstgenannten Gruppen in komplexen und gleichzeitigen Wechselbeziehungen. Sie weisen also wiederum nicht-lineare und simultane Interdependenzen auf.

Modelle: Instabil bis zur „Explosion“

Mit der derart grob skizzierten „Ausgangslage“ ist die Aufgabe der Autoren von Klimamodellen umrissen:

Sie müssen das Funktions- oder Gleichungssystem der miteinander verknüpften Wettergrößen bilden und mit den Parametern für die vielfältigen Verflechtungen dieser Größen derart bestücken, dass die vergangene wie vor allem die künftige vieljährige Wetter- und damit die Klimawirklichkeit zutreffend wiedergegeben werden.

Diese Aufgabe trägt den Grund dafür in sich, dass die Klimaprognostik zum Scheitern verurteilt ist. Er ist mathematischer Natur:

Nicht-lineare, nur simultan lösbare Gleichungssysteme mit achtzig, neunzig, oder sogar mit über einhundert Größen (Variablen) und Verknüpfungsfaktoren (Parametern) sind in höchstem Maße instabil. Sie neigen zur „Explosion“ bzw. zur „Implosition“.

Besonders dann, wenn sie über mehrere Jahre (Perioden) Jahr für Jahr sukzessive fortgerechnet werden, zeigen „freie“, also ausschließlich dem mathematischen Kalkül überlassene Modelle unvorhersehbare extreme und in sich widersprüchliche Ausschläge in den Rechenergebnissen für zentrale Größen.

Beispielsweise kann ein- und dasselbe Modell in ein- und demselben Rechenlauf stark sinkende Meeresspiegel bei gleichzeitig stark abschmelzenden Polarkappen „berechnen“.

Zurück auf Null: Einbau der „Intuition“

Um derartige „Explosionen“ der ansonsten wegen ihrer enormen Komplexität und Datenmassen völlig unbeherrschbaren Modelle zu verhindern, hilft den Modellautoren nur der Rückgriff auf die „a priorische Intuition“ – oder, wenn es noch schlimmer kommt: „a priorische Intention“.

Dazu werden so lange und so viele Ergebnisschranken eingebaut und Parameteränderungen vorgenommen, bis die Rechenergebnisse im „plausiblen“ oder gar „gewünschten“ Rahmen liegen. Die mit enormem Aufwand gebildeten Modelle, die eigentlich die unwissenschaftliche Intuition durch ein wissenschaftliches Gleichungssystem ersetzen sollen, werden eben nicht von der Intuition abgekoppelt. Im Gegenteil: Sie werden bereits im Enstehungsprozess „intuitiv kastriert“.

Das Vertrauen in die eigene Modellkonstruktion wird überlagert von völlig modellfremden „Überlegungen“, „Plausibilitäten“, „Intuitionen“ oder „Intentionen“ dazu, welche Ergebnisse „akzeptabel“ sind und welche Ergebnisse eine Modellkorrektur erfordern.

„Ja, zwei Grad oder mehr werden wir wohl kriegen – bis Ende des Jahrhunderts wohlgemerkt. Das sagt mir mein Instinkt, weil ich ja nicht weiß, wie sich die Emissionen entwickeln werden. Andere Klimaforscher haben möglicherweise einen anderen Instinkt. In unsere Modelle gehen nun einmal viele Annahmen ein, die höchst subjektiv sind. Mehr als Laien sich das vorstellen, ist Naturwissenschaft auch ein sozialer, vom Zeitgeist geprägter Prozess. Rechnen Sie also ruhig mit weiteren Überraschungen." (2)

Der Schwanz (Intuition/Intention/Zielvorstellung/Zielvorgabe) wackelt so lange mit dem Hund (Modell), bis die Modellergebnisse „passen“. Vor die Wahl gestellt, ob sie Vertrauen haben sollten auch in unerwartete, schwer erklärbare, unerwünschte oder extreme Prognoseergebnis ihres sorgsamst erbauten, mit ungeheuren Datenmengen gefütterten und aufwändig an die Vergangenheitsentwicklung angepassten Klima-Modells, oder doch lieber ihrer Intuition, ihren groben Erwartungen, ihren Plausibilitäten folgen sollten, ob sie gar politische Erwartungen antizipieren, politische Vorgaben erfüllen sollten, werden die Modellautoren stets Letzteres tun. Sie werden daModell „anpassen“, sie werden nach dem Motto arbeiten:

 „Read input, write output.“

Wissenschaftliches Instrument – Politische Wunderwaffe

Die enormen mathematischen Anstrengungen und die immense Datenhuberei, die zwischen Input und Output liegen, haben eben nicht den Zweck, von der Intuition oder Intention unabhängige wissenschaftliche Ergebnisse zu liefern.

Sie haben einzig den Zweck, den a priorischen Intuitionen oder gar Intentionen, also den Ergebnisvorgaben in einer den Modellen hilflos ausgesetzten „Alltagswelt“ möglichst großes Gewicht zu verleihen.

Diese „Mutation“ der Klimamodelle vom wissenschaftlichen Instrument zur politischen Waffe wird überdeutlich am jüngsten Bericht des „International Panel on Climate Change“ (IPCC) der Vereinten Nationen.

Im Widerspruch zu den tatsächlich gemessenen Werten und entgegen den zwingenden wissenschaftlichen Vorgaben der statistischen Methodenlehre wird „aus Gründen der Plausibilität“ an einer engen Korrelation zwischen menschenverursachtem CO2 einerseits sowie künftiger durchschnittlicher Lufttemperatur (Klima) andererseits festgehalten. Statt die nunmehr 15-jährige „Null-Korrelation“ zwischen menschenverursachter CO2-Emission (steigt kontinuierlich) und durchschnittlicher Lufttemperatur (bleibt konstant) zur Kenntnis zu nehmen und in die Modelle zu integrieren, wird die These vom „anthropogenen Klimawandel“ aufrechterhalten.

(2) DER SPIEGEL, Nr. 25 vom 17. Juni 2013, GESPRÄCH mit Hans von STORCH ;

 "Wir stehen vor einem Rätsel“  

In den Modellen wird eben nicht der Koeffizient für das Maß der Abhängigkeit der Lufttemperatur vom –menschenverursachten- CO2-Gehalt der Luft verändert. Vielmehr wird über einen „wissenschaftlichen Taschenspielertrick“  ein „Plausibilitäts-Ausweg“ konstruiert:

Während der letzten Jahre haben laut IPCC „vermutlich die Ozeane der Luft größere als die bisher angenommenen Wärmemengen entzogen und in großen Tiefen gespeichert.“

Modell-Katastrophen wider jede Vernunft

Aber dieser „rettende“ Entzugseffekt wird bald sein Ende haben.

Und dann endlich wird die Klimaerwärmung –mit 95-prozentiger Sicherheit!- wieder einsetzen.

Und dann endlich wird sie ganz schlimme Ausmaße annehmen.

Und dann endlich wird die zwar schon lange vorhergesagte, aber bisher von der Realität widerlegte endgültige Abschmelze des Arktiseises einsetzen; von dem auf Rekord-Niveau gestiegenen Antarktis-Eis ganz zu schweigen! 

Und dann endlich wird der bisher überaus moderate und über Jahrhunderte kaum veränderte Anstieg der Ozeane in Höhe von etwa 1,7 cm pro Jahrzehnt einer dramatischen Meeresflut weichen.

Und dann endlich werden sich schlimmste Extremwetterereignisse wie Stürme, Dürren oder Regenfluten in bisher unbekanntem Ausmaß häufen und große Teile der Erde verwüsten.

So sagen es die Modelle.

Und sie sagen es so, weil sie es nach den Vorgaben der katastrophensüchtigen Modellautoren so sagen müssen.

Dr. Dirk Beckerhoff 

Über den Autor

Dirk Beckerhoff (Jahrgang 1942, ist promovierter Dipl. Volkswirt (Wirtschftswachstum durch Ausbildung und Forschung, Bonn 1969)) ist Freier Publizist und hat gearbeitet als  Wissenschaftler (Ökonometrie), Leiter des Planungsstabes im Bundesministerium für Bildung und Wissenschaft, Mittelständischer Unternehmer (Maschinen- u. Anlagenbau) und Politik- sowie Unternehmensberater. 

 Weiterführender Link: 

ZAMG Temperatur-Hiatus: Klimamodelle erfassen Temperaturverlauf unzureichend




Klima, Liebe und Verbrechen – Ein Klimathriller von Sonja Margolina

Sie führt uns dabei beinahe um die ganze Welt, vom krisengeschütteten Kaukasus in die unwirtliche Antarktis, von der quirligen deutschen Hauptstadt in die brave schwäbische Provinz. Auch die wahre Liebe kommt nicht zu kurz. Und immer, wenn es besonders grotesk zuzugehen scheint, sind Ähnlichkeiten zu lebenden Personen und Ereignissen keinesfalls zufällig, aber voll aus dem unglaublichen Leben gegriffen. 

Eine Leseprobe dieses Thrillers finden Sie im Anhang, kaufen können Sie ihn hier als Kindle Edition

Related Files




Energieautarkie am Beispiel Sonne: Wie ideal ist dezentral? Nur wenn Geld keine Rolle spielt!

Um dieser Frage nachzugehen, muss man sich einmal die Erfordernisse einer „dezentralen Energieversorgung“, wie sie von grünbewegten Zeitgenossen unermüdlich propagiert werden, genauer ansehen. Unter Fachleuten spricht man in solchen Fällen auch von „Insellösung“. Um die Sache einfach zu halten, nehmen wir an, eine einzelne Familie mit 4 Personen wolle sich aus der Abhängigkeit von den Energieriesen befreien. Man kappt die Netzverbindung und setzt jetzt einzig auf Solarzellen sowie Batterien als Speicher für solche Zeiten, wo die Sonne mal gerade ein Päuschen einlegt. Was würde dafür benötigt, und wie sieht die entsprechende Kalkulation aus? Um das zu untersuchen, braucht man zunächst realistische Daten. Hierfür wurden deshalb die in Deutschland installierten Solarkapazitäten sowie die damit produzierten Strommengen über eine 1-Jahresperiode hinweg analysiert. Datenquelle sind die von der deutschen Strombörse (EEX) veröffentlichten Erzeugungsstatistiken in viertelstündlicher Auflösung.

Solarstromproduktion im Jahresverlauf

Für die hier durchgeführte Betrachtung wurde als Ausgangspunkt der 1-Jahresperiode der April 2012 gewählt, weil dadurch gleich am Anfang ein hohes Solaraufkommen gewährleistet wird. Das zwischen April 2012 und März 2013 in Deutschland produzierte Aufkommen an Solarstrom zeigt Bild 1.

Bild 1: Solarstromproduktion in Deutschland im Zeitraum von April 2012 bis März 2013 in MWh (Datenquelle: EEX)

Schon beim ersten Blick auf den Verlauf zeigt sich, dass das Aufkommen an Solarenergie genau gegenläufig zur üblichen Bedarfskurve verläuft: Im Winter, wenn der Energiebedarf am größten ist, liefert die Fotovoltaik die geringsten Erträge. Dies zeigt sich auch, wenn man sich die entsprechenden Nutzungsgrade der FV-Anlagen im Jahresverlauf ansieht, Bild 2. Bei dieser Kalkulation wurde übrigens der Zubau, der im Laufe der Untersuchungsperiode stattfand, mithilfe eines linearen Ausgleichsfaktors berücksichtigt.

Bild 2. Monatliche Nutzungsgrade der in Deutschland installierten Fotovoltaikanlagen im Zeitraum April 2012 bis März 2013

Entsprechend der geringeren Sonnscheindauer und des schlechteren Einfallswinkels im Winter zeigt sich ein Abfall des Nutzungsgrades von ca. 20 % in den sonnenreichen Sommermonaten auf teils weniger als ein Zehntel dieses Wertes in den vier dunklen Monaten November bis Februar. Für die Gesamtperiode ergab sich übrigens ein über dem langjährigen Durchschnitt liegender Gesamtnutzungsgrad von 12 %. Diese Nutzungsgradkurve diente als Grundlage für die Abschätzung des Solarstromaufkommens im nachfolgend vorgestellten Beispiel.

Familie Mustermann und ihr autarkes Solarhaus

Unsere Test-Inselfamilie Mustermann besteht aus Vater, Mutter und zwei fast erwachsenen Kindern und lebt in einer Doppelhaushälfte, die nach heutigem Standard gedämmt ist. Als Beitrag zum Klimaschutz verzichtet man auf fossile Energieträger wie Öl oder Gas und hat stattdessen eine elektrische Warmwasserbereitung sowie eine moderne Wärmepumpenheizung. Mustermanns verbrauchen jährlich die für einen solchen 4P-Haushalt typische Strommenge von 6190 kWh [WIKI] und für die Wärmepumpenheizung zusätzlich nochmals 2500 kWh, macht zusammen 8690 kWh. Während man beim normalen Stromverbrauch in erster Näherung einen konstanten Verlauf über das Jahr hinweg annehmen kann, hängt der Strombedarf der Heizung natürlich von der Jahreszeit bzw. von den Aussentemperaturen ab. Im vorliegenden Fall wird davon ausgegangen, dass sich Mustermanns auch hierbei mustergültig verhalten und die entsprechende Strombedarfskurve der üblichen Berechnung mittels Gradtageszahlen nach VDI 2067 entspricht. Den sich aus diesen Betrachtungen ergebenden Jahresverlauf des Stromverbrauchs zeigt Bild 3.

Bild 3. Verlauf des Strombedarfs von Familie Mustermann von April 2012 bis März 2013

Dimensionierung der Solaranlage

Die entscheidende Forderung an die zu beschaffende Solaranlage muss natürlich sein, dass sie den Jahresbedarf der Familie vollständig decken kann, und das über den gesamten Nutzungszeitraum von mindestens 20 Jahren und auch in etwas schlechteren Sonnenjahren, denn der Zähler soll ja abgeklemmt bleiben. Da Fotovoltaikpaneele mit einer Maximalleistung (kWp) von 1 kWp bei einem Nutzungsgrad von 12 % im Jahr 1051 kWh liefern, bräuchte man theoretisch rund 8,3 kWp, um die benötigte Jahresstrommenge zu erzielen.

Zunächst einmal müssen jedoch noch Abschläge mit Blick auf Modulwirkungsgrad, Dachneigung und Abschattung berücksichtigt werden, die man im Durchschnitt mit 8 % veranschlagen kann. Hinzu kommt die Tatsache, dass bei der Batteriespeicherung Verluste auftreten. Leider findet sich dazu nicht in jedem Prospekt eine Angabe. Deshalb sollte man beim Füllen und Entleeren der Batterien Verluste von 10 % ansetzen. Um beide Faktoren auszugleichen, muss man die Solaranlage entsprechend größer dimensionieren. Weitere Korrekturen betreffen den Ausgleich des Leistungsabfalls der Kollektoren im Verlauf der Zeit, den man mit 25 % ansetzen kann, sowie eine Sicherheitsmarge von 20 % für Jahre, in denen der Anlagenertrag wegen schlechten Wetters niedriger ausfällt. Hieraus ergibt sich folgende Auslegung:

Da Solarmodule pro Quadratmeter etwa 125 Wp liefern, bräuchte man dafür eine Dachfläche von rund 133 m2. Soviel geeignete Fläche steht auf einem klassischen Einfamilienhaus mit Satteldach jedoch nicht zur Verfügung, daher muss man vermutlich noch den Garten mit Solarmodulen belegen. Aber nun gut, für die Rettung des Klimas ist Familie Mustermann bereit, gewisse Einschränkungen in Kauf zu nehmen. Die Investitionskosten für eine solche Anlage betrugen (laut Solarrechner.de) im November 2013 rund 29.700,- €.

Für die weiteren Betrachtungen unterstellen wir ein worst-case-Szenario, d.h. wir simulieren eine Situation, in der die Solaranlagen aufgrund diverser Faktoren am unteren Minimum arbeitet und auch die Sonnenscheindauer um 20 % unter dem üblichen Niveau liegt.

Ist Tagesspeicherbetrieb sinnvoll?

Als erstes ist die Frage zu klären, ob mit einer solchen Anlage und einem ordentlichen Batteriepack eine Versorgung im Tag/ Nachtwechselbetrieb auch im Winter möglich ist. Als Simulationstag nehmen wir den 1. Januar 2013. An diesem Tag liegt der tägliche Bedarf an elektrischer Energie bei 30,35 kWh. Bezüglich der Batterie nehmen wir an, dass Mustermanns sich für die größte Version mit 13,8 kWh Speicherkapazität entschieden haben. Weitere Annahme ist, dass der Weihnachtsmann der Batterie um Mitternacht eine volle Ladung spendiert hat. Das Ergebnis einer Simulation am Beispiel dieses typischen Januartages zeigt Bild 4.

Bild 4. Simulation des Verlaufs von FV-Erzeugung, Nutzungsgrad, Strombedarf und Batterieladung in 15-min Schritten am 1. Januar 2013. An diesem Tag lag der Nutzungsgrad der Solaranlage bei 2,6 %, deutlich besser als der Monatsdurchschnitt von 1,6 %.

Wie sich zeigt, reicht die Batterieladung gerade hin, um den Strombedarf bis 10.30 zu decken, danach ist Schluss. Die Solaranlage kann den laufenden Bedarf nach einstündiger Pause dann lediglich zwischen 11.30 Uhr und 13.00 Uhr decken, danach ist alles dunkel und kalt. An ein Laden der Batterie für den nächsten Tag ist gar nicht zu denken. Da die meisten Tage in den Monaten November bis Februar ähnlich verlaufen, nützt die Batterie bei dieser Betriebsart herzlich wenig, und zwar gerade in der Jahreszeit, wenn sie am meisten gebraucht würde. Energieautarkie ist so nicht zu erreichen. Das ginge nur, wenn man die Batterie als Saisonspeicher betreibt, der in den sonnenreichen Monaten aufgeladen wird, um die Ladung dann im Winter abzugeben.

Batterie als Saisonspeicher

Deshalb wird im nächsten Schritt simuliert, wie sich die Kombination aus Solaranlage und Batterie bei einem Saisonspeicherbetrieb verhält. Dabei wird von den gleichen Voraussetzungen ausgegangen wie im ersten Fall, nur geht es jetzt darum zu ermitteln, welche Batteriekapazität erforderlich ist, um den Winter zu überstehen. Natürlich kann und muss die Batterie hierbei auch im Tagspeicherbetrieb verwendet werden, dieser braucht jedoch nicht speziell simuliert zu werden, für die Betrachtung genügen Monatsbilanzierungen. Das Ergebnis der entsprechenden Simulation zeigt Bild 5.

Bild 5. Simulation von Solaranlage und Batterien im Saisonspeicherbetrieb mit für Deutschland zwischen April 2012 und März 2013 ermittelten Solardaten

Wie man sieht, wäre ein solcher Betrieb im Prinzip machbar, sofern die Batterien diese Betriebsart ohne wesentliche Verluste und Eigenschaftsänderungen mitmachen. Benötigt würde allerdings ein recht grosser Batteriespeicher: Um die maximal erforderliche Energiemenge von 3358 kWh speichern und wieder abgeben zu können, würden Batterien mit einer Nennkapazität von 3730 kWh benötigt, da die maximale Entladetiefe von Li-Ionen-Batterien rund 90 % beträgt. Bei den aktuell angebotenen Systemen von z.B. Varta/ RWE beträgt die maximale Kapazität pro Einheit 13,8 kWh [RWE], für die benötigte Speicherkapazität wären demnach 270 Einheiten erforderlich. In durchschnittlichen Einfamilienhäusern könnte es bei einem Flächenbedarf von 0,24 m2 pro Einheit im Keller etwas knapp werden, vor allem da die Module noch ein wenig Zwischenraum für die Kühlluft benötigen. Zudem ist in solchen Fällen sicherlich eine Rücksprache mit der Feuerversicherung ratsam, denn Li-Ionen-Batterien haben den Ruf einer gewissen Feuergefährlichkeit [FEUE].

Bild 5. Li-Ionenakkus eignen sich sehr gut für alle möglichen Haushaltsanwendungen…aber für den Solarbereich?

Das grösste Problem dürften die Kosten sein. Mit Preisangaben halten sich die meisten Anbieter merklich zurück. Im Internet finden sich Angaben, aus denen sich ein Preis von rund 2615 €. pro kWh Speicherkapazität errechnen lässt [BATT]. Um die Zahlen nicht ins Unendliche wachsen zu lassen, wollen wir einmal annehmen, dass die Preise dank chinesischer Anbieter auf 1000,- €/ kWh sinken. Damit wären für die hier berechnete Speicherlösung rund 3,75 Mio. € aufzubringen. Allerdings kann davon ausgegangen werden, dass man bei einem derartigen Auftrag sicherlich noch etwas handeln kann, vielleicht bekommt man dann die Transportaufwendungen bezahlt, denn schliesslich wiegen diese Batterien rund 12,5 kg pro kWh Speicherkapazität, in Summe also etwa 47 Tonnen. Sinnvollerweise sollte man auch zu diesem Zeitpunkt gleich klären, wer sich nach Ablauf der Betriebsdauer um Abtransport und Entsorgung kümmert.

Interessant ist in diesem Zusammenhang die Frage, was denn eine solche Batterielösung für die „Insellösung Deutschland“ kosten würde. Hier genügt eine einfache Überschlagsrechnung: 0,9375 Mio. Batteriekosten pro Einwohner bei 80 Mio. Einwohnern macht rund 75 Billionen. Fazit: Eine Saisonspeicherlösung mit Batterien könnte möglicherweise an der Finanzierungsfrage scheitern.

Nepp und Bauernfängerei

Wie bereits erwähnt, finden sich im Internet dennoch zahlreiche Angebote für Privatleute, ihre neue oder bereits vorhandene Solaranlage mit einem solchen Speichersystem aufzurüsten. Hintergrund sind entsprechende Fördergelder – natürlich auf Kosten der Allgemeinheit –, die bei kleinen Batteriegrössen angeblich Gewinne ermöglichen sollen. Wie überall im Bereich der „Erneuerbaren“ sollte man solchen Angeboten jedoch mit Vorsicht begegnen, denn die Aussicht auf leichtes Geld lockt jede Menge Bauerfänger an, die dem arglosen Häuslebauer gerne das Blaue vom Himmel herunter versprechen. Nach überschlägigen Berechnungen liegen die Kosten für Batteriespeicherung von Strom im günstigsten Fall bei 35-50 ct./ kWh. Rechnet man noch die Kosten des eigenen Solarstroms hinzu, so liegt man nach wie vor deutlich über dem Strompreis der Versorgungsunternehmen.

Zudem sollte man auch den Leistungsangaben der Batterieanbieter mit gesundem Misstrauen begegnen. Da werden Betriebsdauern von 20 Jahren [VAR2], teilweise sogar von 24 Jahren [RWE] gemacht, mit der „kleinen“, aber wichtigen Einschränkung, dass lediglich 250 Lade/ Entladezyklen pro Jahr vorzusehen sind. Man fragt sich unwillkürlich, wie solche Zeiten garantiert werden können, obwohl das Produkt erst seit wenigen Jahren existiert und Langzeiterfahrungen demnach fehlen dürften. Bei den Garantiebestimmungen ist aber möglicherweise dann von lediglich 7 Jahren bzw. 4000 Ladezyklen statt der im Prospekt angegebenen 6000 die Rede [VAR1]. Und als defekt gilt ein Modul erst ab einem Kapazitätsverlust von 20 %. Wenn der Hersteller demnach einen Kapazitätsverlust von 19 % in 7 Jahren für zulässig hält, so würde dies im letzten von 20 Jahren Betriebsjahren knapp 54 % Kapazitätsverlust entsprechen. Häufig finden sich auch keine Angaben zur Selbstentladung, obwohl dies gerade für Langzeitspeicherung ein wichtiger Faktor ist. Und ach ja, nicht zu vergessen – wie sieht es mit der Selbstentladung der Batterien bei längerer Speicherdauer aus?

Misstrauen empfiehlt sich generell auch bei allen Produkten, für die im Datenblatt kein Speicherwirkungsgrad angegeben wird, obwohl dies bei der angegebenen Lebensdauer ein entscheidendes Kriterium darstellt. Bei 6000 Ladezyklen macht es schon einen erheblichen Unterschied, ob ich nur 5 %, 10 % oder gar 15 % des teuren Solarstroms pro Ladezyklus verliere. 6000 Zyklen mal 10 % sind immerhin 600 vollständige Batterieladungen zu je 13,8 kWh, da kommt schon was zusammen. Also Augen auf beim Batterienkauf – und im Zweifel lieber die Finger von windigen Angeboten lassen.

Fred F. Mueller

Quellen

[BATT] http://www.solista-solar.de/lithium-batteriespeicher-photovoltaik/

[FEUE] http://www.hawaiinewsnow.com/story/19173811/hfd-battling-kahuku-wind-farm-blaze

[RWE] www.rwe.de/homepower-solar

[VAR1] http://www.varta-storage.com/de/downloads.html

[VAR2] http://www.varta-storage.com/de/downloads.html

[WIKI] http://de.wikipedia.org/wiki/Bedarf_an_elektrischer_Energie  4.11.2013




Nordfriesland – Tacloban/Manila – Warschau

Höher gelegene Teile sind als Inseln erhalten geblieben, z.B. Sylt. Die Zahl der Opfer ist nicht bekannt, aber die Größe der überfluteten Fläche und die dort zerstörten Sied­lungen lassen vermuten, dass es sehr viele Tausend waren. Knapp 300 Jahre spä­ter hat die Nord­see weiter Land in Besitz genommen und später auch noch. Sie versucht es im­mer wieder – Hamburg stand 1963 unter Wasser und Holland wäre ohne seine Deiche nur halb so groß. Die folgenden Kartenausschnitte  zeigen die Veränderungen der Küste Nordfrieslands (Details bei Wikipedia). Deswegen gilt an der Küste: Wer nicht deichen will, muss weichen!

Heute

Hinsichtlich der Stärke von Fluten und Hochwässern ist festzustellen, dass extreme Ereignisse selten sind: je höher – desto seltener. Oft sind seit der letzten wirklich großen Flut viele hundert Jahre mit relativ kleinen Ereignissen vergangen. Das erinnert keiner, wenn der Abschnitt noch unbewohnt war, was wohl für Teile der philippinischen Inselwelt gelten mag. Allein zwischen 1200 und 1700 hat es an der nordfriesischen Küste die folgenden 6 großen Ereignisse gegeben:

1219    Marcellus -Flut

1287    Lucia-Flut

1362   Große Manndränke

1436   Allerheiligen-Flut

1570   2. Allerheiligen-Flut

1634   2. Manndränke

Für den Schutz der Küsten und der Flussauen gibt es ein Abwägungsproblem: Um sie gegen seltene Groß-Fluten und Hochwässer zu schützen, sind hohe Deiche nötig, deren Kosten über­proportional steigen.  Welche sind noch berechtigt ? Das ist nach dem örtlich unterschiedlichem Risikopotential zu entscheiden – bei Ackerflächen im Hinterland  könnte man seltene Überflu­tungen in Kauf nehmen, bei Siedlungen nicht. Was wir viel zu selten realisieren: Wir sind auf der Erde Gäste und die Erde ist der Chef,  der die Größenordnungen auch plötzlicher Verände­rungen bestimmt. Die Skala ist nach oben offen – nicht nur bei Vulkanausbrüchen, Erdbeben und Tsunami sondern auch bei Wetterereignissen wie Stürmen und Regenfällen. 

Bei Erdbeben vergrößern sich in den letzten Jahrzehnten die Opferzahlen. Beweist dies, dass die Erdbeben grundsätzlich stärker werden ?  Nein!  Sondern das Schadenspotential ist gestiegen, denn es leben immer mehr Menschen, und in manchen Regionen wohnen sie zumeist in weniger stabilen Häusern! Das folgende Bild aus der NW vom 13.11.2013 demonstriert die Konsequen­zen der Leichtbauweise sehr drastisch. Das dreistöckige Haus ist beschädigt, aber es steht noch und kann repariert werden.  Die in Leichtbauweise errichteten Häuser wurden zertrümmert.

Die Landnahme der Nordsee war ein natürliches Ereignis erheblicher Größenordnung. Deiche fehlten oder waren nicht hoch genug, und das flache Hinterland lag oft tiefer als das Hochwasser. Die Flut auf den Philippinen ist ein gleiches Ereignis. Der Sturm und die Regengüsse waren un­gewöhnlich stark. Deiche waren nicht hoch genug oder fehlten vollkommen, obwohl dort Tai­fune regelmäßig auftreten – und besonders große möglich sind.

Die Nachrichten zeigen Bilder mit zertrümmerten Häusern, mit einer zerstörten Stadt auf einer schmalen (Halb-?) Insel – vermutlich Tacloban.  Von Deichen ist nichts zu sehen! Wenigstens Reste müssten erhalten geblieben sein, hätten sie überhaupt bestanden. Verletzlicher kann eine küstenparallele Siedlungsstruktur in einem Gebiet mit häufigen Taifunen nicht sein. Diese Phi­lippinen-Flut wurde durch einen besonders starken Taifun bewirkt, der infolge mangelnder Vor­sorge mittels Eindeichung, großer Besiedlungsdichte und der vorherrschenden Leichtbauweise eine städtische und menschliche Katastrophe verursacht hat.

Die besondere Größenordnung dieses Taifuns soll durch die zunehmende Erderwärmung verur­sacht worden sein. Das ist schon deshalb nicht möglich, weil seit 16 Jahren wieder in eine Ab­kühlungsphase stattfindet. Sollte die Stärke dieses Sturmes die übliche Schwankungsbreite über­schritten haben, wäre das kein Beweis gegen seine natürliche Entstehung, sondern klassifi­ziert ihn als ein Großereignis, das seit Menschengedenken dort noch nicht erlebt wurde. Viel­leicht stellt die Detailanalyse fest, dass ein fünfhundertjähriges Ereignis vorliegt.

Wenn man hört, wie die Agitprops *) des Klimawandels auch dieses be­sondere Wetterer­eignis wieder erklären, ist man einen Moment fassungslos und fragt sich, wie sie in der Öffent­lichkeit zu einer solchen Beurteilung kommen, z.B. die Klimaforscher Mo­jib Latif und Stefan Rahmstorf. Wie ist es zu erklären, dass sie fundamentale Fakten nicht ken­nen oder unbe­rück­sichtigt lassen, nur um bei ihrem Credo bleiben zu können? 

 

*) Agitprops – nannte man in der DDR die Beauftragten für Agitation und Propaganda

Erklärung EINS: Man wurde zwar in Ozeanografie ausgebildet und weiß, wie sich Ozeane ver­halten, brauchte aber nie zu lernen, dass sie sich im Laufe der Erdgeschichte ständig verändert haben und das sie das auch heute noch tun; man weiß also nicht, dass sie früher anders waren als in der Gegenwart – und wie.

Diese Erklärung ist deshalb naheliegend, weil bei diesem Personenkreis eine erstaunliche Un­kenntnis erdgeschichtlicher Fakten festzustellen ist – oder diese vorgegeben wird. Ihnen reichen die Kenntnis der Wettererscheinungen von einhundert Jahren aus, um die Entwicklung des Wet­ters bis 2100 zu simulieren. Die irdische Klimageschichte von 4,5 Mrd Jahren mit ihrer Unzahl besonderer und auch aus der Hydrologie und Meteorologie wohlbekannter Vorkommnisse bleibt unberücksichtigt, beispielsweise hundertjährige Überflutungen flacher Küstenländer und tau­sendjährige Überschwemmungen der Flussauen. Wie Tacloban lehrt, können sich beide jeder Zeit wiederholen. Wissen Rahmstorf und seine Glaubensbrüder wirklich nicht, das der CO2-Ge­halt der Atmosphäre in der geologischen Vergangenheit sehr viel höher war als heute,  was der Natur gut bekommen ist, und was weder Eis- noch Warmzeiten verhindert hat? Wissen sie wirk­lich nicht, dass „wissenschaftliche“  Szenarien und Prognosen, die auf kurzfristigen Änderungen beruhen, Scharlatanerie sind?

Erklärung ZWEI: Tatsächlich weiß man alles, u.a. auch,

  • dass wir das von der Sonne gesteuerte Wetter – nach 30 Jahren wird es Klima genannt – nicht schützen können;
  • dass die Änderungen des 20. Jh. von nur einigen Zehntel Grad übliche Temperatur-schwan­kungen sind, aber noch lange kein Klimawandel;
  • dass ausweislich der Temperaturaufzeichnungen von 300 Jahren diese Erwärmung noch nicht mal überall auf der Erde stattfindet, denn in etwa ein Viertel aller Stationen dauert die Kleine Eiszeit immer noch an;
  • dass CO2  der Grundbaustein unserer Nahrungsmittel ist und mehr CO2 reichere Ernten er­gibt, weshalb u.a. die Pflanzen in Gewächshäusern damit begast werden;
  • dass es seit 16 Jahren wieder kühler wird;
  • dass der CO2-Gehalt der Luft trotzdem ansteigt;
  • dass "CO2 als  Klimagas bedeutungslos ist“, wie im Lexikon der Physik von 1959 festge­stellt wird, wofür das Gegenteil bis heute nicht bewiesen wurde, und schließlich
  • dass es für das Modell einer anthropogen verursachten Erderwärmung keinen Beweis son­dern nur unterschiedliche Simulationsergebnisse ergibt, die je nach Eingabe stark voneinander abweichen, und schon deshalb nicht richtig sein können.

Es wird wiederholt eine „Versauerung der Ozeane“ befürchtet – und von den Medien als Ge­spenst an die Wand gemalt. Dazu besteht jedoch kein Anlass:  Die sehr komplizierte Bio-Chemie des Lebens im Wasser und besonders die der Korallenriffe muss dem Ozeanografen Stefan Rahmstorf nicht bekannt sein, aber sollte er

·      tatsächlich eine Abnahme des pH-Wertes von 8,2 auf 8,1 schon für eine Versauerung hal­ten, obwohl sich doch nur die Alkalinität etwas verringert hat ?, und

·      wirklich nicht berücksichtigen können, dass notabene unbekannt ist,  wie und wo sich der pH-Wert der Ozeane örtlich und zeitlich ändern muss, weil Flüsse wechselnde Mengen und Arten von Ionen ins Meer entlassen, die bei der chemischen Verwitterung der Ge­steine gelöst wur­den ?

Aber: Wissen kann stören, so dass man es verdrängt, um nicht den Entzug von Vorteilen zu ris­kieren. Was umso leichter fällt, als  das Glaubensbedürfnis der Masse umso eher und gründlicher zu befriedigen ist,  je absurder die Dogmen sind. Das ist nicht neu, die Geschichte der Wissen­schaft kennt viele Beispiele – auch die von verantwortungslos handelnden Wissenschaftlern.

Erklärung Drei: Fakten sind unerheblich und stören nur, denn man ist vom eigenen Rezept überzeugt, wie die Welt zu retten ist: Weltklimavertrag, Dekarbonisierung!  Dass die Rettung der Welt schon wiederholt versucht worden ist und jedes Mal scheiterte, braucht man nicht zu wis­sen, denn man weiß ja, dass man es besser weiß.

UN-Klimakonferenzen

Die Klimakonferenzen sehen ihren Auftrag darin, unseren CO2-Ausstoss zu verringern, um da­mit das Klima – und die Menschheit – zu schützen, denn sollte das nicht gelingen,  wäre ihre Existenz gefährdet. Insbesondere für die Länder der Dritten Welt soll das erforderlich sein. Tat­sächlich sind diese Bemühungen kontraproduktiv und bewirken das Gegenteil: sie schaden der Dritten Welt mehr als dass sie ihr nutzen: Die enormen Mittel, die bis heute für den grundsätz­lich unmöglichen ‚Klimaschutz’ ausgegeben worden sind, bewirken nichts, denn das CO2  ist nicht klimaschädlich, aber für wirkliche Umweltschutzmaßnahmen sind die Mittel verloren.

Verloren? Sie haben jahrzehntelang die Klimabürokratie, die als Klimaforschung  getarnte Selbstversorgung und den weltweiten Klimatourismus finanziert. Besonders letzterer lässt bei­spielhaft erkennen, dass das Gegenteil von dem erreicht wird, was angeblich beabsichtigt ist. Jene Teilnehmer,  die mangels selbstkritischer Reflexion von ihren guten Absichten überzeugt sind, scheinen den Widerspruch aber wohl nicht zu bemerken: An den Jahreskonferenzen neh­men Zehntausende teil. Sie reisen aus aller Welt zu fernen Zielen. Für ihren Kampf gegen den Anstieg des CO2 in der Luft verbrauchen sie für ihre Reisen große Mengen an Treibstoff und produzieren damit CO2, das in die Atmosphäre entweicht.

Es wird Zeit, die Klimabürokratie und den Klimatourismus zu beenden. Es wird Zeit, die dafür nutzlos ausgegebenen Mittel in praktischen Umweltschutz zu investieren, damit sie den Men­schen wirklich nutzen, z.B. in den Bau von Deichen und stabilen Häusern.

Es wird auch Zeit, eine Klimaforschung zu beenden, die der Nobelpreisträger Ivar Giaevar Pseudo-Wissenschaft nennt, und deren manche Vertreter sich nicht schämen, das Unglück der Opfer von Tacloban als Bestätigung der Ergebnisse ihrer Computerspiele zu missbrauchen.

Der gesamte Aufsatz kann als pdf im Anhang herunter geladen werden.

Related Files