Die neue, „vorbildliche“ EU-Klimapolitik – Ein Meisterwerk doppelbödiger Täuschung

Die mit diesen Beschlüssen verfolgte Absicht ist ebenso einfach wie klar: Angesichts der Tatsache, dass selbst in dem Land, wo ein Großteil der Bevölkerung den grünen Göttern weiterhin kniefällig opfert, manche Häretiker und sogar Teile der Industrie immer lauter gegen die Belastungen durch eine existenzvernichtende Energiepolitik aufbegehren, hat die große Mutterspinne beschlossen, sich etwas aus der Schusslinie zu bringen, indem eine politische „große Rochade“ inszeniert wird. Statt sich allein dem Volkszorn auszusetzen, sollen andere große Länder – vor allem die USA und China – dazu gebracht werden, einen bindenden UN-Beschluss mitzutragen, der massive CO2-Reduktionsziele vorschreibt. Gestützt auf diesen äußeren Zwang, so die offensichtliche Hoffnung mancher EU-Granden, kann man dann den zunehmend widerspenstigen eigenen Völkern und sogar ganzen Nationen weiterhin Vorschriften „zur Rettung des Planeten“ aufoktroyieren. Um dieses edle Ziel zu erreichen, haben die maßgeblichen Strippenzieher der europäischen Politik ein Meisterwerk doppelbödiger Täuschung inszeniert. Ungeachtet der Tatsache, dass die europäische Klimapolitik inzwischen fatal an den biblischen Koloss auf tönernen Füßen erinnert, haben sie alle erdenklichen politischen Tricks eingesetzt, um mit freundlicher Mithilfe der Medien nach außen den Anschein zu erwecken, als stünde die EU geschlossen hinter kühnen Maßnahmen zur Bekämpfung des „Klimawandels“. Das Täuschungsmanöver ist in der Tat brillant: Während der Protest gegen ruinöse Strompreise langsam, aber sicher zunimmt, wird den Nationen, die am „Klimagipfel“ in Paris teilnehmen, die Illusion einer EU vorgegaukelt, die geschlossen und entschlossen hinter ambitionierten Zielen zur Klimarettung steht. In kommenden Jahren wird man dann, so die offensichtliche Hoffnung, die aufgrund dieses Täuschungsmanövers zustande gekommenen verbindlichen UN-Beschlüsse als Druckmittel benutzen können, um der widerstrebenden Bevölkerung eine Politik aufzuzwingen, die den eigenen Interessen diametral entgegengesetzt ist.

Unmögliches wird sofort erledigt

Dabei ist der Trick eigentlich leicht zu durchschauen. Man muss sich nur einige Fakten in Erinnerung rufen, welche die meisten sogenannten „Qualitätsmedien“ in ihrer Berichterstattung sorgfältig ausgeklammert haben. Ein wesentlicher Aspekt ist beispielsweise die Tatsache, dass Deutschland – als treibende Kraft hinter diesem Mummenschanz – selbst außerstande sein wird, die vollmundig proklamierten Ziele zur CO2-Reduktion einzuhalten. In den ersten Jahren nach der Wiedervereinigung war noch leicht gefallen, den CO2-Ausstoß zu senken, da dies eine quasi automatische Folge der Stilllegung maroder und grotesk ineffizienter Industrien der ehemaligen DDR war. So gelang es, den CO2-Ausstoß, der 1990 noch bei 1042 Mio. Tonnen lag, bis 2009 auf nur noch 786 Mio. Tonnen zu senken. Seither ist er jedoch langsam, aber stetig wieder auf 834 Mio. Tonnen im Jahre 2013 angestiegen.

Bild 1: Stromerzeugung aus EE-Quellen in TWh (Endangabe in Prozent des Gesamtverbrauchs, Grafik-Limburg, Quellen siehe Bild) vs CO2 Emissionen zur Stromerzeugung in Deutschland
Somit haben wir die eigentlich widersinnige Situation, dass Deutschland als leistungsstärkste Industrienation Europas außerstande sein wird, die „Klimaziele“ zu erreichen, die man anderen schmackhaft machen will.

Bequeme Ausstiegsklausel

Auch die Zustimmung der übrigen europäischen Nationen zu den lauthals proklamierten „40-27-27“-Zielen wurde in vielen Fällen nur durch Einsatz aller möglichen politischen Tricks erreicht. Die Bandbreite reichte dabei von Erpressung bis hin zur Bestechung, indem man beispielsweise an skeptische Nachbarländer wie Polen großzügige Geschenke wie umfangreiche Gratiszuteilungen an CO2-Zertifikaten verteilte. Dennoch konnte man den letztlich präsentierten Konsens nur sicherstellen, indem man den Zweiflern in einem wesentlichen Punkt entgegenkam: Es gelang den Verlierern dieses Machtkampfs, in dem Vertragswerk eine Zustimmungsklausel zu verankern, die es in Zukunft jedem Land ermöglichen wird, unerwünschte Beschlüsse zu blockieren. Einzelne Länder der EU werden daher künftig die Möglichkeit haben, die hehren Ziele, die man jetzt allen anderen Nationen der Welt aufschwatzen will, innerhalb der EU selbst zu verhindern. Eine wirklich raffiniert doppelbödige Ausstiegsmöglichkeit….

Das Geldscheffeln soll weitergehen

Fasst man all diese Punkte zu einem Gesamtbild zusammen, so erkennt man die wahren Dimensionen des politischen Schwindels, der hier in einer Serie aufwendiger, sorgfältig auf nationaler wie auch internationaler Ebene arrangierter Täuschungsmanöver durchgezogen werden soll. Vorrangiges Ziel ist dabei zunächst, andere Nationen dazu zu bringen, „Klimarettungsziele“ zu unterstützen, welche die europäischen Länder selbst in Wahrheit weder imstande noch bereit sein werden, selbst zu tragen. Offensichtlich hofft man darauf, dass dank dieser Täuschung einflußreiche Länder wie die USA, deren Präsident aus seinen „Klimaschutzneigungen“ keinen Hehl macht, oder wie das von erheblichen Smogproblemen gebeutelte China den ausgelegten Köder schlucken werden. Hat man diese erst einmal auf seiner Seite, so dürfte es leicht fallen, die restlichen Länder mit an Bord zu bekommen. Natürlich auf Kosten der Masse der Bevölkerung.
Doch neben zahlreichen Verlierern wird es im Falle der Durchsetzung dieser Politik auch diverse Gewinner geben. Treibende Kraft hinter diesen Machenschaften ist der dringende Wunsch interessierter Kreise, die bisherige Gelddruckmaschine „Klimarettung“ weiter unter Dampf zu halten. Dieses Geschäftsmodell von mittlerweile industriellen Ausmaßen beschert nämlich den entsprechenden Oligarchen Gewinne, neben denen sich die Erträge der internationalen Drogenmafia geradezu mickrig ausnehmen. Und im Gegensatz zu letzteren braucht man als „Öko-Mafiosi“ weder seine Freiheit noch gar sein Leben auf’s Spiel zu setzen…
Fred F. Mueller




Taschenspielertricks mit der EEG Umlage – AGORA fordert weitere EEG Subventionen..

Reduzierung der EEG-Umlage

In den letzten Tagen wurde in der Presse die Reduzierung der EEG-Umlage von 6,24 Cent je Kilowattstunde auf 6,17 Cent angekündigt. Dies ist nicht gerade viel, aber selbst diese winzige Senkung scheint einzig auf einem Buchungstrick zu beruhen. Der Bund der Steuerzahler meldet:

„Trügerischer EEG-Überschuss: Das EEG-Konto weist zum Ende August einen Überschuss von 1,5 Mrd. Euro aus. Der Überschuss ist jedoch hauptsächlich aufgrund einer Buchungsänderung entstanden. Die Zahlungen der sogenannten Marktprämie, dem zweithöchsten EEG-Ausgabeposten, werden künftig erst im Folgemonat kontowirksam. Somit fielen im August einmalig Ausgaben von rund 700 Mio. Euro weg, die nun erst im September das Konto belasten werden. Aufgrund des Überschusses kann aber mit einer Reduzierung der EEG-Umlage zum Jahreswechsel gerechnet werden.“

http://www.handelsblatt.com/politik/deutschland/eeg-umlage-deutliche-entlastung-von-stromkunden-bleibt-aus/10860376.html
http://www.steuerzahler.de/Stromverbraucher-endlich-entlasten/63717c73763i1p637/index.html

Planer fordern eine neue Ökostrom-Abgabe

… der Kreativität sind keine Grenzen gesetzt:
http://www.welt.de/wirtschaft/energie/article133325028/Planer-fordern-eine-neue-Oekostrom-Abgabe.html
Die Frage ist, wer das bezahlen soll, wer davon profitiert und was es nutzt.
 

Schwarzbuch des Bundes der Steuerzahler kritisiert öffentliche Steuergeldverschwendung durch Windkraft

„Kein Glück mit der Windenergie

Die Naturstrom Landkreis Böblingen GmbH, eine Tochtergesellschaft des Landkreises Böblingen, hatte große Pläne. Im Dezember 2011 wurde die Planung für den Bau von zwei Windkraftanlagen auf einem Flurstück in der Nähe der Autobahn und unweit des Stuttgarter Flughafens auf der Gemarkung der Stadt Leonberg endgültig angestoßen. Dazu beauftragte man eine Fachfirma zur Begleitung und Erstellung der Genehmigungsunterlagen. Die Genehmigung schien kein Problem. Windmessungen ergaben eine positive Wirtschaftlichkeitsprognose, die Erschließung schien einfach und auch der Natur- und Artenschutz war gewährleistet. Als offener Punkt stand jedoch noch das Thema Flugsicherung aus – und das wurde dem Projekt zum Verhängnis. Im Juli 2013 wurden die Planungen aufgrund von Einwänden der Flugsicherung gestoppt und nach einer negativen Entscheidung durch die Fluglärmkommission im November 2013 endgültig eingestellt. An den bis dahin angefallenen Entwicklungskosten in Höhe von rund 373.000 Euro beteiligen sich die Stadtwerke Sindelfingen anteilig mit rund 27.000 Euro für einige Messungen. Den Löwenanteil von rund 346.000 Euro trägt dagegen die Naturstrom Landkreis Böblingen GmbH. Inzwischen ist klar: Auch die für 2014 vorgesehene Änderung des Erneuerbare-Energien-Gesetzes mit geringeren Einspeisevergütungen hätte – so die Ausführungen des Landrats – das wirtschaftliche Aus des Projekts bedeutet. Auf Nachfrage teilte der Landkreis Böblingen mit, dass er keine weiteren Windenergieanlagen plane.“
http://www.schwarzbuch.de/content/kein-gluck-mit-der-windenergie
Hier wird ein Projekt kritisiert, welches gar nicht realisiert wurde. Was ist aber mit all den kommunalen Windparks, welche im laufenden Betrieb Verluste produzieren? Bitte meldet alle defizitären kommunalen Windparks (auch kommunaler Energieversorger / Stadtwerke) an den Bund der Steuerzahler und den Landesrechnungshof, am besten mit entsprechendem Hintergrundmaterial (z.B. Auslastung in % [Volllaststunden], Gegenüberstellung IST-Ertrag mit SOLL-Ertrag aus Projektprospekt, IST-Ertrag als % des Referenzertrages, usw.).
http://www.schwarzbuch.de/node/add/verschwendungsfall
  

Neue Bauordnung mit Überraschungen

Ökologisches Bauen:  Jetzt kommt die Zwangsbegrünung
http://www.faz.net/aktuell/wirtschaft/wirtschaftspolitik/bauordnung-in-baden-wuerttemberg-zwangsbegruente-haeuser-13208204.html
http://www.faz.net/aktuell/wirtschaft/baden-wuerttemberg-gruene-fesseln-13208196.html
Ziemlich problemlos soll künftig jeder in seinem Garten Kleinwindkraftanlagen aufbauen können …
Wer einen Garten hat, darf dort zukünftig ein kleines Windrad hinstellen, damit die Energiewende noch mehr Schwung bekommt. Ob es dem Nachbarn nun passt oder nicht … 

Grüne Energie wird überproportional viel gefördert

40 Milliarden Euro Subventionen für Ökostrom

http://www.faz.net/aktuell/wirtschaft/eu-unterstuetzungen-helfen-am-ehesten-oekostrom-13204505.html
http://www.handelsblatt.com/politik/international/eu-studie-140-milliarden-euro-energiesubventionen/10833902.html
Den „niedrigen Kosten“ der Windenergie sind sicherlich noch die Kosten für Backup-Kraftwerke bzw. Stromspeicher und die Stromtrassen hinzuzurechnen um ein realistisches Bild zu bekommen.
Mit Dank an BÜRGERINITIATIVE  „PRO SCHURWALD“     

mailto: pro-schurwald-lichtenwald@web.de

Internet:  www.pro-schurwald.com




Eine einfache Wahrheit: Computer-Klimamodelle können nicht funktionieren

Bild rechts (Abbildung 1): Wigley und H.H.Lamb, Gründer der CRU. Quelle
IPCC-Computer-Klimamodelle sind die Zugpferde bei der Irreführung der Öffentlichkeit hinsichtlich AGW mit der Behauptung, dass menschliches CO2 die globale Erwärmung verursacht. Sie erzeugen die Ergebnisse, für die sie konstruiert worden sind.
Das Akronym GIGO (Garbage In, Garbage Out) reflektiert den Umstand, dass die meisten an Computermodellen Arbeitenden das Problem kannten. Einige schlagen vor, dass es in der Klimawissenschaft tatsächlich steht für Gospel In, Gospel Out [etwa: Prinzip hinein, Prinzip heraus. Ich belasse es wegen der vielen Bedeutungen beim Original. Anm. d. Übers.]. Die Gospel Out-Ergebnisse sind die IPCC-Vorhersagen (Projektionen), und sie sind konsistent falsch. Das ist für mich keine Überraschung, weil ich von Anfang an die Unzulänglichkeit der Modelle betont habe. Ich habe beobachtet, wie die Klimamodellierer die Klimakonferenzen als Präsentatoren von Schlüsselbemerkungen gekapert und dominiert haben. Es waren Modellierer, die die CRU dominiert haben und mittels der CRU auch das IPCC. Die Gesellschaft ist immer noch fasziniert von Computern, so dass sie diesen eine Aura der Genauigkeit und Wahrheit zugebilligt wird, die durch nichts gerechtfertigt ist. Pierre Gallois erklärt dazu:
Falls man Albernheiten in einen Computer füttert, kommt nichts außer Albernheiten heraus. Aber diese Albernheiten hier sind durch eine sehr teure Maschine gelaufen und wurden irgendwie geadelt, und niemand wagt es, sie zu kritisieren.
Michael Hammer fasst es so zusammen:
Es ist wichtig, sich daran zu erinnern, dass der Modelloutput vollständig und exklusiv bestimmt wird durch die in den Input-Fragen enthaltenen Gleichungen. Der Computer bewirkt kein Hinterfragen, bringt keine neuen Informationen und keine größere Sicherheit im Output. Er liefert nur Rechenleistung.
Es ist ein guter Artikel, der jedoch den wichtigsten aller Punkte nicht anspricht, nämlich dass ein Modell nur so gut ist wie die Struktur, auf dem es konstruiert wurde, nämlich Wetteraufzeichnungen.
Die IPCC-Lücke zwischen Daten und Modellen beginnt
Dieses Auslassen ist keine Überraschung. Der CRU-Gründer Hubert Lamb definierte das grundlegende Problem, und sein Nachfolger Tom Wigley besorgte die Transition zum größeren Problem von politisch dirigierten Klimamodellen.
Der Grund von Lamb, die CRU zu gründen, wird auf Seite 203 seiner Autobiographie genannt mit dem Titel: Through all the Changing Scenes of Life: A Meteorologists Tale”:
…es war klar, dass die erste und größte Notwendigkeit darin bestand, die Fakten von Aufzeichnungen des natürlichen Klimas aus der Vergangenheit zu etablieren, bevor irgendwelche Nebeneffekte menschlicher Aktivitäten wichtig geworden sein könnten“.
Lamb wusste, was los war, wenn er kryptisch schreibt:
Mein direkter Nachfolger Professor Tom Wigley war zuallererst an den Aspekten einer Veränderung des Weltklimas interessiert als Folge menschlicher Aktivitäten, primär durch das Verbrennen von Holz, Kohle, Öl und Gasvorräten…“ – „Nach nur wenigen Jahren wurde fast die gesamte Arbeit an der historischen Rekonstruktion von Klima- und Wettersituationen der Vergangenheit, die die CRU zunächst so bekannt gemacht hatte, aufgegeben“.
Lamb erklärte des Weiteren, wie eine Zuwendung der Rockefeller Foundation zu einem völligen Fehlschlag wurde:
…eine verständlicherweise unterschiedliche wissenschaftliche Beurteilung zwischen mir und dem Wissenschaftler Dr. Tom Wigley, den wir damit beauftragt haben, die Verantwortung für die Forschung zu übernehmen“.
Wigley trieb die Anwendung von Klimamodellen voran, aber Lamb wusste, dass diese nur so gut waren wie die Daten, die für ihre Konstruktion verwendet worden waren. Lamb liegt immer noch richtig. Die Modelle beruhen auf Daten, die entweder gar nicht existieren oder hinsichtlich aller Messungen ungeeignet sind.

Abbildung 2
Das Konstrukt von Klimamodellen
Modelle reichen von einfachen maßstäblich verkleinerten Kopien mit erkennbaren individuellen Komponenten bis zu Abstraktionen wie mathematische Formeln, die weit entfernt sind von der Realität, wobei Symbole die individuellen Komponenten repräsentieren. Abbildung 2 ist ein einfaches schematisches Modell mit den für ein Computermodell notwendigen Gliederungen. Der Abstand der Gitterpunkte (gezeigt hier 3° mal 3°) variiert, und es wird behauptet, dass eine Reduktion des Abstandes der Gitterpunkte verbesserte Genauigkeit liefert. Das spielt aber keine Rolle, weil es so wenige Stationen mit angemessener Länge oder Zuverlässigkeit gibt. Die mathematische Gleichung für jeden Gitterpunkt kann nicht genau sein.

Abbildung 3: Anzahl der Stationen nach NASA GISS
Diese Karte ist betrügerisch, weil jeder Punkt eine einzelne Wetterstation repräsentiert, aber im Maßstab der Karte jeweils ein paar Hundert Quadratkilometer überdeckt. Aber unabhängig davon ist es Realität, dass es in riesigen Gebieten der Welt überhaupt keine Wetterstationen gibt. Möglicherweise gibt es an über 85% der Gitterpunkte keine Daten. Das tatsächliche Problem ist sogar noch größer als NASA GISS, vielleicht unwissentlich, und wird in Abbildung 4 illustriert:

Abbildung 4
Abbildung 4(a) zeigt die Länge der Aufzeichnung. Nur 100 Stationen reichen 100 Jahre zurück, und fast alle von ihnen liegen in dicht besiedelten Gebieten im Nordosten der USA oder Westeuropa und sind Schauplatz des städtischen Wärmeinseleffektes (UHI). Abbildung 4(b) zeigt den Rückgang der Anzahl von Stationen um das Jahr 1960. Teils erfolgte dieser Rückgang wegen der vermuteten besseren Abdeckung durch Satelliten. Effektiv war das aber erst 2003-2004 der Fall. Die Messungen an der Erdoberfläche blieben der Standard für die IPCC-Berichte. Abbildung 5 zeigt eine von der CRU erstellte Karte für den Arctic Climate Impact Assessment (ACIA)-Bericht [etwa: Bericht zur Abschätzung von Klimaauswirkungen in der Arktis].

Abbildung 5.
Es ist eine stereographische Projektion über den Zeitraum 1954 bis 2003 und zeigt für den Arktischen Ozean (14 Millionen km², also fast die Größe von Russland) „no data“. Trotz des signifikanten Rückgangs der Anzahl von Stationen in Abbildung 4(b) zeigt die Graphik 4(c) nur einen leichten Rückgang der abgedeckten Gebiete. Dies liegt daran, dass man annimmt, dass jede Station einen Umkreis von 1200 km um die Station repräsentiert. Das ist absurd. Man zeichne einen Kreis mit einem Radius von 1200 km um irgendeine Station an Land oder auf See und schaue, was darin eingeschlossen ist. Die Behauptung ist sogar noch dümmer, wenn der Umkreis teilweise Wasser überdeckt.
Abbildung 6a zeigt den direkten Abstand zwischen Calgary und Vancouver, der 670 km beträgt und in etwa auf der gleichen geographischen Breite liegt.

Abbildung 6a

Abbildung 6b: Distanz zwischen London und Bologna 1154 km.

Abbildung 6c: Distanz zwischen Trondheim und Rom 2403 km. Man beachte, dass dieser Kreis mit Durchmesser 2400 km fast ganz Europa einschließt.
Ein Beispiel der Probleme, die sich aus der 1200-km-Behauptung ergeben, zeigte sich vor ein paar Jahren in Saskatchewan. Der Ombudsmann der Provinz suchte meinen Rat hinsichtlich Behauptungen einer Frostversicherung, die sinnlos schienen. Die Landwirtschafts-Versicherung der Regierung entschloss sich, Versicherungen gegen Frost anzubieten. Jeder Landwirt wurde aufgefordert, die nächstliegende Wetterstation als Basis für Entscheidungen heranzuziehen. Schon im allerersten Jahr kam es zu Frost bereits Ende August. Mittels der Aufzeichnungen von Wetterstationen erhielt die Hälfte aller Landwirte keinen Ausgleich, weil ihre Station +0,5°C gemessen hatte, obwohl sie alle von „schwarzem Frost“ betroffen waren. Die Bezeichnung „schwarzer Frost“ deswegen, weil vormals grüne Blätter nach dem Frost schwarz waren. Die andere Hälfte wurde ausbezahlt, obwohl es dort keine Beweise für physischen Frost gab, die Station aber eine Temperatur von -0,5°C angezeigt hatte. Der Ombudsmann konnte dieses Missverhältnis und die Ungenauigkeit der Temperaturmessungen nicht glauben, vor allem in einem nahezu isotropen Gebiet. Vor allem, nachdem ich darauf hingewiesen hatte, dass die Temperaturmessungen von einer Stevenson Wetterhütte (Screen) stammten, zumeist 1,25 bis 2 m über Grund und damit über dem Getreide. Die Temperaturen unterhalb dieses Niveaus sind markant unterschiedlich.
Empirischer Test der Temperaturdaten
Eine Gruppe, die ein Kartographie-Projekt durchführte und dabei versuchte, Daten für die praktische Anwendung zu verwenden, brachte die Unzulänglichkeit der Temperaturaufzeichnung ans Licht:
Die Story dieses Projektes beginnt mit Kaffee, wir wollten Karten erstellen, die zeigten, wo in der Welt Kaffee am besten gedeiht und wohin er nach der Ernte geht. Wir erkundeten Daten der weltweiten Kaffeeproduktion und besprachen, wie man die optimalen Wachstumsgebiete auf der Grundlage entscheidender Umweltbedingungen kartographieren könnte: Temperatur, Niederschlag, Höhe, Sonnenlicht, Wind und Bodenqualität.
Den ersten extensiven Datensatz, den wir finden konnten, enthielt Temperaturdaten vom National Climatic Data Center NCDC der NOAA. Also begannen wir eine Karte der Erde zu zeichnen auf der Grundlage der historischen monatlichen Temperatur. Der Datensatz enthielt Messungen bis zum Jahr 1701 zurück von über 7200 Wetterstationen auf der ganzen Welt.
Jede Klimastation konnte an einem bestimmten Punkt auf dem Globus platziert werden aufgrund der geographischen Koordinaten. Nordamerika und Europa wiesen dicht gedrängt Messpunkte auf, während die räumliche Verteilung von Stationen in Südamerika, Afrika und Ostasien ziemlich spärlich ist. Die Stationsliste veränderte sich von Jahr zu Jahr, wobei einige Stationen neu online gingen und andere verschwanden. Dies bedeutete, dass man nicht einfach die Temperatur an einem bestimmten Punkt mit der Zeit plotten konnte.

Abbildung 7
Die von ihnen erstellte Karte illustriert die Lücken sogar noch stärker, aber das war nicht das einzige Phänomen.
An dieser Stelle hatten wir eine Karte mit einer passablen Approximation der globalen Temperatur (Abbildung 7), aber es war schwierig, Daten hinsichtlich Niederschlag, Höhe über NN, Sonnenlicht, Wind und Bodenqualität zu finden. Die Temperaturdaten allein lieferten uns keine überzeugende Story.
UK mag genaue Temperaturmessungen haben, aber das ist ein kleines Gebiet. Viel größere Länder weisen ungeeignete Instrumentation und Messungen auf. In den USA gibt es möglicherweise das beste, mit Sicherheit aber das teuerste Netzwerk. Forschungen von Anthony Watts zeigten, dass die US-Aufzeichnungen nur 7,9 Prozent Wetterstationen mit einer Genauigkeit unter 1°C aufweisen.
Daten bzgl. Niederschlag sind das größere Problem
Wasser in allen Aggregatzuständen ist kritisch für den Energietransport durch die Atmosphäre. Der Transfer von zusätzlicher Energie aus den Tropen, um Defizite in Polargebieten auszugleichen (Abbildung 8) erfolgt zum größten Teil in Gestalt latenter Wärme. Niederschlag ist lediglich eine Art, diese grundlegende Variable zu messen.

Abbildung 8
Es ist eine nur sehr schwer genau zu messende Variable, und die Aufzeichnungen sind räumlich und zeitlich völlig ungeeignet aufgelöst. Ein Beispiel dieses Problems zeigte sich in Versuchen, Computermodelle zu verwenden, um den afrikanischen Monsun vorherzusagen (Science, 4. August 2006):
Alessandra Giannini, eine Klimawissenschaftlerin an der Columbia University: „Einige Modelle sagen eine nassere Zukunft vorher, andere eine trockenere. Sie können nicht alle richtig sein“.
Ein ausgemachter Schuldiger hierfür war die Unzulänglichkeit der Daten.
Ein offensichtliches Problem ist das Fehlen von Daten. Das afrikanische Netzwerk von 1152 Wetterstationen, die Daten in Echtzeit übermitteln und Eingang in internationale Klimaarchive finden, enthält nur ein Achtel der minimalen Stationsdichte, wie sie von der WMO verlangt wird. Außerdem fallen die tatsächlich bestehenden Stationen oftmals aus.
Wahrscheinlich erfüllen nur sehr wenige Gebiete die von der WMO vorgegebene Dichte. Das Problem ist komplexer, weil sich die Temperatur relativ einheitlich ändert, allerdings mit Sicherheit nicht in einem Radius von 1200 km. Die Niederschlagsmenge jedoch variiert schon im Abstand einiger Meter. Viel Niederschlag wird von Schauern geliefert aus sich im Tagesverlauf entwickelnden Cumulus-Wolken. Viele Farmer in den USA sind bestens vertraut damit, dass Teile ihrer Ländereinen einen Wolkenbruch abbekommen, während es in anderen Teilen trocken bleibt.
Temperatur und Niederschlagsmenge, die beiden wichtigsten Variablen, sind vollkommen ungeeignet, um die Bedingungen zu schaffen und damit die Formel für irgendein Gitterpunktsnetz im Modell. Im jüngsten Zustandsbericht des IPCC, AR5, heißt es in zwei klassischen Understatement-Bemerkungen:
Die Fähigkeit der Klimamodelle, die bodennahe Temperatur zu simulieren, hat sich in vielen, aber nicht allen wichtigen Aspekten verbessert relativ zu der Erzeugung der Modelle wie im AR 4 beschrieben.
Die Simulation großräumiger Verteilungen des Niederschlags hat sich seit dem AR 4 etwas verbessert, obwohl die Modelle hinsichtlich des Niederschlags weiterhin viel schlechter sind als hinsichtlich der Temperatur.
Aber die Atmosphäre ist dreidimensional, und die Anzahl der Daten über der Oberfläche ist fast nicht existent. Nur ein Beispiel soll diese Probleme hier illustrieren. Es gab einmal alle 60 Meter Instrumente an einem 304 Meter hohen Turm außerhalb der städtischen Wärmeinsel der Stadt Winnipeg. Die Änderungen auf dieser kurzen Distanz waren bemerkenswert und zeigten viel mehr Inversionen als wir erwartet hatten.
Mancher glaubt, dass die Parametrisierung erfolgt, um grundlegende Daten wie Temperatur und Niederschlag zu ersetzen. Das ist nicht der Fall. Es ist eine Methode, um Prozesse zu ersetzen, die zu kleinräumig oder zu komplex sind, um physikalisch durch einen vereinfachten Prozess im Modell repräsentiert werden zu können.
Selbst dann räumt das IPCC Grenzen und Varianzen ein:
Die Differenzen zwischen Parametrisierungen sind eine wichtige Ursache, warum sich die Ergebnisse von Klimamodellen unterscheiden.
Daten für die dynamische Atmosphäre sogar noch unzulänglicher
Sie „füllen“ die Lücke mit der Behauptung der 1200 km, was zeigt, wie bedeutungslos das alles ist. Sie haben wenige oder gar keine Daten in irgendeinem der Kreise, und doch sind diese die mathematischen Fundamente der Computermodelle. Wahrscheinlich gibt es Daten zwischen der Oberfläche und der freien Atmosphäre nur für etwa 10% des atmosphärischen Volumens. Diese Bemerkungen gelten für eine statistische Situation, aber die Volumina ändern sich konstant täglich, monatlich, jahreszeitlich und jährlich in einer dynamischen Atmosphäre, und all dies ändert sich mit dem Klimawandel.
Ockhams Rasierer zeigt, dass jede Diskussion über die Komplexität der Klimamodelle einschließlich der Verfahren, Prozesse und Prozeduren irrelevant ist. Sie können nicht funktionieren, weil die einfache Wahrheit lautet, dass die Daten, das Fundament der Modelle, vollständig unzulänglich sind. Tolstoi hat über das Phänomen einer einfachen Wahrheit Folgendes gesagt:
Ich weiß, dass die meisten Menschen einschließlich jener, die Problemen größter Komplexität entspannt gegenüber stehen, selten auch nur die einfachsten und offensichtlichsten Wahrheiten akzeptieren können, falls diese sie dazu zwingen würden, die Fehlerhaftigkeit von Schlussfolgerungen einzuräumen, die sie so erfreut ihren Kollegen erklärt haben, die sie stolz gelehrt haben und die sie Faden für Faden mit ihrem Leben verwoben haben“.
Eine andere einfache Wahrheit lautet, dass ein Modelloutput niemals als Basis für irgendetwas benutzt werden sollte, und schon gar nicht für die globale Energiepolitik.
Link: http://wattsupwiththat.com/2014/10/16/a-simple-truth-computer-climate-models-cannot-work/
Übersetzt von Chris Frey EIKE




ARGO: Große Bandbreite von Erwärmungs- (und Abkühlungs-)Raten der Ozeane bis zu einer Tiefe von 2000 Metern

Bemerkung: KNMI hat ihrem Climate Explorer auch die Daten des ozeanischen Wärmegehaltes der Japanese Meteorological Agency (JMA) hinzugefügt für Tiefen von 0 bis 700 Metern. Wir werden sie in einem späteren Beitrag mit den NODC-Daten vergleichen.
In diesem Beitrag wollen wir einen kurzen Blick auf die vertikal gemittelte Temperaturanomalie von 0 bis 2000 Metern werfen. Das ist der Zeitraum, in dem Temperaturmessungen unter der Wasseroberfläche mit ARGO-Bojen durchgeführt worden sind, welche eine einigermaßen vollständige Übersicht der Ozeantemperatur von 0 bis 2000 Metern vermittelt. Die anderen Tiefenbereiche werden wir in späteren Beiträgen beleuchten.
Vorbemerkung
Das NODC präsentiert seine Daten auf vierteljährlicher Basis. KNMI hat diese in monatliche Daten konvertiert, indem die vierteljährlichen Werte jedem der jeweiligen Monate zugeordnet wurden. Als Folge zeigen die monatlichen Daten einen stufenartigen Verlauf mit vielen kleinen Plateaus. Wir könnten diese Daten mit 3-Monats-Filtern glätten, um diese kleinen Stufen zu eliminieren, aber in diesem Beitrag würde das kaum etwas bringen, weil wir vor allem Erwärmungs- (und Abkühlungs-)Raten betrachten.
Globale hemisphärische Erwärmungsraten
Abbildung 1 zeigt die vertikal gemittelten NODC-Temperaturanomalien für Tiefen zwischen 0 und 2000 Metern vom 1. Quartal 2005 bis zum 2. Quartal 2014. Seit dem 1. Quartal 2005 haben sich die Ozeane der südlichen Hemisphäre in Tiefen zwischen 0 und 2000 Metern mit einer Rate von etwa +0,05°C pro Dekade erwärmt, basierend auf dem linearen Trend. Andererseits ist der lineare Trend der nördlichen Hemisphäre bemerkenswert geringer, erfolgt doch die Erwärmung nur mit etwa 10% der Rate auf der Südhemisphäre. Dies ist ein ziemlicher Unterschied in einer Welt, wo anthropogene Treibhausgase vermeintlich für die Erwärmung verantwortlich sind und in der man sagt, dass anthropogene Treibhausgase gut durchmischt sind.

Abbildung 1
Vergleich der Ozeanbecken
Ich habe die Ozeanbecken in Teildatensätze aufgeteilt, und zwar mit den gleichen Koordinaten, die ich für die Aktualisierungen der Wasser-Oberflächentemperatur verwendet habe (hier):
● Arktischer Ozean (65N-90N)
● Nordatlantik (0-70N, 80W-0)
● Nordpazifik (0-65N, 100E-90W)
● Indischer Ozean (60S-30N, 20E-120E)
● Südatlantik (60S-0, 70W-20E)
● Südpazifik (60S-0, 120E-70W)
● Südlicher Ozean (um die Antarktis) (90S-60S)

Abbildung 2
Den Arktischen Ozean habe ich aus Abbildung 3 entfernt. Wie man sieht, gibt es eine große Bandbreite von Erwärmungsraten für alle anderen Ozeanbecken bis zu einer Tiefe von 2000 Metern. Im Indischen Ozean wurde die stärkste Erwärmung der ARGO-Ära verzeichnet, die mehr als doppelt so hoch liegt wie die Erwärmungsraten des Südatlantiks und des Südpazifiks und etwa dreimal so hoch wie die Rate im Nordatlantik. Und doch, in Tiefen zwischen 0 und 2000 Metern zeigen der Nordpazifik und der Südliche Ozean um die Antarktis praktisch keine Erwärmung im vorigen Jahrzehnt.

Abbildung 3
Welche Breiten haben sich erwärmt, welche haben sich abgekühlt?
Abbildung 4 zeigt die Erwärmungs- und Abkühlungsraten (°C pro Dekade) der globalen Ozeane auf der Basis zonaler Mittelwerte in verschiedenen Breiten. Die vertikale Y-Achse ist in °C skaliert. Die horizontale X-Achse ist nach Breitengraden skaliert, wobei der Südpol links (bei -90 oder 90 S) liegt, der Nordpol rechts bei +90 (oder 90 N) und der Äquator in der Mitte bei Null Grad Breite.

Abbildung 4
Während der ARGO-Ära zeigte sich die größte Erwärmung in Tiefen bis 2000 Metern in den niedrigen mittleren Breiten der Nordhemisphäre und den mittleren Breiten der Südhemisphäre. Die stärkste Abkühlung ereignete sich in den mittleren und hohen Breiten der Nordhemisphäre und im Südlichen Ozean. Man beachte auch, dass die Abkühlung auf der Nordhemisphäre mehr als nur den Arktischen Ozean umfasst.
Regionale Ozeanabkühlung bis zu Tiefen von 2000 Metern sind schwierig voneinander abzugrenzen in einer Welt, in der Treibhausgase vermeintlich das Klima dominieren. Falls natürliche Faktoren dafür sorgen können, dass der Ozean abkühlt, können sie auch zu dessen Erwärmung beitragen.
Abschließender Kommentar
Bereits seit einigen Jahren haben wir illustriert, wie entsetzlich schlecht die jüngsten und größten Klimamodelle die Wassertemperatur der globalen Ozeane simulieren. Siehe dazu die beiden jüngsten Beiträge:
●Vielleicht sollten die IPCC-Modellierer mal versuchen, die Ozeane der Erde zu simulieren (hier) oder
●Das IPCC macht sich immer noch Illusionen hinsichtlich des Kohlendioxids (hier).
Einige Leser könnten argwöhnen, dass falls die Modelle die Wassertemperatur der Ozeane nicht simulieren können, sie auch nicht besser sind, wenn sie versuchen, Erwärmung und Abkühlung bis zu einer Tiefe von 2000 Metern zu simulieren. Unglücklicherweise werden die Ergebnisse der Klimamodelle für Ozeantemperaturen unter der Wasseroberfläche nicht in Formaten präsentiert, die geeignet sind, sie einfach dem KNMI Climate Explorer hinzuzufügen. Und es ist unwahrscheinlich, dass die klimawissenschaftliche Gemeinschaft jenes Scheitern der Modelle präsentieren wird.
Link: http://wattsupwiththat.com/2014/10/17/with-argo-there-is-a-wide-range-warming-and-cooling-rates-of-the-oceans-to-depths-of-2000-meters/
Übersetzt von Chris Frey EIKE




Folge der Energiewende: Fossile Kraftwerke werden zum Sicherheitsrisiko

P R E S S E M I T T E I L U N G 03/2014

6. Oktober 2014

des Fachverbands Anlagenbau (FDBR)

Die Energiewende nachhaltig absichern
Thermische Kraftwerke bleiben zentraler Faktor für eine zuverlässige Strom­versorgung / Bestehende Anlagen sind auf die heutigen Betriebsanforderun­gen technisch nicht auslegt
Düsseldorf – Düsseldorf – Thermische Kraftwerksleistung wird auch weiterhin essenziell für eine sichere Energieversorgung sein. „Selbst wenn das Potenzial der erneuerbaren Energien hundertprozentig ausgeschöpft wird, muss eine Back-up-Leistung von 80 Gigawatt durch konventionelle Kraftwerke gewährleistet sein“, erklärt FDBR-Geschäftsführer Dr. Reinhard Maaß.
Doch angesichts der Geschwindigkeit, mit der die Energiewende vorangetrieben wird, gera­ten die Betreiber der konventionellen Kraftwerke zunehmend in Zugzwang. Die rasant stei­gende Nutzung von erneuerbaren Energien stellt Betriebsanforderungen an die bestehenden Gas- und Kohlekraftwerke, auf die sie technisch nicht ausgelegt sind. So müssen die Anla­gen häufiger ein- und ausgeschaltet werden, um die Schwankungen, die die Energiegewin­nung aus Sonne, Wind und Wasser mit sich bringt, kompensieren zu können. Die Zahl der Lastwechsel ist zum Teil mehr als 200 Mal höher als bei der Zulassung der Kraftwerke. Da­durch wächst die Gefahr von nachhaltigen Schäden an den Anlagen – zugleich nehmen die Risiken für die Versorgungssicherheit zu.
Allein können die Anlagenbetreiber die notwendigen Investitionen in die technische Umrüs­tung von thermischen Kraftwerken nicht stemmen. Schon heute ist der Betrieb von konventi­onellen Gast- und Kohlekraftwerken kaum noch rentabel, selbst die geregelte Instandhaltung wird immer mehr zurückgefahren. Entsprechend ist die Politik gefordert, nicht nur Speicher­technologien und Netze zu fördern, sondern auch die Bestandskraftwerke in ihre Planung zu integrieren. „Wer die Energiewende will, muss auch für ihre Absicherung sorgen“, betont Maaß. „Konventionelle Stromversorgung bleibt unverzichtbar, darf aber auf Sicht nicht auf Basis einer nicht mehr genehmigungsfähigen Technik erfolgen.“
Kurzprofil FDBR
Der FDBR bündelt die Interessen von über 180 Unternehmen des Anlagenbaus in der Ener­gie-, Umwelt- und Prozessindustrie. Mit seiner Kompetenz aus jahrzehntelanger Verbands­arbeit fördert und begleitet der FDBR technische Innovationen, engagiert sich für die Fort­entwicklung und Harmonisierung des gesamten technischen Regelwerks auf nationaler und internationaler Ebene und wirkt mit an der Ausgestaltung zukunftsfähiger Rahmenbedingun­gen. Darüber hinaus trägt der FDBR aktiv zur Meinungsbildung auf allen branchenrelevanten Feldern der Energie-, Umwelt- sowie Industriepolitik bei und leistet damit einen wichtigen, technologisch orientierten Beitrag zur Gestaltung zukünftiger politischer und wirtschaftlicher Entscheidungen. Sitz des Verbands ist Düsseldorf.
Kontakt:
FDBR e.V. – Fachverband Anlagenbau Dr. Reinhard Maaß Sternstraße 36 40479 Düsseldorf t 0211 / 498 70-0 f 0211 / 498 70-36 r.maass@fdbr.de www.fdbr.de

Nachtrag und Ergänzung

Anlässlich des kraftwerkstechnischen Kolloquiums der Universität Dresden mit 700 Teilnehmern, auf dem ich einen der Plenarvorträge hielt (s. Veranstaltungsprogramm als pdf), boten sich Gelegenheiten zu zahlreichen Gesprächen mit Kraftwerks-Fachleuten und -Managern. Dabei kam immer wieder das in der FDBR-Pressemitteilung beschriebene Problem von aktuell nicht mehr sicheren und damit auch NICHT mehr GENEHMIGUNGSFÄHIGEN fossilen Kraftwerken zur Sprache, das zur Zeit offenbar weder Politik, noch TÜV, noch die Öffentlichkeit wahrnehmen.
Es ist zu betonen, dass bei Kesselexplosionen, Rohrbrüchen oder Turbinenhavarien infolge vorzeitiger Materialermüdung auch mit Personenschäden des Bedienungspersonals zu rechnen ist. Havarierte Anlagen werden zudem die ohnehin bereits kritische Stromversorgungssituation weiter verschärfen und die Black-Out- Wahrscheinlichkeit erhöhen. Als Kosten der nötigen Instandsetzung und Wartung der aktuell durch die Energiewende belasteten Anlagen wurden mehrere Milliarden Euro genannt.
Herrn Dr. Reinhard Maaß danke ich für seine freundliche Veröffentlichungsgenehmigung der FDBR-Pressemitteilung auf der EIKE-Webseite. Das Original der Presseerklärung ist zusätzlich als pdf angehängt und kann weitergegeben werden.
Horst-Joachim Lüdecke
EIKE-Pressesprecher

Related Files