Solarstrom – das Milliardengrab!

Die Subvention besteht in der Preis- und Absatzgarantie

Gezahlt werden müssen diese Subventionen von den Bürgern über die durch den Solarstrom erhöhten Strompreise. Wer Solarstrom mittels Fotovoltaik erzeugt, darf ihn in das allgemeine Stromnetz einspeisen und erhält dafür einen vom Gesetzgeber festgelegten Garantiepreis. Dieser liegt weit über dem Preis für Strom aus Wasser, Kohle, Erdöl, Erdgas und Kernenergie – und das auch noch für zwanzig Jahre garantiert. Und die Netzbetreiber sind gesetzlich verpflichtet, den Strom zum festgesetzten Preis abzunehmen. Verankert ist das im Erneuerbare-Energien-Gesetz (EEG).

Ein Bombengeschäft –  nur nicht für die Bürger

Ein Bombengeschäft für die Anlagenbauer und die Anlagenbetreiber, aber eine Abzockerei  bei den Bürgern. (Siehe auch hier: über SPON Solarboom lässt Strompreise explodieren ) Die registrieren zwar, dass die Strompreise von Jahr zu Jahr steigen, wissen aber meist nicht, warum oder schieben das auf die „Marktmacht“ der vier großen deutschen Stromerzeuger RWE, E.On, EnBW und Vattenfall mit zusammen rund 80 Prozent der deutschen Stromerzeugung.  Auf die gleiche Weise wird auch der Strom aus Windkraftanlagen subventioniert. Jede weitere Fotovoltaik-Anlage auf einem Hausdach, jede weitere Windkraftanlage treibt den allgemeinen Strompreis wegen der Abnahmepflicht und des Garantiepreises weiter in die Höhe. Die Subvention wird im allgemeinen Strompreis versteckt, um den Bundeshaushalt von ihr freizuhalten.

Für derzeit nur 1 Prozent der Stromerzeugung

Weil immer mehr Fotovoltaik-Solaranlagen dazukommen und der Preis für diesen Strom zwanzig Jahre lang garantiert  ist, kam das Rheinisch-Westfälische Institut für Wirtschaftsforschung (RWI) 2007 auf bis zum Jahr 2035 kumulierte Subventionskosten von 120 Milliarden Euro allein für diesen Solarstrom. Das amerikanische Forschungs- und Beratungsunternehmens Photon Consulting errechnete  damals bis zu 100 Milliarden Euro, die sich kumuliert aus dem Garantiepreis und Abnahmezwang für den Fotovoltaik-Strom ergäben. Andere Berechnungen der Kosten für die Einspeisung von Solarenergie in das deutsche Stromnetz in den nächsten zwanzig Jahren kommen  auf 72 Milliarden Euro (Rheinischer Merkur 1/2010 vom 7. Januar 2010). Woanders las ich, in die Subventionierung der Solarenergie flössen bis 2013 rund 77 Milliarden Euro. Und das alles für derzeit nur  1 Prozent der deutschen  Stromerzeugung.

100 Milliarden Euro für die nächsten 20 Jahre

Gewaltig sind alle genannten Beträge. Bleiben wir bei den 72 Milliarden. Das sind aber noch nicht alle tatsächlichen Kosten. Hinzugezählt werden muss die Mehrwertsteuer von 19 Prozent. Ferner gehören noch die Kosten für die Schattenkraftwerke dazu, die einspringen müssen, wenn keine Sonne scheint, aber auch dann mitlaufen, wenn die Sonne scheint, und weiterhin die Netzausbau-Kosten bis hin zu den sogenannten intelligenten Netzen. Dann liegen die wirklichen Kosten der Solarstrom-Einspeisung für die nächsten 20 Jahre bei etwa 100 Milliarden Euro. Darin noch nicht enthalten ist, was der Staat schon vorher an Zuschüssen in die Solarindustrie gesteckt hat.

Höher subventioniert als die deutsche Steinkohle

Zum Vergleich: Die deutsche Steinkohle wurde über 50 Jahre lang mit insgesamt 125 Milliarden Euro subventioniert. Mit diesem Betrag sind 5 bis 10 Prozent des Strombedarfs in Deutschland erzeugt worden – ohne zusätzlich notwendige Schattenkraftwerke. Jeder Arbeitsplatz in der Fotovoltaik-Industrie ist heute im Durchschnitt jährlich mit 177 000 Euro subventioniert. Das ist weit mehr als die Subventionen für den Arbeitsplatz im deutschen Kohlebergbau. (Wirtschaftswoche vom 21. September 2009)  Das EEG belastet die Stromkunden inzwischen mit mehr als 10 Milliarden Euro im Jahr (Wind- und Solarkraft zusammen). Die Summe muss, wie es das Gesetz garantiert, zwanzig Jahre lang gezahlt werden. Das sind mindestens 250 Milliarden Euro, etwa das Doppelte der gesamten Steinkohlensubventionen seit 1960.

Auch der subventionierte Windstrom ist zu teuer

Bei weitem zu teuer ist auch der Windstrom. Erzeugt von Wind-Generatoren auf dem Festland, kostet er (ohne Mehrwertsteuer) 10 bis 12 Cent je kWh, die Kosten für die notwendigen Schattenkraftwerke, die bei Flaute einspringen müssen, eingerechnet. Kommt der Strom aus Generatoren, die in der Nord- und Ostsee stehen, verdoppeln sich die Kosten, nämlich auf 15 Cent je kWh als Entgelt an die Erzeuger für die Einspeisung in das Stromnetz und weitere 5 Cent für den Transport des Stroms an Land. Dazu kommt noch die Mehrwertsteuer. Zum Vergleich: Der Garantiepreis für Solarstrom von Dachanlagen liegt im laufenden Jahr zwischen 29,37 und 39,14 Cent je kWh. Nochmals: Alle diese „Einspeisungsvergütungen“ sind den Erzeugern für die nächsten 20  Jahre gesetzlich garantiert.

Einst die Butterberge, heute die Windräder-Massen

Solche tollen Preis- und Absatzgarantien haben noch nicht  einmal die deutschen Landwirte in ihren besten Agrarsubventionszeiten gehabt. Damals waren unter anderem die berüchtigten Butterberge die Folge. Heute werden wegen der staatlichen Garantien unsere Landschaften mit immer mehr Windkraftanlagen vollgestellt und die Häuserdächer mit Voltaikanlagen zugedeckt. Was einst die Butterberge waren, sind heute die Massen an Windrädern und Solardächern mit ihrem überflüssigen Strom.

Jährlicher Kaufkraftausfall über 10 Milliarden Euro

Die Einspeisevergütungen für Windstrom an die Erzeuger addieren sich derzeit auf mehr als 10 Milliarden Euro im Jahr. Je Einwohner in Deutschland sind dies jährlich rund 120 Euro, bei einer vierköpfigen Familie also 480 Euro, bei kinderreichen Familien entsprechend mehr. Dieses Geld steht als Kaufkraft nicht mehr zur Verfügung. Die Kosten der Mehrwertsteuer und der Schattenkraftwerke sind darin noch nicht enthalten.

Betriebe wandern ab, Arbeitsplätze gehen verloren

Durch diese künstlich hohen Energiepreise werden immer mehr energieintensive Betriebe unwirtschaftlich. Sie müssen schließen oder abwandern in Länder mit günstigeren Energiepreisen. Die Aluminiumerzeugung ist inzwischen in Deutschland schon aufgegeben. Weil für die Herstellung sämtlicher Produkte Energie gebraucht wird, steigen für alle Produkte auch die Kosten, die sich ihrerseits in tendenziell höheren Preisen niederschlagen. Damit und mit dem Kaufkraftausfall gehen in Deutschland mehr Arbeitsplätze verloren als durch Produktion und Betreiben von Wind- und Solaranlagen entstanden sind.

Mit dem EEG eine Umverteilung von unten nach oben

Noch viel schlimmer sind die Auswirkungen des EEG auf das Sozialgefüge und auf die innere Sicherheit. Denn in seinen Auswirkungen ist dieses Gesetz eine staatlich verordnete und garantierte Umverteilung der Einkommen von unten nach oben. Immerhin werden mit Windstrom- und Solaranlagen heute dank des EEG überdurchschnittliche und auf 20 Jahre garantierte Renditen erzielt. Aber aufbringen muss sie die große Masse der ärmeren Bevölkerung, die sich weder neue stromsparende Geräte noch Investitionen in Solar- und Windanlagen leisten kann. So trägt das EEG dazu bei, dass die ärmeren Gruppen noch mehr verarmen, was auf Dauer zu größeren Unruhen führen wird. Das EEG ist ein schlimmes unsoziales Gesetz.

Wind- und Solarstrom aus dem EEG streichen

Die Stromverteuerung durch das EEG macht alle ärmer, vernichtet Arbeitsplätze, bedroht den Lebensstandard vieler Menschen, treibt die Verspargelung der Landschaft mit Wind-Generatoren immer weiter voran und trägt weder zum Umweltschutz noch zum vorgeblichen Klimaschutz bei. Daher muss die Subventionierung von Wind- und Voltaik-Solarstrom im EEG gestrichen werden. Sonst drohen Jahr für Jahr immer weitere kräftige Strompreiserhöhungen.

Dr. Klaus Peter Krause- Der Artikel erschien zuerst in Die Freie Welt Internetausgabe




US-Klimawissenschaftler Spencer: Klare Belege dafür, dass das meiste von der U.S. Erwärmung seit 1973 falsch sein könnte!

EINFÜHRUNG
Meine beiden letzten Beiträge haben eine neue Methode beschrieben, um den durchschnittlichen Wärmeinsel-Effekt als eine Funktion der Bevölkerungsdichte zu quantifizieren, indem Tausende von Paaren von Temperatur-Messstationen benutzt wurden, die im Abstand von 150 Km zueinander lagen. Die Ergebnisse stützen frühere Arbeiten, die gezeigt haben, dass die Wärmeinsel-Erwärmung logarithmisch mit der Bevölkerung steigt, wobei die größte Rate der Wärmezunahme dort ist, wo der Anstieg von der niedrigsten Bevölkerungsdichte stattfindet.

Doch wie hilft uns das bei der Entscheidung, ob die globalen Erwärmungstrends auf fehlerhafte Weise durch Effekte verstärkt wurden, die in den führenden Oberflächentemperaturdaten-Reihen liegen, wie sie beispielsweise von Phil Jones (CRU) und Jim Hansen (NASA/GISS) erzeugt wurden.

Wenn auch meine Quantifizierungen des Wärmeinsel-Effekts eine interessante Übung sind, so beweist das Vorhandensein dieses Effekts auf den Raum bezogen (für Stationen mit räumlicher Entfernung) nicht notwendigerweise, dass es auch einen Erwärmungsfehler bei den Temperaturdatenim zeitlichen Verlauf gegeben hätte. Der Grund dafür liegt darin, dass, soweit die Bevölkerungsdichte [in der Umgebung] einer Messstation sich nicht über die Zeit verändert, die unterschiedlichen Maße des Wärmeinsel-Einflusses bei unterschiedlichen Messstationen wahrscheinlich geringen Einfluss auf die Langzeit-Temperatur-Trends haben. Städtische Stationen werden tatsächlich wärmer als der Durchschnitt sein, aber die „globale Erwärmung“ wird sie in etwa genau so beeinflussen wie die eher ländlichen Stationen.

Diese hypothetische Annahme scheint trotzdem unwahrscheinlich zu sein, weil die Bevölkerung doch tatsächlich mit der Zeit zunimmt. Wenn wir uns auf genug ländliche Stationen verlassen könnten, könnten wir alle anderen Wärmeinsel-verseuchten Daten wegwerfen. Unglücklicherweise gibt es nur sehr wenige Langzeit-Messungen von Thermometern, die keinerlei Veränderungen in ihrer Umgebung ausgesetzt waren … normalerweise sind es die menschlichen Bauwerke und Bodenabdeckungen, die zu fehlerhafter Erwärmung führen.

Deshalb müssen wir Daten von Stationen mit wenigstens geringer Wärmeinsel-Kontaminierung benutzen. Und damit erhebt sich die Frage, wie berücksichtigt man derartige Effekte?

Als Lieferant der offiziell abgesegneten GHCN – Temperatur-Reihen, auf die sich Hansen und Jones stützen, hat die NOAA einen ziemlich mühsamen Ansatz gewählt, bei dem die Langzeit-Temperaturdatenreihen von den einzelnen Messstationen Homogenitäts-„Korrekturen“ unterzogen werden, die auf (vermutlich fehlerhaften) abrupten Temperaturänderungen über der Zeit beruhten. Das Entstehen und Vergehen von Messstationen im Verlauf der Jahre verkompliziert weiterhin die Erstellung von Temperaturdatenreihen für Zeiträume bis zu 100 Jahren oder mehr zurück.

Das alles (und noch mehr) hat zu einem Mischmasch von komplexen Anpassungen geführt.

EINE EINFACHERE TECHNIK ZUM AUFSPÜREN VON FEHLERHAFTER ERWÄRMUNG

Bei der Analyse bevorzuge ich stets die Einfachheit – wo immer möglich. Komplexität bei der Daten-Analyse sollte nur eingeführt werden, wenn dies zur Aufklärung eines Sachverhalts nötig ist, der mithilfe einfacherer Analyse nicht erklärbar ist. Und so zeigt sich, dass die einfache Analyse der öffentlich zugänglichen Rohdaten der NOAA/NCDC von den jeweiligen Messstationen zusammen mit hoch aufgelösten Bevölkerungsdichte-Daten klare Belege dafür liefert, dass die GHCN-Daten für die Vereinigten Staaten Wärmeinsel-verseucht sind.

Ich begrenze die Analyse auf 1973 und nachfolgend, weil dies (1.) die primäre Erwärmungsperiode ist, die den menschlichen Treibhausgas-Emissionen zugeschrieben wird, und (2.) dies die Periode mit der höchsten Anzahl von Überwachungsstationen seit 1973 ist; und (3.), weil eine relativ kurze 37-Jahre-Historie die Anzahl der fortwährend arbeitenden Stationen maximiert. Dabei entfällt die Notwendigkeit, Übergänge zu behandeln, wenn ältere Stationen außer Betrieb gehen und neue hinzukommen.

Wie ich schon früher dargelegt habe: Ich bilde für vier Temperaturmessungen pro Tag (00, 06, 12, 18 Uhr UTC) für jede U.S.-Messstation einen Mittelwert (GHCN benutzt tägliche max/min-Werte) zur Errechnung eines Tagesmittels. Für eine monatsbezogene Durchschnittsbildung braucht man Messungen für wenigstens 20 Tage. Dann nehme ich nur diejenigen Stationen, die wenigstens 90% vollständige monatliche Daten von 1973 – 2009 haben. Die jährlichen Verläufe der Temperaturen und der Anomalien werden von jeder Station getrennt berechnet.

Dann errechne ich Multi-Stations-Anomalie-Durchschnitte für Quadrate mit der Größe von 5×5 Grad Breite/Länge, die ich dann mit den Temperatur-Trends der jeweiligen Region im CRUTem3-Datenbestand (das ist der Datenbestand von Phil Jones) vergleiche. Um aber zu erkennen, ob der CRUTem3–Datenbestand irgendwelche Fehler-Trends hat, teile ich meine Durchschnittswerte in 4 Klassen unterschiedlicher Bevölkerungsdichte: 0 – 25; 25 – 100; 100 – 400; mehr als 400 Menschen pro qkm. Die Bevölkerungsdichte ist auf eine nominale 1 km Auflösung eingestellt, die für 1990 bis 2000 erhältlich ist. Ich benutze die Daten von 2000.

Aus allen diesen Einschränkungen ergeben sich 24 bis 26 Fünf-Grad-Kästchen, verteilt über die Vereinigten Staaten mit allen Bevölkerungsdichteklassen in der 37-Jahre-Aufzeichnung. Zum Vergleich: Die gesamten Vereinigten Staaten überdecken ca. 40 Gitterkästchen im CRUTem3-Datenbestand. Weil die nachfolgend dargestellten Ergebnisse einen regionalen Subset (mindestens 60%) der USA darstellen, werden wir erkennen, dass die CRUTem3–Temperaturänderungen für die gesamten Vereinigten Staaten sich nicht substanziell ändern, wenn alle 40 Kästchen in die CRUTem3–Durchschnittsbildung einbezogen werden.

BELEG FÜR GROSSEN FEHLERHAFTEN ERWÄRMUNGSTREND IN DEN U.S. – GHCN-DATEN

Die dicke rote Linie ist vom CRUTem3 Datenbestand und kann so als die „offizielle“ Abschätzung gelten. Die dicke blaue Kurve gilt für die Klasse der niedrigsten Bevölkerungsdichte. (Die übrigen drei Bevölkerungsdichteklassen würden die Grafik so unkenntlich machen, dass sie weggelassen sind, aber wir werden die Ergebnisse unten in brauchbarer Form sehen.)

Die folgende Grafik zeigt die jährlichen gebietsgemittelten Temperatur-Anomalien von 1973 – 2009 für die 24 bis 26 über die Vereinigten Staaten verteilten 5-Grad-Kästchen mit allen vier Bevölkerungsdichte-Klassen (wie auch eine CRUTem3-Durchschnittstemperaturmessung). Alle Anomalien sind rückgerechnet auf die 30-Jahr-Periode von 1973-2002.

Der Erwärmungstrend in der niedrigsten Bevölkerungsdichte-Klasse ist um 47% signifikant geringer als der CRUTem3-Trend. Ein Unterschied um den Faktor 2.

Interessant ist auch, dass in den CRUTem3-Daten 1998 und 2006 die beiden wärmsten Jahre der Aufzeichnungsperiode sind. Aber in der niedrigsten Bevölkerungsdichte-Klasse sind die beiden wärmsten Jahre 1987 und 1990. Bei der Analyse der CRUTem3-Daten für die gesamten Vereinigten Staaten (die hellrote Linie) sind die beiden wärmsten Jahre vertauscht, 2006 steht an erster, 1998 an zweiter Stelle.

Wenn man sich die wärmsten Jahre im CRUTem3-Datenbestand ansieht, gewinnt man den Eindruck, dass jedes Hochtemperatur-Jahr das vorhergehende an Intensität übertrifft. Doch die Stationen aus dem Niedrig-Bevölkerungsdichte-Gebiet zeigen das Umgekehrte: die Intensität der wärmsten Jahre nimmt tatsächlich ab im Verlauf der Zeit.

Zur besseren Vorstellung, wie der errechnete Erwärmungstrend von der Bevölkerungsdichte in allen 4 Klassen abhängt, zeigt die folgende Grafik – wie ich schon früher über den räumlichen Wärmeinsel-Effekt berichtet habe –, dass der Erwärmungstrend nichtlinear mit der Abnahme der Bevölkerungsdichte einhergeht. Tatsächlich würde die Extrapolation dieser Ergebnisse auf Null-Bevölkerungsdichte-Wachstum kaum Erwärmung zeigen: 

Das ist ein sehr signifikantes Ergebnis. Es deutet die Möglichkeit an, dass überhaupt keine Erwärmung in den Vereinigten Staaten seit den 1970er Jahren stattfand.

Man beachte auch, dass sich in der höchsten Bevölkerungsdichte-Klasse eine leicht erhöhte Erwärmung zeigt im Vergleich zu den CRUTem3-Daten. Das stützt das Vertrauen, dass die hier gezeigten Effekte real existieren.

Zum Schluss zeigt die nächste Grafik den Unterschied zwischen der niedrigsten Bevölkerungsdichte-Klasse im Vergleich zur ersten Grafik oben. Hier gewinnt man eine bessere Vorstellung davon, welche Jahre zur großen Differenz bei den Erwärmungstrends beigetragen haben.

 

In der Zusammenschau glaube ich, dass diese Ergebnisse einen starken und direkten Beleg für die substanzielle Fehlerhaftigkeit der Erwärmungskomponente in den GHCN-Daten darstellen, zumindest für die hier angesprochene Periode (seit 1973) und Region (U.S.).

Wir brauchen wirklich neue und unabhängige Analysen der globalen Temperatur-Daten… der Rohdaten. Wie ich schon früher gesagt habe, brauchen wir unabhängige Gruppen zur unabhängigen Analyse der Globaltemperaturen – keine internationalen Gremien von Nobelpreisträgern, die Meinungen auf steinernen Gebotstafeln herunterreichen.

Aber wie immer wird diese Untersuchung präsentiert, um die Gedanken und die Diskussion anzuregen. Sie ist kein peer-reviewed Papier. 
CAVEAT EMPTOR.

Roy Spencer (Original hier)

Die Übersetzung besorgte dankenswerterweise Hellmut Jäger für EIKE




PIK Forscher Rahmstorf meldet: Der zurückliegende Winter sei wärmste seit 130 Jahren gewesen!

Update 5.3.10: SPON Meldet:  Eisbrecher müssen Ostsee-Fähren befreien

Prof.  Rahmstorf, dessen Frau auch gern auf seiner/ihrer Website esoterischen CO2 Schmuck anbietet (http://www.rahmstorf.eu/co2pins/welcome.htm) wird in der Zeit Online so zitiert:

"Zwar sei der Winter in Deutschland recht kalt und schneereich gewesen, so Rahmstorf. Trotzdem seien die Monate von Dezember bis Februar über den ganzen Globus gesehen, die zweitwärmsten seit Beginn der Aufzeichnungen vor 130 Jahren gewesen – nach der Wintersaison 2006/2007. Nach einer Studie des «NASA Goddard Institute for Space Studies» in New York war auch das gesamte Jahr 2009 das zweitwärmste das bisher gemessen wurde."

Um das zu beurteilen, müßten belastbare Daten über die letzten 130 Jahre vorliegen. Aber das ist nicht der Fall. Rohdaten wurden in großem Maßstab vernichtet (wir berichteteten darüber), übrig geblieben sind die "justierten" Daten  politisierter Wissenschaftler, die schon vorher wissen, was heraus kommen soll: 
"Die vielen Menschen, darunter besonders die Fleisch essenden Autofahrer sowie die Industrialisierung, erhitzen den Planeten."  Angeblich um satte 0,7 Grad in hundert Jahren. 

Die Messunsicherheit vor über 100 Jahren lag bei mindestens einem halben Grad. Trotzdem könnte man Trends erkennen. Nur, wenn diese aber in die "falsche Richtungen" zeigten, wurden tendenziell genau diejenigen Messstationen aussortiert, die zu geringe, unerwünschte  Werte zeigten. So blieben von 6000 Messstationen noch etwa 1100 übrig. Nur diese finden Verwendung bei der Ermittlung der durchschnittlichen "Globaltemperatur". 

Vorschlag dazu: Irgendwann gibt es vielleicht nur noch ein einziges Thermometer, welches auf dem Supercomputer in Potsdam liegt und die Globaltemperatur anzeigt.  (Übrigens: Nach Tschernobyl wurden in der DDR über Nacht die Geigerzähler eingesammelt. Man kann vielleicht damit rechnen, dass in Deutschland jetzt die Abwrackprämie auf Thermometer kommt ….)

Hintergründe dazu:

Dass sehr viele der noch bestehenden und vom GISS und dem NCDC der NOAA in
ihre Temperaturdatenreihen eingearbeiten Wetterstationen an Standorten stehen, die für genaue Messungen bestenfalls ungünstig sind, wurde an dieser Stelle bereits berichtet. (Details siehe hier http://surfacestations.org/ )

Beim GISS werden die Stationen, die vom von urbanen Wärmeinseleffekt (UHI) betroffen sind, mit Hilfe der Daten anderer nahegelgener Stationen "korrigiert". Als "nahegelegen"zählen dabei Stationen, die weniger als 1000 Kilometer entfernt sind. Meteorologe John Goetz hat sich die Mühe gemacht, anhand der veröffentlichten Daten zu ermitteln, wie viele "schlechte" Stationen mit den Daten der "guten" korrigiert wurden, und ist dabei auf interessante Tatsachen gestoßen:

* Jede der guten Stationen wird vielfach verwendet. Der Spitzenreiter ist eine Station in Bradfort (selbst auf einem Flugplatz gelegen, also potentiell problematisch), die 251mal benutzt wurde.
* Keine der guten Stationen hat nach 2007 noch Daten geliefert.
* Etliche der vermeintlich guten Stationen wurden von Freiwilligen des Projektes externer Link surfacestations.org  überprüft und stellten sich ihrerseits als problematisch heraus.
* Es spielt für die Klassifizierung als "gute" Station offenbar keine Rolle, welchen Standort die Station in der Vergangenheit hatte. Die aktuelle Einstufung als "ländlich" genügt.

Die GISS-Korrekturen sind den kritischen Beobachtern schon immer suspekt.
Diese Untersuchung liefert einen weiteren Beleg dafür, daß die GISS-Daten annähernd wertlos sind."
http://wattsupwiththat.com/2009/07/20/and-now-the-most-influential-station-in-the-giss-record-is/#more-9457

Gastkommentar von Olaf Köhler




Dicke Schlappe für Bundesregierung! Wirtschaftsweise fordern nationale „Klimaschutz“ Maßnahmen zu stoppen!

Außerdem erschwere sie es, zu umfassenden internationalen Abmachungen zum Klimaschutz zu kommen. Daher rät sie zu einer Politik der Anpassung überall dort, wo konkrete negative Folgen einer Klimaerwärmung festzustellen sind. Nur da, wo der finanzielle Aufwand in unmittelbarem Verhältnis zum Erfolg einer Maßnahme stehe, sei dies wirtschaftlich sinnvoll und gerechtfertigt. Zu diesen bemerkenswerten Schlüssen kommt der Sachverständigenrat, obwohl er an die anthropogene Verursachung einer Erderwärmung durch vom Menschen produziertes CO2 glaubt. Immerhin hat er ein Trostpflästerchen bereit: es sei sinnvoll neben der Politik der Anpassung auf eine internationale, umfassende Einigung hinzuwirken.

Das renommierte Handelsblatt (15.03.2010, Seite 12) schreibt dazu:

Kalte Reaktion auf brandneue Klimastudie 

Ökonomen können manchmal ganz schön nerven, vor allem wenn man sie, wie Wolfgang Schäuble, im Wissenschaftlichen Beirat des Bundesfinanzministeriums Politikempfehlungen austüfteln lässt. Das jüngste Ergebnis, eine Studie zur Effizienz der Klimapolitik, geriet jedenfalls so gar nicht nach dem Geschmack von Schäuble, Merkel & Co.: Die Ökonomen um Clemens Fuest und Kai Konrad kommen auf 36 Seiten Gutachten zu dem Schluss, dass die Regierung im Interesse der heimischen Volkswirtschaft eigentlich alles anders machen sollte als bisher: Deiche bauen, sich also an den Klimawandel anzupassen, bringe Deutschland mehr, als weiterhin den Vorreiter beim Abbau des CO2-Ausstoßes zu spielen.

Der ziemlich banale Grund dafür: Wenn Deutschland CO2 spart, muss es die Technologiekosten allein tragen, es profitiert aber die ganze Welt davon. Der Nutzen von Anpassungsmaßnahmen an ein wärmeres Klima dagegen bleibt im Lande. Zudem schade ja der Klimawandel Deutschland – im Vergleich etwa zu Bangladesch – eher wenig.

Im Ministerium war man wenig begeistert. In einer langweiligen Pressemeldung verbreitete man die Ansicht der Ökonomen. Zur Klimaverbesserung zwischen Schäuble und seinem Beirat schlägt das Handelsblatt eine Erweiterung der Studie vor: um den Nutzen niedrigeren Energieverbrauchs etwa oder die Vorzüge der Weltmarktführung bei Effizienztechnologien. dri

Das Gutachten ist sensationell! (Sie finden es hier) Die 29 renommierten Professoren  bescheinigen damit unseren Politikern auf allen Ebenen eine falsche, wirtschaftlich nicht vertretbare Klimapolitik. Wenn die Bundesregierung und die Länderregierungen das gleiche Vertrauen in den  Wissenschaftlichen Beirat haben wie in das Potsdam Institut für Klimafolgenforschung (PIK) und den ins Zwielicht geratenen IPCC, dann müssen sie sofort die Konsequenzen ziehen.

B.L. und Michael Limburg EIKE

* Aus der Eigendarstellung des Beirates: 

Mit dem Wissenschaftlichen Beirat verfügt das Bundesministerium der Finanzen über ein Beratergremium, das der Wirtschafts- und Finanzpolitik [GLOSSAR] in den vergangenen 60 Jahren immer wieder Denkanstöße vermittelt hat.

Wikipedia: Das Bundesministerium selbst betrachtet den Beirat als „wissenschaftliches Gewissen“ seiner Arbeit.




ClimateGate Aufarbeitung: US Senator Inhofe benennt die Verantworlichen! Widersprüchliche deutsche Klimaberichterstattung im TV!

Teil 1: Widersprüchliche Klimaberichterstattung im TV, recherchiert von www.fernsehkritik.tv

Teil 2: US – Senator Inhofe spricht Klartext

Eine Republikanische Arbeitsgruppe im Umweltausschuss des US-Senats unter Leitung von Senator Inhofe hat die jüngst bekannt gewordenen Schlüsseldokumente und E-Mails der Climate Research Unit (CRU) der University of East Anglia schonungslos seziert. Die erschütternden Ergebnisse fassen die Autoren wie folgt so zusammen:

–      Die E-Mails wurden von den führenden Welt-Klimawissenschaftlern geschrieben, die an den renommiertesten und einflussreichsten Klima Forschungseinrichtungen in der ganzen Welt arbeiten.

–              Viele von ihnen waren Leit-Autoren und koordinierende Leit-Autoren des UN Intergovernmental Panel on Climate Change (IPCC), was bedeutet, dass sie eng in die Erstellung und Bearbeitung der IPCC-Berichte eingebunden waren. Sie nahmen auch an der Erstellung der Berichte des United States Global Change Research Program (USGCRP) teil.

–              Die Kontroversen um CRU und die jüngsten Enthüllungen über Fehler in den jüngsten wissenschaftlichen Aussagen des IPCC nähren ernsthafte Zweifel an der Gültigkeit der EPA Feststellung über die der Gefährlichkeit der Treibhausgase im Rahmen des Clean Air Act. IPCC dient dem EPA als primäre Grundlage für die Gefährlichkeit der Treibhausgase. EPA ist die amerikanische Umweltschutzagentur – Environmental Protection Agency.

–              Anstatt die Treibhausgas-Verordnung voran zu treiben, sollte die EPA Agentur sich voll auf die CRU Kontroverse und die fehlerhaften IPCC-Studien konzentrieren.

Und weiter:

Die in die CRU Kontroverse verwickelten Wissenschaftler haben grundlegende ethische Prinzipien der steuerfinanzierten Forschung versetzt, und in einigen Fällen können Bundesgesetze verletzt worden sein. Zusätzlich zu diesen Feststellungen glauben wir, dass die E-Mails und die zugehörigen Unterlagen die IPCC-fabrizierte  "Konsens" und seine zentrale Schlussfolgerung ernsthaft gefährden, dass die anthropogene Emissionen unweigerlich zu Umweltkatastrophen führen.

Eine unabhängige Untersuchung durch den Informations-Kommissar der britischen Regierung hat bereits festgestellt, dass die Wissenschaftler der University of East Anglia, die den Mittelpunkt der Kontroverse darstellen, den britischen Freedom of Information Act.1 verletzt haben. Auch eine weitere unabhängige Untersuchung, unter Leitung von Sir Muir Russell, behandelt Vorwürfe, dass die Wissenschaftler des CRU-Skandals Klimadaten manipuliert haben.

Unserer Meinung nach zeigen die CRU Dokumente und E-Mails unter anderem unethisches und möglicherweise gesetzeswidriges Verhalten von einigen der weltweit herausragenden Klimaforscher – und das in einer Zeitspanne von mindestens 13 Jahren.

Insgesamt enthüllen die CRU-E-Mails Wissenschaftler, die   ..

–     die Veröffentlichung von Daten verhindern, die ihnen schaden könnten,

–     Daten manipulieren, damit sie ihren vorgefassten Thesen entsprechen,

–  gemeinsam Druck auf Redakteure ausüben, die den Klimakonsens in Frage stellten und

–     aktive Rollen übernehmen, um politische Prozesse zu beeinflussen.

Das Who-is-Who des Climategate (Original hier) 

Hervorzuheben ist die Unerschrockenheit von Inhofe, ein Who-is-Who des Climategate aufzustellen. Er nennt die Namen der Schlüsselpersonen, die sich in den E-Mails selber besonders kompromittiert haben bzw. durch E-Mails anderer kompromittiert worden sind. Er liefert jeweils eine Kurzbiographie von 17 Damen und Herren mit deren Aktivitäten im Rahmen der Klimaverschwörung – so darf man das skandalöse Verhalten nach 20 Jahren Lug und Betrug ruhig nennen – wenn auch noch niemand vor Gericht gestellt wurde. Insgesamt identifiziert Inhofe eine stattliche Seilschaft von 17 Schlüssel-Personen:

Wie intensiv verbandelt das IPCC-Team mit diesen Herrschaften ist, die jetzt derartig blamiert dastehen, zeigt die Tabelle unten: Sie sind alle an mindestens einem der IPCC-Berichte 1, 3 und 4  beteiligt gewesen! Hier wird der ganze Skandal in aller Hässlichkeit offen gelegt:: die selben „Personen“, die in den E-Mails mit unerhörter Frechheit ihre Fälschungen verabreden, sitzen am nächsten Tag an ihren Computern und Texten mit heiliger Miene die IPCC-Kapitel.

Und dies sind nicht etwa Groschenromane, sondern es sind Texte, mit denen Weltpolitik gemacht wird!  Texte, die uns Steuerzahler in den Industrienationen Milliarden kosten werden, die die Auswanderung ganzer Industrien ins Ausland auslösen, die ganze Nationen in den Ruin befördern.

 

Bild 1: Die Schlüsselfiguren von Climategate sind alle auch IPCC-Autoren

Es ist unverständlich, wieso da jemand von "Hexenjagd" sprechen kann, wo doch alle durch die veröffentlichen e-Mails eindeutig kompromittiert sind.

Und mehr noch: falls jemand meinen sollte, diese Damen und Herren seien allein an dem Skandal beteiligt, nur diese 17 hätten Dreck am Stecken und alle anderen Teilnehmer am IPCC-Prozess hätten eine schneeweiße Weste, der schaue sich die nächste Graphik an, in der der komplexe und vielstufige Publikations-Prozess deutlich wird. Niemand kann ernsthaft annehmen, all den vielen Mitgliedern der zahlreichen Teams wäre nichts von den Fälschungen und Manipulationen aufgefallen.

Bild 2: In diesem Prozess von 11 Stufen sollte eigentlich kein Fehler unentdeckt bleiben. Wenn doch – ist es Absicht. Quelle: http://www.ipcc.ch/pdf/ipcc-principles/IPCC%20Procedures.pdf

Zu behaupten, die viel zitierten „2000 Wissenschaftler“ – Frau Höhn sprach im Fernsehen gar von „6000“ – hätten nichts gemerkt, ist absurd, denn sie profitieren ja allesamt von all den Stories in den IPCC-Märchenbüchern. Alle haben gemeinsam gefuscht!

Die ängstlichen unter ihnen haben sich sicher gesagt: „hoffentlich fliegt das nicht mal auf!“ Die Moralischen unter ihnen haben sicher nach der Durchsicht ihre Hände gewaschen wie Pontius Pilatus. Während sich die robusten unter ihnen zufrieden nickend die Hände gerieben haben müssen.

Es ist zu hoffen, dass Inhofe im Verein mit den wachsenden Legionen von kompetenten IPCC-Skeptikern eine Welle der Empörung anstößt, in deren Zuge die Schlüsselfiguren vor Gericht gestellt werden.

Gottlob kommen diese Vorwürfe, die durch die Schriftstücke absolut authentisch belegt sind, im amerikanischen Senat zur Sprache und werden offen diskutiert. Offenbar sind in den USA die Prinzipien der Demokratie viel fester verwurzelt als bei uns in Europa, vor allem in Deutschland.

CS EIKE

Sehen Sie den Originalbericht von Senator Inhofe im Anhang.

Related Files