Feinstaub, eine Posse

Schädigt Feinstaub auch das Gehirn? Schaffen es diese mikroskopisch kleinen Teilchen, durch die Lunge in das Blut, sogar die legendäre Blut-Hirn-Schranke, die letzte Bastion des Gehirns, zu überwinden und in das Gehirn einzudringen? Richten sie dort verheerende Schäden an? Wenn man die Diskussion darüber verfolgt, kommt man nicht umhin, diese Frage zu bejahen. So vernebelt klingen die Äußerungen.
Feinstaub gilt seit einiger Zeit als das größte anzunehmende Übel, der Super-Gau schlechthin – unmittelbar nach der Kernschmelze eines Kernkraftwerkes. Er lässt Alkohol, Zigaretten und sogar das ganz superböse CO2 weit hinter sich in der nach oben offenen Katatstropenskala. Feinstaub gefährdet die Gesundheit, ist einfach grauenhaft, muss weg. Feinstaub führen Grüne und selbsternannte Umweltschützer im Mund, wenn sie auf die Gesundheitsgefahren unserer Industriegesellschaft hinweisen – oder schlichtweg Geld für „mutige“ Projekte gegen den Feinstaub wollen.
Ökokriegsgewinnler wie die umstrittene Deutsche Umwelthilfe DUH überziehen derzeit Städte mit teuren Klagewellen, weil die die deutlich heruntergesetzten Grenzwerte nicht einhalten (können). Sie treiben ein teures Spiel über die Brüsseler Bande: Dort sorgt die Umweltguerilla-Lobby für niedrige Grenzwertvorgaben. Daraufhin kann Brüssel mit schöner Regelmäßigkeit Deutschland wegen grenzwertüberschreitender Feinstaubbelastung rügen. Das führt zum Beispiel dazu, dass der baden-württembergisch grüne Verkehrsminister in Brüssel mit einem Stuttgarter Feinstaubaktionsplan davon überzeugen muss, die Lage im Griff zu haben und dass im Südwesten in Sachen Umwelt etwas getan wird. Doch die Kommission verlangt jetzt »Butter bei die Fische«: »Wir wollen Ergebnisse sehen!« Zehn Jahre schon mahnt Brüssel und dringt auf Einhaltung der Grenzwerte.
Den Eiertanz kann man besonders schön in Stuttgart bewundern. Schon weit vor der Landeshauptstadt warnen Schilder über der Autobahn »Feinstaubalarm«, klingt ähnlich wie Bombenalarm. Die Bürger sollen das Auto stehenlassen, vor allem die Heizungen ausmachen. Frieren gegen Feinstaub. Über Internet lässt sich grafisch aufbereitet der Horror direkt verfolgen verbunden mit aktuellen Handlungsanweisungen: »Bitte lassen Sie Ihren Komfort-Kamin aus« und »Bitte lassen Sie Ihr Auto stehen.« Umweltverbände wie die Deutsche Umwelthilfe fordern Fahrverbote, allerdings nicht für ihren Chef, den Vielflieger und Vielfahrer Jürgen Resch. Der soll für den Schutz der Umwelt ungegrenzt fahren und fliegen dürfen.

Angst machen wirkt
Der vorzeitige Todesfall als Herrschaftsinstrument unserer Zeit

Nun ist in Stuttgart das Messgerät für Luftschadstoffe am Neckartor direkt an einer mehrspurigen Einfallstraße positioniert, also an der dreckigsten Stelle im gefürchteten Stuttgarter Kessel. Nach Berechnungen der Landesanstalt für Umweltmessungen Baden-Württemberg kommen an genau dieser berüchtigten Kreuzung 51 Prozent des Feinstaubes aus dem Straßenverkehr. Von diesen 51 Prozent allerdings nur 7 Prozent aus dem Auspuff der Autos, 44 Prozent davon entstehen beim Bremsen und wesentlich durch Abrieb von Reifen. Ein paar Meter weiter sieht die Situation vermutlich gleich ganz anders aus. Deshalb hatte einst die CDU-Fraktion beantragt, eine zweite Meßstelle zu installieren: »Auch – immer vorausgesetzt, im Ergebnis stellen sich die Werte besser dar – würde das Image der Stadt, die mit dem Neckartor als extrem dreckigem Ort in Sachen Feinstaub europaweit in den Schlagzeilen steht, bei einer sich möglicherweise ergebenden positiveren Gesamtdarstellung etwas weniger leiden.«Die EU muss sich auch nicht mit den zu erwartenden Protesten der Bürger herumschlagen. Davor scheuen die Grünen im Stuttgarter Rathaus als auch in der baden-württembergischen Landesregierung denn doch zurück. Im Prinzip hieße das, das Wirtschaftsleben einzustellen. Dann gibts auch keine Steuereinnahmen mehr.
Was tun, fragen sich verzweifelt die Grünen. Sie können auch ihre letzte Wählerklientel in guter Stuttgarter Halbhöhenlage kaum in der kalten Jahreszeit frieren lassen. Sie haben jetzt erst einmal »Betriebsbeschränkungen für kleine Feuerungsanlagen« verordnet. Danach sollen sogenannte Komfortkamine bei Feinstaubalarm – na was wohl – verboten werden. Also Holzöfen, die eine »bereits vorhandene Heizung ergänzen und nicht den Grundbedarf an Wärme decken«.
Die vor der Wut der Stuttgarter Bürger zitternden Stuttgarter Grünen sind zudem auf die Idee einer blauen Plakette gekommen. Nur Autos mit einer solchen Plakette sollen in die Innenstadt fahren dürfen. Damit sollen – so der Plan – im Jahr die Stickoxidwerte um 91 %, der Feinstaub um 10 % reduziert werden. Wieder eine neue Plakette, nachdem sich schon die alte grüne als wirkungslos erwiesen hat. 16 % der Feinstaubbelastung sollen kleine und mittlere Feuerungsanlagen produzieren, 30 % Ferntransporte und 3 % Industrie, Gewerbe, Baustellen und Sonstiges. Wohlgemerkt immer bezogen auf die bundesweit bekannte Messstelle am Neckartor in der baden-württembergischen Landeshauptstadt. Die bisherigen Fahrverbote haben jedenfalls keinerlei Wirkung gezeigt. Kunststück, denn der Verkehr ist keineswegs die Hauptquelle des ominösen Feinstaubes im Stuttgarter Talkessel.
Die Deutsche Umwelthilfe hat das Ausnehmen des Staates (und von Wirtschafts-Treibenden) als probates Geschäftsmodell erkannt und klagt sich spendenheischend durch die Gerichtsinstanzen, verweist auf die EU-Richtlinien, die die Grünen wesentlich herbeigeführt haben und will PR-trächtig die Städte zwingen, Autoverkehr stillzulegen. Derzeit klagt sie unter anderem vor dem Verwaltungsgericht Stuttgart. Das Land muss darlegen, wie es in der Stadt dauerhaft für saubere Luft sorgen will. Verkehrsminister Hermann wird wahrscheinlich das Gericht um Aufschub bitten.

Diese Umwelthelfer wollen sich gern mit dem Triumph schmücken, den Verkehr in einer Stadt lahmgelegt zu haben. Natürlich nur aus Umweltgründen. Das bringt PR und Geld. Ins Feld geführt werden bedrohlich klingende Untersuchungen, nach denen allein in Deutschland jährlich 34.000 Menschen an den Folgen von Feinstaub sterben. Das wäre deutlich mehr als die 3.000 bis 4.000 Verkehrstoten, ein wenig mehr als jene 20.000 bis 30.000, die aufgrund mangelnder Hygiene in unseren Krankenhäusern sterben würden. Europaweit sollen es 430.000 Menschen sein, weltweit einige Millionen: kurzum der Schrecken der modernen Industriegesellschaft. Ob das alles stimmt, weiß niemand. Es sind wieder einmal alles nur Modellrechnungen, die keinerlei Aussagekraft haben, wie das vor kurzem hier Peter Heller herausragend dargelegt hat.Niemand kann sagen, wie lange ein Mensch und mit welcher Konzentration ein Mensch Feinstaub ausgesetzt sein muss, damit er daran Schaden leidet. Niemand weiß das, schon gleich gar nicht lässt sich feststellen, ob jemand an einer zu hohen Feinstaubbelastung verstorben ist. Nun reicht es nicht, Autoverkehr und Heizung zu verbieten, sondern es müssen gleich auch Pflanzen und Bäume abgeholzt werden. Denn feine Staubpartikel produziert auch die Natur in ungeheurem Ausmaße. Pollen und Blütenstäube zum Beispiel wehen im Frühjahr bald wieder übers Land. Waldbrände muss man verbieten, dabei entstehen Feinstäube, und ebenso sollte man Vulkane einstellen. Was da an Staub aus dem Vulkanschlot herauspustet, übersteigt grünes Vorstellungsvermögen.
Keine Frage: Gute Luft ist ein hohes Gut, das niemand leichtfertig aufgeben darf. Aber es gilt, keine Alarmistenmaschinen einzuschalten, um noch mehr Geld aus irgendwelchen Fördertöpfen zu holen. Aber es gilt, die Kirche im Dorf zu lassen. Immerhin ist eingetreten, was Willy Brandt seinerzeit forderte: Der Himmel über dem Ruhrgebiet soll wieder blau werden. Das geschah einmal durch höhere Schornsteine, die den Dreck weiter in der Landschaft verteilten. Doch gleichzeitig brachten vor allemn neu entwickelte Filtertechnologien beachtliche Fortschritte. Anfang der 1960er Jahre wurden im Ruhrgebiet 1,5 Millionen Tonnen Staub und Russ sowie vier Millionen Tonnen Schwefeldioxid aus Kraftwerken, Stahlwerken und anderen Anlagen in die Luft geblasen. 1962 wurde in Nordrhein-Westfalen als erstem Bundesland ein Immissionsschutzgesetz verabschiedet. 1964 lag die Konzentration von Schwefeldioxid im Ruhrgebiet bei über 200 µg/Kubikmeter, 2009 sind es weniger als 10 µg.
Kraftwerke bekamen elektrostatische Rauchfilter, Katalysatoren, aufwendige Abgasreinigungsanlagen, so dass heute die Luft sauber geworden ist. Die Autos wurden mit aufwendigen Katalysatoren ausgerüstet – zuerst gegen den heftigen Widerstand der Autohersteller, Dieselmotoren wurden mit Rußfiltern ausgerüstet. Heute fällt es einem auf, wenn man hinter einem alten Auto ohner Abgastechnik her fährt.

Stickoxide braucht die Umwelt!
Die gute Seite der Stickoxide

Aber Feinstaub ist so recht ein Thema, über das man wunderbar dramatische Berichte in die Welt setzen kann. Feinstaub ist so schön geheimnisvoll, man sieht ihn kaum, er hat geheimnisvolle Eigenschaften, und kann „natürlich“ auch die Erbsubstanz schädigen. Vom Auspuff ins Gehirn – wie Feinstaub die Gesundheit schädigt – schöner kann man es nicht ausdrücken. Feinstaub ist Auslöser von Krankheiten, klar Übergewicht gleich mit, Alzheimer sowieso, die bis vor kurzem noch als ideologisch gut befundenen Heizungen mit Holz, weil so schön CO2-frei, sind plötzlich eine wesentliche Ursache des Übels, werden als Dreckschleuder Holzofen gebrandmarkt.Auch die Industrie lernt schnell. Verkaufte sie noch bei der atomaren Superkatastrophe von Tschernobyl, die bekanntermaßen den Erdball sprengte, so viele Geigerzähler wie noch nie an Leute, die eher wenig damit anfangen konnten, so hat sie jetzt Sonderschichten für die Fertigung von Partikelmessgeräte wie das HP-5800 elf (F für Feinstaub) Messgerät angeworfen, erhältlich über Amazon. Leider verfügt das Gerät noch nicht über den neuesten Schrei und kann noch nicht den Zusammenhang messen, den die Wissenschaft gerade herausgefunden hat, dass ultrafeine Partikel auch die Herzfunktion beeinflussen.
Ein Verbot tibetanischer Räucherstäbchen haben die Grünen bisher offenkundig nicht geplant. Die lassen in den Wohnungen die Feinstaubwerte dramatisch ansteigen. Das könnte denn doch zu viele Wähler der Grünen verschrecken. Da kann es eher gegen die Kirchen gehen. Weihrauchkessel lassen die Feinstaubwerte in den Kirchengemäuern über alle EU-Grenzwerte steigen.
Früher jedenfalls waren die Stadtverwaltungen praktisch veranlagt: Sie ließen mit Wassersprengwagen die Straßen abspritzen. Das wirkte Wunder. Staub, Feinstaub, Abrieb von Bremsen und Reifen sowie Rußniederschläge aus Heizungen wurden in die Kanalisation gespült. Dafür fehlt heute das Geld. Und dann ließe sich das Thema »Feinstaub« politisch nicht so schön ausschlachten.
Und niemand darf jetzt auf die neue Elektromobilität kommen. Elektroautos produzieren ziemliche Mengen eines anderen Stoffes, der vor Jahr und Tag für große Panik sorgte: Ozon. Wehe, wenn das rauskommt.
zuerst erschienen bei Tichys Einblick hier




Weitere Daten-Manipu­lationen seitens NOAA, NASA, HadCRUT … Vergangen­heit kälter, Gegen­wart wärmer gemacht

Um Folgendes geht es:

Manipulation von globalen Temperaturdaten:

Tausende nicht-städtische Messorte wurden ausgesondert

Seit 1998 wurden 0,3°C Wärme hinzugefügt, um den ,Stillstand‘ zu beseitigen

Von dem Trend 1880 bis 1950 wurden 0,5°C Wärme subtrahiert

Im Verlauf der letzten paar Jahrzehnte haben es die drei Hauptbetreiber von Datensätzen der globalen Temperatur vom 19. Jahrhundert bis zur Gegenwart – NOAA, NASA und HadCRUT – erfolgreich geschafft, diese Temperaturaufzeichnungen so zu frisieren, dass sie zu den Ergebnissen der Klimamodelle passen. Genauer, es gab konzertierte Bemühungen, die Vergangenheit kälter zu machen – vor allem die Warmperiode von den zwanziger bis zu den vierziger Jahren – und die Temperaturwerte aus jüngeren Jahrzehnten zu erwärmen, vor allem nach dem Jahr 1950. Auf diese Weise erscheint ein Trend einer starken linearen Erwärmung, der ähnlich aussieht wie die lineare Form anthropogener CO2-Emissionen im 20. und 21. Jahrhundert. Passen die beiden Verläufe besser zusammen, hilft das, eine Kausalität zu implizieren, und diese vorgebliche, in Kausalität umgewandelte Koinzidenz kann dann herangezogen werden, um politische Maßnahmen zu rechtfertigen, die fossile Treibstoffe eliminieren sollen.

Seit den siebziger Jahren wurden 75% aller GHCN-Temperatur-Messpunkte ausgesondert.

Eines der am wenigsten erwähnten Mittel, die zu diesem „Aussehen“ der Temperaturkurve führt, war die tendenziöse und umfassende Aussonderung Tausender Wetterstationen und Messpunkten in abgelegenen Gebieten, auf Bergen und/oder nicht-städtischen Stellen seit den siebziger Jahren. Alle diese Stationen zeigen nicht den von den Modellen prophezeiten Erwärmungstrend, sind sie doch nicht betroffen von der Nähe zu künstlichen oder nicht-klimatischen Heizquellen (befestigte Straßen, Gebäude, Maschinen, Industrie usw.), wie es bei urbanen Messpunkten der Fall ist. (Wie weiter unten detailliert erläutert, kann die Aufstellung von Thermometern nahe urbanen Heizquellen einen Warm-Bias zwischen 0,1°C und 0,4°C pro Jahrzehnt hervorrufen).

Falls eine in krassem Missverhältnis stehende Anzahl NICHT-urbaner Wetterstationen aus dem globalen Temperaturarchiv entfernt werden, erhalten die urban aufgestellten Thermometer ein viel größeres Gewicht als vor der Entfernung der nicht-städtischen Messpunkte. Darum wird eine solche Temperaturaufzeichnung viel mehr Erwärmung zeigen – obwohl diese zusätzliche Wärme nicht klimatischen Ursprungs, sondern künstlich erzeugt ist.

Und genau das ist auch geschehen. Das Global Historical Climatology Network (GHCN) ist die primäre Quelle für Aufzeichnungen von Temperaturdaten aus der ganzen Welt. NOAA, NASA und HadCRUT sind sehr stark von der GHCN-Temperaturhistorie abhängig bei der Konstruktion ihrer globalen Datensätze bis zurück zum 19. Jahrhundert. McKitrick (2010) zufolge gab es noch bis in die siebziger Jahre des vorigen Jahrhunderts hinein zwischen 5000 und 6000 GHCN-Messpunkte auf der ganzen Welt, welche zum Temperaturarchiv beitrugen. Heute (oder bis zum Jahr 2009) sind davon noch etwas über 1000 Stationen übrig geblieben – 75% aller in dem siebziger Jahre noch in Gebrauch gewesenen Thermometer sind verschwunden. Es gibt jetzt weniger Stationen, die zum GHCN beitragen, als im Jahre 1919.

Erstaunlicherweise befinden sich fast die Hälfte aller GHCN-Messpunkte (49% im Jahre 2009) auf der Welt auf (betonierten) Beton- oder Asphaltflächen auf Flughäfen!

McKitrick, 2010:

Es gibt drei große globale Temperatur-Historien: die kombinierte CRU-Hadley-Aufzeichnung (HadCRU), die NASA-GISS-Aufzeichnung (GISTEMP) und die NOAA-Aufzeichnung. Alle drei globalen Mittel hängen vom gleichen zugrunde liegenden Datenarchiv ab, dem Global Historical Climatology Network (GHCN). Infolge dieser Abhängigkeit vom GHCN werden die Qualitäts-Defizite auch die Qualität aller abgeleiteten Produkte beeinträchtigen.

Die Anzahl von Wetterstationen, die zum GHCN beitragen, erfuhren 1990 und dann noch einmal 2005 einen scharfen Rückgang. Die Stichprobenmenge ist seit dem Spitzenwert Anfang der siebziger Jahre um 75% gesunken und ist jetzt kleiner als zu jedweder Zeit seit 1919“.



Zunehmender Bias durch Aufstellung an Flughäfen:

Der Kollaps der Stichprobenmenge hat den relativen Anteil von Daten, die von Flughäfen stammen, um etwa 50% zunehmen lassen (von etwa 30% in den siebziger Jahren). … Die Änderung der Menge war hinsichtlich des Typus‘ der Quelle nicht ausgewogen. So wurde die Stichprobenmenge zu Flughafen-Bedingungen hin verzerrt. Die GHCN-Daten hatten schon immer ein Übergewicht von Flughäfen, welche aus vielen Gründen ungeeignet für das Klima-Monitoring sind. Ein Problem mit Flughäfen besteht darin, dass sie oftmals nahe urbanen Plätzen liegen, die während der letzten paar Jahrzehnte gebaut worden waren, und die Zunahme des Luftverkehrs hat dazu geführt, dass Verkehr, Versieglung von Flächen, Gebäude und Abwärme zugenommen haben. Diese Einflüsse sind allesamt nur schwer aus den Temperaturaufzeichnungen zu entfernen. … Im globalen Maßstab kamen im Jahre 2009 49% aller GHCN-Daten von Flughäfen (NH 46%, SH 59%). Ende der zwanziger Jahre waren es lediglich etwas über 20%“. McKitrick, 2010

Tom Karl von der NOAA hegte einst Bedenken hinsichtlich des Warm-Bias von Flughäfen und Städten.

Ende der achtziger Jahre dachte man, dass der Warm-Bias von 0,1°C bis 0,4°C aufgrund der Thermometer-Aufstellung auf Flughäfen oder in urbanen Gebieten die globalen Temperatursätze ernsthaft beeinträchtigen würde mit einem „substantiellen Anteil am Gesamt-Trend globaler und regionaler Temperaturen“, welche diesen Warm-Bias direkt reflektieren. Die „künstliche Erwärmung im Netzwerk der primären Stationen“ ist niemals verschwunden. Heute wird dieser Umstand einfach ignoriert.

Karl and Quayle, 1988

„Karl et al. (1988) haben gezeigt, dass in einigen Städten des Sun Belt [in den westlichen USA] der Temperaturanstieg, der dem Wärmeinsel-Effekt zugeordnet werden kann, bis zu 0,3°C bis 0,4°C pro Dekade beträgt … Die künstliche Erwärmung im Netzwerk der Primärstationen beträgt relativ zu den Daten in der Division Klima fast 0,17°C während der letzten 34 Jahre (seit ~1950). Derartige Trends sind zumindest genau so groß wie jedweder der anderen beobachteten Trends in den USA (Karl 1988) oder auf dem Globus (Jones und Wigley 1987)“.

Karl and Jones, 1989

„Die Ergebnisse zeigen, dass die beiden festlands-basierten Datensätze der Temperatur in den USA über das 20. Jahrhundert (1901 bis 1984) einen urbanen Bias von +0,1°C bis +0,4°C aufweisen. … Gegenwärtig können nur grobe Schätzungen der potentiellen Auswirkungen der Verstädterung angegeben werden. Dies enthält einen urbanen Bias in den Daten von Hansen und Lebedeff (1987; NASA), der über die USA zwischen 0,3°C und 0.4°C im 20. Jahrhundert liegt. Dieser Wert ist größer als der Trend insgesamt in den USA während dieses Zeitraumes. … Unseres Wissens nach sind die USA das einzige große Gebiet, in welchem die Größenordnung dieses Bias‘ sorgfältig untersucht worden ist.

Es stellte sich heraus, dass die Größenordnung dieses urbanen Bias‘ in den beiden landbasierten Datensätzen einen substantiellen Anteil beiträgt zu dem Gesamttrend der globalen und regionalen Temperaturen“.

Kukla, Gavin, and Karl, 1986

In städtischer Umgebung liegende Stationen in Nordamerika erwärmten sich zwischen 1941 und 1980 im Vergleich zu ländlichen Stationen (Abkühlung) mit einer mittleren Rate von etwa 0,12C pro Dekade. Säkulare Trends der Lufttemperatur, die vorherrschend aus urbanen Stationsdaten berechnet werden, haben sehr wahrscheinlich einen starken Warm-Bias. … Wir verglichen Trends der 34 städtischen/ländlichen Stationspaare … wobei die städtischen Stationen im Vergleich zur freien Landschaft während fast des gesamten Jahres eine Erwärmung zeigen.

Die jährliche mittlere Differenz zwischen den Trends beträgt etwa +0,11°C pro Dekade (nicht-klimatische Erwärmung infolge der Nähe zur Stadt). … Die mittlere Differenz zwischen Trends (zwischen urbaner bzw. ländlicher Umgebung) summieren sich zu einer jährlichen Erwärmungsrate von 0,34°C pro Dekade. … Der Grund für die merklich höhere Erwärmungsrate (könnte sein), dass die Rate nach den fünfziger Jahren zugenommen hat, entsprechend dem jüngsten starken Wachstum in der Umgebung von Flughäfen. … Unser Ergebnisse sowie auch diejenigen anderer Autoren zeigen, dass die Inhomogenität durch urbanes Wachstum erheblich ist und berücksichtigt werden muss, wenn man die Zuverlässigkeit von Temperaturaufzeichnungen abschätzt“.

Zunehmender Bias an Tiefland-Stationen

Die stetige Zunahme (der mittleren Seehöhe von Temperaturstationen seit den achtziger Jahren) ist konsistent mit einer Verlagerung der Stationen des Netzwerkes weiter landeinwärts, ebenso wie einer zunehmenden Zahl von Stationen in den Bergen. Der Kollaps der Messpunkte im Jahre 1990 ist eindeutig sichtbar als ein drastischer Rückgang nicht nur der Anzahl, sondern auch der Seehöhe. Dies impliziert, dass abgelegene Stationen in größerer Höhe aufgegeben wurden zugunsten von Messpunkten in Tälern und an küstennahen urbanen Stellen. Dies geschah ein zweites Mal im Jahre 2005. Nun tendieren Stellen mit geringer Höhe über dem Meeresspiegel dazu, mehr von Landwirtschaft, Verstädterung und anderen Modifikationen der Landschaft betroffen zu sein. Dieser Vorgang, eine gleichbleibende Seehöhe der Messpunkte, verletzt die statistische Kontinuität. … GHCN hat immer mehr Messpunkte in höher gelegenen Gebieten aufgegeben (z. B. in Richtung der Pole) zugunsten von tiefer gelegenen Stationen. Wenn alle anderen Umstände gleich bleiben, impliziert dies, dass immer weniger Daten aus entfernt liegenden, kalten Regionen und mehr aus bewohnten, wärmeren Regionen eingehen“. McKitrick, 2010

Die Ergebnisse: eine künstliche Erwärmung des Festlandes seit 1980:


NOAA Global Land vs. Sea 

HadCRUT Land vs. Ocean Temperature Anomalies

Die NOAA fügt seit 1998 0,3°C Erwärmung (relativ zu Satelliten) hinzu

Jüngst wurde die Studie von Karl et al. (2015), das „Pause-Buster“-Paper, erneut signifikanter Kritik unterzogen durch einen anderen ehemaligen NOAA-Wissenschaftler (Tom Karl war im Jahr 2015 der Direktor der NOAA) aufgrund von Vorwürfen, dass es politischer Druck war, die Studie vor der Pariser Klimakonferenz im Dezember 2015 an die Presse zu leiten ohne die vorschriftsmäßigen Qualitäts-Checks. Der Grund dafür war offensichtlich: Falls man den unbequemen Stillstand der globalen Erwärmung, über den im IPCC-Bericht 2013 berichtet worden war, eliminieren könnte, wäre dies ein bedeutender Vorgang, der die Regierungschefs zu Versprechungen ermutigen könnte, CO2-Emissionen zu reduzieren. Unglücklicherweise sind die zur Berechnung des neuen Trends herangezogenen Temperaturdaten in der NOAA-Veröffentlichung „verloren gegangen“ aufgrund eines schadhaften Computers, der „vollständig abgestürzt“ sei, so dass es kaum die Chance gibt die Studie einer unabhängigen Replikation oder Verifikation zu unterziehen.

Seitdem hat die New York Times eine Verteidigung der NOAA-Kontroverse ausgegeben mit der Behauptung, dass der Trend von 1998 bis 2014 von Karl et al. (2015) durch andere Wissenschaftler unabhängig verifiziert worden sei, ebenso wie durch Satellitendaten, die zeigen, dass der Trend von +0,11°C pro Dekade (+0,2°C insgesamt) zwischen 1998 und 2014 in allen Datensätzen konsistent war.

Diese Behauptung ist natürlich Unsinn. Mittels der verfügbaren Rohdaten und dem WoodForTrees interactive tool erkennt man, dass die Trend-Diskrepanz für den betrachteten Zeitraum 1998 bis 2014 fast 0,3°C beträgt, wenn man den jüngst erzeugten NOAA-Trend mit Satellitendaten (RSS) vergleicht. Es gibt sogar eine Differenz von 0,5°C zwischen den Endpunkten der Trendlinien von NOAA/NASA GISS sowie RSS (Dezember 2014). Die aus den Satellitendaten hervorgehende Abkühlung von -0,1°C wurde von Karl et al. (2015) in eine Erwärmung von +0,2°C umgewandelt. Fast augenblicklich nach deren Veröffentlichung wurde der neue Erwärmungstrend 1998 bis 2014 von der NASA und HadCRUT gleichermaßen akzeptiert, was dazu führte, dass alle drei Datensätzen jetzt eine signifikante Erwärmung zeigen, während sich zuvor ein Stillstand, ja sogar eine geringe Abkühlung zeigte.


Source: WoodForTrees

HadCRUT radiert die leichte Abkühlung von 1998 bis 2012 einfach aus mittels Änderung der Versionen

Die Änderung [politisch] unpassender Temperaturtrends gerade rechtzeitig vor einem Ereignis von großer Bedeutung für die internationale Politik und Öffentlichkeit gab es auch früher schon.

Der kombinierte Datensatz von HadCRUT) – welcher den IPCC-Berichten zugrunde liegt – wurde im März 2012 einer Revision von Version 3 zu Version 4 unterzogen. Dies war etwa ein Jahr vor der geplanten Veröffentlichung des jüngsten IPCC-Berichtes erfolgt (2013). Zu jener Zeit (Anfang 2012) war es für das Paradigma ziemlich unbequem, dass sich bei HadCRUT4 zwischen 1998 und 2012 ein leichter Abkühlungstrend zeigte, wie die Graphik unten zeigt (Rohdaten von HadCRUT3 und HadCRUt4 von WoodForTrees).

Graphiken des IPCC, die einen leichten Abkühlungstrend seit 1998 zeigten, wären für diejenigen Politiker inakzeptabel gewesen, die die Dringlichkeit des Kampfes gegen eine gefährliche globale Erwärmung betonen wollten. Also wurden pünktlich zur Ausgabe des IPCC-Berichtes 2013 dem HadCRUT-Trend etwa 0,1°C Erwärmung hinzugefügt. Damit sollte die leichte Abkühlung in etwas transformiert werden, was das IPCC einen „Stillstand“ der Erwärmung nannte. Um den in HadCRUT3 auftretenden leichten Abkühlungstrend zu entfernen, wurden die jüngeren Anomalien in HadCRUT4 erwärmt (um 0,1°C bis 0,2°C), während die Wärme der Vergangenheit (besonders um das Jahr 1998) unangetastet gelassen wurde. Der Effekt war, dass die Gegenwart wärmer und die Vergangenheit kälter gemacht wurden.


Quelle: WoodForTrees

IPCC-Analyse (2013) des „Stillstandes“ der Erwärmung von 1998 bis 2012

Im Zeitraum 1998 bis 2011 zeigen 111 der 114 Klimamodell-Simulationen einen Erwärmungstrend, der größer ist als der beobachtete Trend.

Während des im Jahre 1998 beginnenden 15-jährigen Zeitraumes liegt das Ensemble der HadCRUT4 GMST-Trends unter fast allen von Modellen simulierten Trends.

Fast alle historischen Simulationen der CMIP5-Modelle reproduzieren nicht den beobachteten jüngsten Erwärmungs-Stillstand.

NASA hat seit den neunziger Jahren etwa 0,5°C von der Erwärmung 1880 bis 1950 subtrahiert

Noch im Jahre 1990 war weithin akzeptiert, dass der globale Temperaturtrend, wie er von der NASA angegeben wurde (Hansen und Lebedeff 1987) zwischen 1880 und 1950 einen Anstieg um 0,5°C zeigte.

Pirazzoli, 1990:

Die Untersuchung sehr langer Aufzeichnungen (z. B. Amsterdam von 1682 bis 1930 sowie Brest seit 1807) hat gezeigt, dass es zwischen dem Ende des 19. und Mitte des 20. Jahrhunderts zu einer Beschleunigung von 0,9 mm pro Jahr gekommen war. Da diese Beschleunigung mit der jüngsten Änderung der globalen Temperatur (ein Anstieg um 0,5°C) zwischen 1880 und 1950 korreliert mit weniger bedeutenden Änderungen vor und nach diesem Zeitraum (Jones et al. 1986 sowie Hansen & Lebedeff 1987) und mit einem markanten Abschmelzen von Gletschern der Mittleren Breiten wurde sie interpretiert als korrespondierend mit einem eustatischen Anstieg.

Dieser Anstieg der globalen Temperaturen um 0,5°C zwischen 1880 und 1950 (sowie 0,6°C zwischen 1880 und 1940) erscheint klar in der NASA GISS-Graphik aus dem Jahr 1987:

Schneider, S. H. 1989. The greenhouse effect: Science and policy. Science 243: 771-81.

Heute ist es für die Datensätze der globalen Temperatur von HadCRUT, NASA und NOAA nicht mehr akzeptabel, einen starken Erwärmungstrend während der ersten Hälfte des 20. Jahrhunderts graphisch darzustellen. Grund hierfür waren die CO2-Emissionen, die damals keine Änderungen zeigten und vernachlässigbar waren im Vergleich zu heute während dieser abrupten Erwärmungsperiode, wie hier gezeigt:

Um also die Unbequemlichkeit eines nicht-anthropogenen Erwärmungstrends in modernen Zeiten zu eliminieren, haben die NASA und NOAA die gesamte oder fast die gesamte Erwärmung von 0,5°C zwischen 1880 und 1950 eliminiert. Falls Rohdaten der Temperatur in der Vergangenheit nicht zu dem Narrativ passen, dass menschliche CO2-Emissionen den Klimawandel treiben, müssen die Rohdaten eben verändert werden. Auf diese Weise erhält man das Paradigma am Leben.

NASA GISS graph


Link: http://notrickszone.com/2017/02/13/more-data-manipulation-by-noaa-nasa-hadcrut-cooling-the-past-warming-the-present/
Übersetzt von Chris Frey EIKE




Viele Klimawissenschaftler betreiben „Kult mit glasigen Augen und Mantra-artigen Gesängen“

William Happer, ein Physiker an der Princeton Universität, und der wahrscheinlichste Kandidat als Donald Trump’s Wissenschaftsberater, sagte, dass viele Klimaforscher ihre Arbeit wie ein „Kult mit glasigen Augen und Mantra-artigen Gesängen“ betreiben. Im Interview mit dem The Guardian sagte Happer, dass diese Wissenschaftler unter der Form des „kollektiven Wahnsinns“ leiden. Happer war im vergangenen Monat mit Trump zusammen gekommen, um die Position des Wissenschaftsberaters zu diskutieren, ist der führende Kandidat für den Job. Er ist auch sicher, dass die Menschheit eine „Klima-Änderung“ verursacht und das wird als gut angesehen.
Happer ist nicht irgendein durchgeknallter Wissenschaftler, der verrückte Ideen unterstützt. Er ist wirklich ein bedeutender Physiker und gut angesehen in der akademischen Welt. Aber seine Ansichten über die Klimawissenschaft verursachen Bestürzung der aktiven Klimaforscher, die sich auf die Regierung wegen Forschungsstipendien und aufwändiger Finanzierung verlassen. Happer verwies auf den derzeit unter Beschuss stehenden NOAA Bericht, nachdem ein Whistleblower namens Dr. John Bates sich meldete.
Bates deckte auf, wie die Autoren die Temperaturdaten manipulierten, um die etablierte globale Erwärmungspause zu löschen. Diese Studie wurde überstürzt vor einer wichtigen U.N.-Konferenz veröffentlicht, um die Übereinkunft auf ein Klimaabkommen zu beeinflussen. Er sagte, diese Studie war wie eine „politische Fanfare“, aber Wissenschaft und Regierungsbehörden sollten ihr Verhalten nicht nach politischer Agenda ausrichten.
 
Glasige Augen
Happer sagte, es gibt ein ganzes Gebiet der Klimaforschung, dass „wirklich mehr wie ein Kult“ ist. Er hält es dem Hare Krishna ähnlich, wo die Mitglieder alle mit glasigen Augen den gleichen Mantra-artigen Refrain intonieren. Diese Wissenschaftler sind es, die potenziell „das Image aller Wissenschaftler schädigen.“ Happer glaubt, dass Regierungswissenschaftler ihre Erkenntnisse nicht öffentlich diskutieren sollten, bevor die Ergebnisse vollständig überprüft wurden. Er sagte, dass die Wissenschaftler der Regierungsbehörden „besonders sauber“ und „ohne Fehler“ sein müssen.
Die Menschen haben die Regierung satt, die ihnen Lügen erzählt und wenn etwas sehr Wichtiges kommt, hören sie nicht zu. Er nannte die Verwirrung, die um Impfstoffe für Kinder entstand und die Bewegung von einigen Eltern, ihre Kinder nicht zu impfen. „Die Regierung, sollte absolut zuverlässig über Tatsachen, wirkliche Tatsachen berichten.“
 
Übertriebene Alarmierung schadet der Wissenschaft
Er sagte auch, Trump kein „Anti-Wissenschaftler“, wissenschaftlich belesen und sehr aufmerksam, wenn sie sich treffen. Trumpf stellt auch gute Fragen. Während sie den Klimawandel nur streiften, hält Trump Sonnenkollektoren in Staaten, die viel Sonnenschein bekommen wie Arizona, für sinnvoll. Er sagte, dass der Präsident weder für noch gegen erneuerbare Energien war.
Was die Temperatur-, Klima- und CO2-Überwachung angeht, so hält Happer das alles wichtig für wichtig. Aber, fügte er hinzu, übertriebene Alarmierung der Klimaforscher über die Bedrohung durch die globale Erwärmung sind „überzogen“. Enorme Summen werden ausgegeben, um „den Planeten zu retten“, Gelder, die an anderer Stelle verwendet werden könnten. Er sagte, Bürokratien rechtfertigen sich durch die Schaffung einer Bedrohung, die nur sie beheben könnten.
 
Frage zum Klimakonsens
Happer ist auch kein Klimaskeptiker und hat vor kurzen erklärt, dass die globale Erwärmung gut für die Menschheit ist. Während der Arbeit als Direktor der Forschung in der George W. Bush’s Energieministerium, begann er den damals noch in Entwicklung befindlichen Klima Konsens zu hinterfragen. Als er Klimaforscher zu ihren Ergebnissen befragte, bekam er nur ausweichende und nicht zur Frage gehörende Antworten. Da begann er, sich wirklich um Klimaforschung zu sorgen.
Beim „Marsch für die Wissenschaft“, der in verschiedenen Städten im April geplant ist, sollte die Öffentlichkeit die Teilnehmer als „privilegierte Elite“ und nicht als adelig ansehen. Der Nachteil, was ihn beunruhigt, wäre, dass die Wissenschaftler als „gieriger Haufen verdorbener Menschen“ angesehen werden. Natürlich sieht Happer sie nicht so, aber es wäre leicht, sich diese Sichtweise zu eigen zu machen.
Erschienen auf Blasting News am 15.02.2107
http://us.blastingnews.com/news/2017/02/trump-s-likely-science-advisor-many-climate-scientists-glassy-eyed-cult-001474849.html

Vita auf de.Wikipedia :
William Happer ist Jahrgang 1939 und ein US-amerikanischer Physiker in den Bereichen Atomphysik, Optik und Spektroskopie. Er hat die Cyrus Fogg Brackett Professur für Physik an der Princeton University inne. Position: Professor Emeritus

 
Auch auf WUWT wird über Happer berichtet.
Von Eric Worrall das Schlusszitat:

Ehrlich gesagt denke ich, dieser Vergleich ist ein bisschen hart.

Ich weiß nicht, wie sich Krishnas anderswo verhalten, aber in Australien gehören Hare Krishnas ein bisschen zum Inventar. Gelegentlich genieße ich ein vegetarisches Gericht an einer ihrer Gaststätten. Gelegentlich wandern sie umher, um über ihre Religion zu sprechen, aber sie sind nicht aufdringlich – sie akzeptieren „nein“ als eine Antwort. Ich habe noch nie einen Hare Krishna getroffen, der jemanden anderen auffordert nach ihren Prinzipien zu leben.

Wenn Klimawissenschaftler so zurückhaltend wären, ihren Glauben zu vertiefen, nicht zu versuchen, ihre Lebenseinstellung anderen aufzudrängen, hätte ich viel weniger Probleme mit der Klimaforschung.

Übersetzt durch Andreas Demmig
 




Die versteckten Agenden von Nachhaltigkeits-Illusionen

Genau wie der „gefährliche, vom Menschen verursachte Klimawandel“ reflektiert der Begriff Nachhaltigkeit das geringe Verstehen hinsichtlich grundlegender Prinzipien von Energie, Ökonomie, Ressourcen-Ausbeutung und Produktion – sowie eine Tendenz, Tautologien und theoretische Modelle als eine Alternative zu empfehlen für schon jetzt zu beobachtende Beweise in der realen Welt. Involviert sind auch schlecht informierte Menschen mit guten Absichten, die von gut informierten Aktivisten mit schlechten Absichten in die Irre geführt werden, welche damit eine größere Kontrolle der Regierung über das Leben, die Lebensweise und den Lebensstandard erreichen wollen.

Die allgemeinste Definition lautet, dass wir die Bedürfnisse der gegenwärtigen Generationen nur bis zu einem Ausmaß erfüllen dürfen, damit wir die Fähigkeiten zukünftiger Generationen, deren Bedürfnisse zu erfüllen, nicht gefährden.

Auf den ersten Blick klingt das logisch und sogar ethisch. Aber es erfordert unmögliche Hellseherei.

Im Jahre 1887, als das Hearthstone House zum ersten Haus wurde, das mit Wasserkraft erleuchtet wurde, konnte und hat niemand vorhergesehen, dass Strom unser Leben dominieren, verbessern und sicherer machen würde auf den unendlich vielfältigen Wegen, wie das heutzutage der Fall ist. Jahrzehnte später hat niemand erwartet, dass Kabel aus reinem Silizium-Fiber Kupferdrähte ersetzen würden.

Niemand prophezeite kleine Mobil-Telefone mit ausgezeichneten digitalen Kameras und größerer Computerleistung als ein Desktop-Computer des Jahres 1990 oder ein 3-D-Drucker oder Tausende Windturbinen verstreut über unsere fruchtbaren [fruited] Ebenen – oder Kadmium, Seltene Erden und andere Rohstoffe, die plötzlich erforderlich sind, um diese technologischen Wunder zu vollbringen.

Die Menschheit ist Tausende Jahre lang nur im Schneckentempo vorangekommen. Nachdem die moderne, auf fossilen Treibstoffen beruhende Ära Fuß gefasst hatte, beschleunigte sich dieses Vorankommen in atemberaubenden Tempo. Heute ist Änderung exponentiell. Als wir von Feuersteinen zu Kupfer, zu Bronze, Eisen, Stahl und darüber hinaus kamen, war der Grund hierfür nicht, dass die Vorräte von Feuersteinen, Kupfer, Zinn und so weiter erschöpft gewesen wären. Sondern wir taten es mit Innovation – indem wir etwas besseres, effizienteres oder praktischeres erfanden. Jeder Fortschritt erforderte unterschiedliche Rohstoffe.

Wer kann heute vorhersahen, über welche Technologien zukünftige Generationen in 25, 50 oder 200 Jahren verfügen werden? Welche Rohstoffe werden sie brauchen? Wie können wir heute vermeintlich sicherstellen, dass jene Familien ihre Bedürfnisse decken können?

Warum sollten wir darum auch nur daran denken, die Regierung zu ermächtigen, die heutigen Aktivitäten Vorschriften zu unterwerfen, die auf völlig unvorhersagbaren Technologien, Lebensweisen und Bedarf an Rohstoffen ferner Generationen in der Zukunft beruhen? Warum sollten wir die Bedürfnisse heutiger Generationen ignorieren oder beschneiden, um jenen völlig unvorhersagbaren zukünftigen Bedürfnissen zu genügen – einschließlich der Bedürfnisse der heutigen ärmsten, unterernährten Menschen ohne Zugang zu Strom, die verzweifelt nach einem besseren Leben streben?

Außerdem werden uns die Ressourcen in absehbarer Zeit längst nicht ausgehen. Ein 1 Kilometer langes Fiberglas-Kabel aus 45 Pfund Silizium (dem auf der Erde am meisten vorhandenen Element) überträgt tausendfach mehr Informationen als ein gleich langes RG-6-Kabel aus 3600 Pfund Kupfer, was die Nachfrage nach Kupfer zurückgehen lässt.

Im Jahre 1947 beliefen sich die nachgewiesenen Ölreserven der Erde auf 47 Milliarden Barrel. Während der nachfolgenden 70 Jahre verbrauchten wir hunderte Milliarden Barrel – und dennoch hatten wir im Jahre 2016 mindestens 2800 Milliarden Barrel Ölreserven, darunter Ölsande, Schieferöl und andere unkonventionelle Lagerstätten: mindestens noch ein Jahrhundert lang, dazu überreichlich Erdgas. Fortwährend sich verbessernde Technologien lassen uns jetzt Öl und Erdgas aus Lagerstätten finden und erzeugen, die wir noch vor ein paar Jahrzehnten nicht einmal erkennen, geschweige denn ausbeuten konnten.

Das Nachhaltigkeits-Dogma rankt sich um Hass auf fossile Treibstoffe und die Entschlossenheit, die Welt von diesen Stoffen zu befreien, ohne jede Rücksicht auf jedwede sozialen, ökonomischen oder umweltlichen Kosten. Und wir sehen häufig, dass vermeintlich grüne, ökofreundliche und nachhaltige Alternativen häufig genau das nicht sind.

Die [gesetzlichen] Äthanol-Quoten in den USA verbrauchen 40% der Maisvorräte der Nation, Ackerland von der Größe Iowas, Milliarden Gallonen Wasser und riesige Mengen von Pestiziden, Dünger, Treibstoff für Traktoren und Erdgas, um Energie zu erzeugen, welche die Preise für Nahrungsmittel in die Höhe treibt, kleine Motoren schädigt und ein Drittel weniger Kilometer-Leistung pro Gallone [= ca. 4 Liter] als Benzin bringt.

Stark subventionierte Windenergie erfordert mit fossilen Treibstoffen betriebene Generatoren im Standby-Modus, ultralange Fernleitungen und folglich Millionen Tonnen Beton, Stahl, Kupfer, seltene Erden und Fiberglas. Die Turbinen führen zu chronischen Gesundheitsproblemen bei Anwohnern und töten Millionen Vögel und Fledermäuse – nur um zeitweilig völlig unzuverlässigen Strom zu erzeugen, der bis zu 250% mehr kostet als kohlebasierter Strom.

Mit all dem erzeugten die 3500 gigantischen Windturbinen in UK an einem heißen, trockenen Augusttag gerade mal 12 Megawatt Strom: das waren 0,032% der 38.000 Megawatt, welche das Land zu jener Zeit verbrauchte.

UK subventioniert auch viele riesige anaerobic digesters, dazu ausersehen, tierischen Dung und andere landwirtschaftliche Abfälle in ökofreundliches Methan umzuwandeln, welches dann zur Stromerzeugung genutzt wird. Aber es gibt viel zu wenig landwirtschaftliche Abfälle. Also werden die Behälter mit Mais, Gras und Roggen befüllt, welcher auf 130.000 Acres (etwa viermal die Größe von Washington D.C.) angebaut wird und enorme Mengen Wasser und Dünger benötigt – und natürlich Dieselkraftstoff, um die Ernten anzubauen, zu ernten und zu den Behältern transportieren. Warum bohrt oder frackt man nicht einfach nach Erdgas?

Dies führt uns zu der politischen Arena mit ihrer zyklischen, dehnbaren und unendlich elastischen Terminologie – also das perfekte Werkzeug für Aktivisten. Was auch immer sie stützen ist nachhaltig; gegen was auch immer sie opponieren ist nicht nachhaltig; und welche Mantras oder vorsorgliche Maßnahmen sie vorschlagen – jedes Einzelne verleiht ihnen mehr Macht und Kontrolle.

Der Club of Rome trachtete danach, eine neue Bewegung ins Leben zu rufen, indem er „einen gemeinsamen Feind kreierte, vor dem wir uns vereinigen können“ – vermeintlich bevor stehende Katastrophen „verursacht durch menschliche Eingriffe in natürliche Prozesse“ sowie die Erfordernis „geänderter Haltung und Verhalten“, um globales Unheil zu vermeiden: globale Erwärmung und Ressourcen-Erschöpfung.

„Die Schaffung einer umweltlich nachhaltigen Zukunft erfordert Einschränkung der globalen Ökonomie, eine dramatische Veränderung der Vermehrung der Menschen sowie die Änderung von Werten und Lebensarten“, sagte der Gründer des Worldwatch Institute Lester Brown. „Um dies schnell zu erreichen, ist nichts Geringeres notwendig als eine Revolution“.

„Der gegenwärtige Lebensstil und Verbrauchsraten der wohlhabenden Mittelklasse – darunter hoher Fleischkonsum, der Verbrauch fossiler Treibstoffe, Elektrogeräte, Air Conditioning im Büro und zu hause sowie Wohnen in Vororten – ist nicht nachhaltig“, erklärte der kanadische Ur-Umweltaktivist Maurice Strong.

„Kleinere Änderungen der Politik, moderate Verbesserung von Gesetzen und Vorschriften anstelle einer echten Änderung“, sagte der ehemalige Vizepräsident Al Gore, „sind alles Formen der Besänftigung, dazu gedacht, die Öffentlichkeit dazu zu bringen zu glauben, dass Opfer, Mühen und eine die Öffentlichkeit zerreißende Transformation der Gesellschaft nicht erforderlich sein werden“. Der Umweltaktivist Daniel Sitarz stimmte dem mit den Worten zu: „Die Agenda 21 bietet eine Vielfalt von Maßnahmen mit der Absicht, diese jedem Menschen auf der Erde zu implementieren. Die effektive Durchführung der Agenda 21 wird eine ausgeprägte Umorientierung aller Menschen erforderlich machen; anders als alles, was die Welt bisher erfahren hat“.

Der National Research Council [etwa: Nationaler Forschungsrat] deklamierte in einem Report aus dem Jahr 2011: „Nachhaltige Entwicklung wirft Fragen auf, denen nicht vollständig oder direkt in der US-Politik oder in den US-Gesetzen Rechnung getragen wird, einschließlich der Frage, wie man nicht nachhaltige Produktion und Verbrauch definieren und kontrollieren kann und wie man die Entwicklung nachhaltiger Gemeinden, Erhaltung der Biodiversität, saubere Energie und umweltlich nachhaltige ökonomische Entwicklungen sowie die Kontrolle des Klimawandels fördern kann“. Tatsächlich, sagte Obamas Wissenschaftsberater John Holdren, können wir nicht einmal über Nachhaltigkeit sprechen, ohne über Politik, Macht und Kontrolle zu sprechen. Besonders Kontrolle!

Natürlich fühlen diese Aktivisten, Politiker und Vorschriftengeber kaum Beschwerden, erfreuen sie sich doch an Geldern und Vergünstigungen, für die Steuerzahler und Stiftungen aufkommen. Sie fliegen zu UN- und anderen Konferenzen und logieren dabei in Fünf-Sterne-Hotels auf der ganzen Welt – und implementieren Agenden, die das Leben anderer Menschen kontrollieren, umkrempeln und transformieren.

Es sind wir, die Regierten – vor allem die Arbeiterklasse und arme Bürger – welche den Preis zahlen, wobei die ärmsten Familien der Welt den höchsten Preis zahlen. Wir können nur hoffen, dass die Trump-Regierung und der Kongress nachhaltige Entwicklung abbricht und nicht mehr finanziert – das alter ego des katastrophalen, vom Menschen verursachten Klimawandels.

https://www.cfact.org/2017/02/09/the-hidden-agendas-of-sustainability-illusions/
Übersetzt von Chris Frey EIKE




« Aberwitzige Sprünge »

=========================================================================
Er war einer der ersten Grünen. Der linke Chemiker Fritz Vahrenholt warnte 1978 mit seinem Buch «Seveso ist überall» vor den «tödlichen Risiken der Chemie». Er drängte 1990 als Umweltsenator der SPD die Hamburger mit einem 24-Punkte-Programm «zur Verminderung der Klimagefahren». Er baute ab 2001 das Windkraftunternehmen Repower Systems auf. Und er führte von 2008 bis 2012 die Sparte für erneuerbare Energie des Konzerns RWE. Seit seiner Pensionierung kümmert sich der 67-jährige Manager um die Deutsche Wildtier Stiftung.
Und er kämpft als Grüner für ­einen vernünftigen, also zurückhaltenden Einsatz von erneuerbarer Energie.

Mit dem Buch «Die kalte Sonne», das er 2012 mit dem Geologen Sebastian Lüning herausgab, griff er die Uno-Klimapolitik an. Und mit ­einem ­Referat, das er vor einem Monat im ­britischen Unterhaus hielt, warnte er, die Energiewende sei «a disaster in the making».

==========================================================================
Herr Vahrenholt, Sie waren einer der wichtigsten Pioniere der erneuerbaren Energie und sind jetzt einer der grössten Kritiker der Energiewende. Wie kam es dazu?
Als ich ab 2001 ein Windkraftunternehmen aufbaute, hätte ich mir diese Energiewende nie träumen lassen. Wir dachten nie an eine Versorgung, die zu neunzig Prozent auf schwankende, also nicht zuver­lässige Energieträger setzt. Wir gingen ­immer davon aus, dass es sinnvoll ist, erneuerbare Energie zu nutzen, aber nicht, dass bei der Energieversorgung eines Industrie­landes allein darauf gebaut werden sollte.
Die Energiewende von 2011 brachte also nicht das, worauf Sie hingearbeitet hatten?
Nein, ich hielt die Energiewende von Anfang an für falsch. Bei Teil eins wollte die Regierung von Bundeskanzlerin Merkel die Kernenergie durch Erneuerbare er­setzen. Wer ein bisschen etwas von der Energieversorgung verstand, der wusste schon damals, dass das nicht funktionieren kann, weil es auch in der Nacht oder bei Windstille verlässlichen Strom braucht. Aber die Regierung bringt jetzt sogar noch Teil zwei: Sie will auch aus der Kohle aussteigen. Das ist gefährlich.
Warum?
Die Stromversorgung beruht darauf, dass ein Energieträger einspringt, wenn die Sonne nicht scheint und der Wind nicht weht. Und das kann gegenwärtig nur ein konventionelles Kraftwerk sein.
Die Leute stöhnen wegen der Strompreise, die Wirtschaft warnt vor dem Verlust der Wettbewerbsfähigkeit. Trotzdem zieht Kanzlerin Merkel das durch. Ist alles gar nicht so schlimm?
Na ja, die Belastung der Bürger ist extrem hoch. Wir verteilen ja von unten nach oben, zu jenen, die sich ein Solardach oder eine Windkraftanlage mit gesicherter Rendite leisten können. Dafür bezahlen die Mieter, vor allem die sozial schwachen, mit ihrer Stromrechnung – das grösste Umverteilungsprogramm, das es in der Sozial­geschichte Deutschlands je gegeben hat.
Aber die Belastung schmerzt noch nicht so sehr. ­Eine Kilowattstunde kostet 29 Cent; da steckt so viel an Steuern und Abgaben drin, dass es auf die 6,88 Cent für die Erneuerbaren auch nicht mehr ankommt. Deutschland geht es gut, somit können das viele verschmerzen. Und die Regierung redet den Leuten ja ein, dass wir das machen müssen, um die Welt vor der Klimakatastrophe zu retten.
Muss die Kanzlerin die Warnungen der Wirtschaft nicht ernst nehmen?
Der Motor der deutschen Wirtschaft sind die mittelständischen Betriebe. Viele der Elek­trotechnik- und Maschinenbaufirmen, die wir noch haben, werden zur Kasse gebeten; die Ausgaben für Strom fallen bei ihren Kosten aber noch nicht ins Gewicht. Und jene Unternehmen, die sofort pleite wären, wenn sie für die Kilowattstunde 6,88 Cent mehr bezahlen müssten, sind von der Abgabe befreit. Weil der Strompreis wegen des Überangebots der Windkraftanlagen zusammengebrochen ist, zahlt die Grundstoffindustrie so wenig wie nie in den letzten zwanzig Jahren – das ist das Verrückte an diesem System. Darum kommt so wenig Widerstand aus der Wirtschaft.
Sie muss sich doch nicht nur wegen der ­Betriebskosten sorgen, sondern vor allem wegen der Versorgungssicherheit.
Ja, es geht noch gut, weil unser Netz – wie Ihres in der Schweiz – over-engineered ist: Wir haben Gürtel und Hosenträger. Und wir können bisher Blackouts vermeiden, indem wir den überschüssigen Strom aus den Windkraftanlagen den Nachbarn vor die ­Türe schütten.
Drohen uns tatsächlich Blackouts?
Das Risiko steigt, denn der dringend nötige Netzausbau findet nicht statt. Früher war ­jedes Kraftwerk mehrfach mit den Abnehmern verbunden. Jetzt erzeugen wir den Strom im Norden, verbrauchen ihn aber vorwiegend im Süden, und die Transportleitungen gibt es nicht. Wenn wir sie bauen wollen, dann wehren sich dieselben Bürger, die jetzt aus der Kohle aussteigen möchten, gegen die Verschandelung der Landschaft.
Was dann?
Wir müssen die Leitungen einbuddeln, aber das führt zu neuen Diskussionen. Man muss die Leitungen auf sechzehn Meter Breite von jedem Bewuchs freihalten; so wird sich eine Todeszone durch Deutschland, auch durch Biotope fressen. Und man hat so was noch nirgendwo auf der Welt gemacht. Das Netz wird achtmal so teuer und erst fünf Jahre nach dem Abstellen des letzten Kernkraftwerks fertig sein. Ab 2022 können wir also bei jedem Starkwind nur noch beten.
Wie kommt Kanzlerin Merkel da wieder raus?
Da kommt sie nicht mehr raus. Ich glaube aber auch nicht, dass sie dann noch Kanzlerin ist. Kein anderes Land dachte an eine ­solche Energiewende, wir machten sie an ­einem Wochenende.
Doch, die Schweiz zieht die Energiewende auch seit sechs Jahren durch.
Aber nicht so idiotisch wie wir – dass Sie jedes Jahr ein, zwei Kernkraftwerke abstellen.
Was würden denn Sie als Bundeskanzler machen?
Die Debatte über die Kernenergie ist durch, niemand in Deutschland will sie noch reanimieren. Aber wer sieht, dass das ein Fehler war, muss nicht den nächsten Fehler machen. Wir müssen nicht auch noch beim CO2-Ausstoss die Weltmeister sein, also auf die Kohle verzichten. Das Energiehaus der Zukunft sollte getragen sein von den ­Pfeilern Kernenergie, Kohle und Erneuer­bare, dazu vom vierten Pfeiler Effizienz. Den ersten Pfeiler hat man weggeschlagen, den zweiten schlägt man jetzt weg, und der dritte trägt nicht. Ich würde deshalb als Kanzler sagen: «Wir können uns den Ausstieg aus der Kohle nicht leisten» – egal, was wir in ­Paris unterschrieben haben. Die meisten Nationen kümmern sich ja auch nicht darum.
Immerhin haben alle Uno-Mitglieder das Klimaabkommen unterzeichnet.
Die Chinesen lachen sich doch einen ab. Sie haben das Abkommen unterschrieben, sich aber zu nichts verpflichtet. Im Gegenteil: Sie können bis 2035 ihre Emissionen noch dramatisch steigern. Was die Deutschen bis 2020 durch das Stilllegen von Kohlekraftwerken sparen, machen die ­Chinesen in drei Monaten wett.
Und was würden Sie als Chef eines Stromkonzerns machen?
Die Konzerne haben einerseits gesicherte Einkünfte dank den Investitionen in Erneuerbare. Da herrscht Planwirtschaft, man kann ohne Risiko Kasse machen. Und sie ­haben ­anderseits konventionelle Kraftwerke, die sie von Gesetzes wegen betreiben müssen. Das lohnt sich nicht mehr; die Kraftwerke bekommen deshalb die Betriebskosten ersetzt, aber sie können keinen Gewinn mehr machen. Das ist, wie wenn ich einem Taxifahrer sagen würde: «Ich zahle für das Benzin, das Auto kostet dich ja nichts mehr.» Das heisst: Die Energiewende lebt von der Ausbeutung und Entwertung der bestehenden Energieversorger. An ihrer Stelle würde ich also ebenfalls in Erneuerbare investieren, mich aber auch dafür engagieren, dass ihre Leistungen für die Versorgungssicherheit vergütet werden: Wenn sie ihre nach marktwirtschaftlicher Rechnung unrentablen Werke abschalten würden, bräche das System in dieser Sekunde zusammen.
Die Schweiz leidet auch unter der deutschen Energiewende.
Die Nachbarn leiden alle mit. Ihre Investi­tionen rentieren nicht mehr, weil wir sie mit unserem Strom überschwemmen. Das ist ja nicht das erste Mal, dass wir Europa vor ­einem Alleingang nicht fragten.
Was halten Sie von der Energiewende auf Schweizer Art?
Sie haben günstigere Bedingungen als wir, dank Ihren Speicherseen. Aber Sie dürfen sich nicht selbst betrügen: Das Speichern kostet auch etwas; jede Kilowattstunde ­Flatterstrom, die zur falschen Zeit entsteht, geht ins Geld. Die Kosten für die Erzeugung, fünf bis acht Cent, verdoppeln sich durch die Speicherung. Sie müssen sich in der Schweiz deshalb Zeit kaufen, um den Umbau vernünftig zu machen. Das geht, indem Sie sich über die Laufzeit der Kernkraftwerke verständigen, sich also fragen: «Wie viele Gaskraftwerke wollen wir uns leisten?»
Die Anhänger der Energiewende lehnen auch Gaskraftwerke ab.
Ich kann nicht die Arbeit Ihrer Umwelt­ministerin machen. Ich kann ihr nur sagen: So, wie sie die Energiewende plant, wird sie nicht funktionieren – oder nur mit sehr, sehr hohen Kosten und einem naturzerstörenden Landschaftsverbrauch. Vergessen Sie nicht: Wir wollen in Deutschland die Windkapazität verdreifachen. Wenn wir das tun, dann steht da im Durchschnitt alle 2,7 Kilometer eine Windturbine.
Christoph Blocher meint, die Schweiz müsste wegen der Verletzung von Völkerrecht der WTO und des Freihandelsabkommens mit der EU gegen Deutschland klagen.
Ich würde den einfacheren Weg gehen, wie es die Polen machen: Sie bauen an der Grenze Phasenschieber, die den Strom von der deutschen Seite zurückweisen können, übrigens mit Erlaubnis der EU. Das könnten Sie auch machen. Wenn es alle Nachbarn tun, muss Deutschland Farbe bekennen.
Wir exportieren 50 Terawattstunden, also 50 Millionen Megawattstunden, und zwar immer dann, wenn uns der Windstrom aus den Ohren kommt. Insgesamt produzieren wir 85 Terawattstunden mit Wind. Schon diese Zahlen zeigen, wie absurd diese Politik ist. Wir erzeugen Windstrom für den Export und verhökern ihn für einen Cent oder sogar zu Negativ­preisen, bezahlen aber neun Cent dafür.
Grüne Politiker aller Parteien in der Schweiz sagen, die Deutschen müssten einfach ihre Dreckschleudern abstellen, dann sei das Problem gelöst.
Quatsch.
Weshalb?
Herr Trittin von den deutschen Grünen sagt das auch; er behauptet, der Kohlestrom verstopfe das Netz. Das ist Blödsinn. Die Erneuerbaren haben jederzeit Vorrang, aber leider auch einen schweren strukturellen Nachteil: Sie können nicht innert Sekunden reagieren. Diese Leute haben den Bezug zur Lebenswirklichkeit verloren. In der realen Welt wird in jedem Moment etwas hoch- oder runtergefahren: Im Basler Fussballstadion gehen die Lichter an, im Zürcher Hauptbahnhof fährt ein ICE ab. Das braucht zig Megawatt; das Netz gibt deshalb über die Änderung der Frequenz einem Kraftwerk das Signal: «Hier wird jetzt Strom gebraucht, und zwar in einer Milli­sekunde.» Darum können wir nicht auf die konventionellen Kraftwerke verzichten. ­Eine Faustregel sagt: Zwanzig Prozent der Last müssen mit solcher sich selbst regelnder Generatorleistung vorgehalten werden. Diese sogenannte Sekundenreserve beträgt in Deutschland 20 000 Megawatt. Die Schweizer Versorger lassen also ihre Werke nicht laufen, weil sie die Kernenergie lieben, sondern weil sie wissen, dass sonst das Netz zusammenbricht.
Immerhin haben die Grünen doch recht, wenn sie sagen, der Kohlestrom sei zu ­billig, weil die externen Kosten nicht ­eingepreist sind.
Was meinen Sie mit den externen Kosten?
Dass wegen des CO2-Ausstosses die ­Klimakatastrophe droht.
Es gibt ja das System mit den Emis­sionszertifikaten; es löst dieses Problem bis 2020.
Aber die Zertifikate sind zu billig!
Was ist denn das für eine Politik, die findet, ein System müsse teuer sein, damit es erfolgreich ist ?
Wir erreichen alle Ziele, und zwar zu einem Preis von 5 Euro pro Tonne CO2. Und wenn wir mit 5 Euro zwanzig Prozent Reduktion erzielen, dann können wir mit 7 oder 10 Euro auch dreissig Prozent anstreben. Das ist für mich vernünftig, ein marktwirtschaftlicher Ansatz.
Heisst das, dass die Klimapolitik erfolgreich ist?
Die Emissionszertifikate sind es; so lässt sich das CO2 dort einsparen, wo es am meisten bringt. Das ist für mich vernünftiger als das, was das Pariser Abkommen festschreibt: Alle ­Industrieländer reduzieren den CO2-Ausstoss um zwanzig oder dreissig Prozent. Das führt zu einer Weltplanwirtschaft, dabei stossen China oder Indien immer noch mehr CO2 aus. Stattdessen sollten wir das euro­päische System auf alle Länder ausweiten, so dass eine Tonne CO2 überall einen durch den Markt bestimmten Preis hat.
Sie zweifeln ohnehin an der Klimapolitik der Uno.
Ja, dieses Abkommen wird seine Feuertaufe zu bestehen haben, wenn die Temperaturen nicht ansteigen wie prognostiziert. Dann fragen sich die Leute nicht nur in Deutschland und in der Schweiz, sondern überall: «Wofür machen wir das eigentlich?» Bisher verlässt sich die Politik auf Klimaforscher mit Modellen, die die Klimaentwicklung der Vergangenheit nicht nachbilden und ­jene der Zukunft nicht voraussagen können.
Sie sagten vor fünf Jahren in Ihrem Buch «Die kalte Sonne» wegen der schwachen Sonnenaktivität eine Abkühlung voraus. Wir erlebten aber seither einige der wärmsten Jahre.
Wir stützten uns in unserem Buch nicht nur auf die Sonnenaktivität, sondern auch auf die Ozeanströmungen. Und Sie dürfen nicht vergessen: Das System ist träge, wir müssen mit Verzögerungen um Jahrzehnte rechnen. Von 1950 bis 2000 gab es eine Phase der stärksten Sonnenaktivität seit über tausend Jahren; das wirkte sich mit einem Verzug von zehn bis zwanzig Jahren aus. Ich kann Ihnen nicht ­sagen, wie lange es dauert, um den Temperaturtrend bei schwacher Sonnenaktivität umzukehren. Ich weiss nur: Es ist sicherlich nicht korrekt, wenn die Forscher des Weltklima­rates und alle, die ihnen an den Lippen hängen, den Einfluss der Sonne mit null bewerten.
Was erwarten Sie denn?
Wir wissen nicht, was auf der Sonne geschieht; das konnte noch niemand berechnen. Aber wenn die Sonne weiter schwächelt, werden wir es bei den Temperaturen sehen.
Wir können nur feststellen:
In der Vergangenheit spielte das CO2 keine Rolle – die Konzentration erhöhte sich jeweils nach einem Temperaturanstieg, nicht vorher. Es gab schon immer erhebliche Schwankungen auch ohne den Einfluss des CO2, so etwa in der mittelalterlichen Warmzeit. Warum sollte das jetzt anders sein?
Sind Sie also ein Klimaleugner?
Nein, ich würde niemals behaupten, dass CO2 überhaupt keine Wirkung habe. Wissenschaftlich lässt sich nachweisen, dass es den Treibhauseffekt gibt. Aber gemäss neuen Studien erhöht sich die Temperatur bei einer Verdoppelung des CO2-Anteils um 1,3 Grad.
Wenn es dabei bleibt, dann können wir uns alle zurücklehnen und müssen nicht in Panik verfallen. Wir können die Energieversorgung in diesem Jahrhundert in aller Ruhe umbauen.
Glauben Sie wirklich, dass sich an der ­Klimapolitik etwas ändert?
Die Wissenschaftler sind ja keine ver­schworene Gemeinschaft, sondern einzelne beginnen zu zweifeln. Es gibt zwar Hardliner, auch einige bei Ihnen in der Schweiz. Aber andere wie Hans von Storch sagen: «Wenn bis 2020 die Temperaturen nicht deutlich steigen, liegen wir mit unseren Modellen falsch.»
Wie sieht die Energielandschaft in zwanzig Jahren aus?
Das hätte ich Ihnen vor zwanzig Jahren noch sagen können: ein Drittel Kernenergie, ein Drittel fossile, ein Drittel erneuerbare Energie. Jetzt kann ich es nicht mehr sagen;
wir ­haben ja gelernt, welch aberwitzige Sprünge die Politik machen kann. Ich weiss nur eines: Die Suppe, die wir uns eingebrockt haben, müssen wir jahrzehntelang auslöffeln.
===========================================================================
)* Anmerkung der EIKE-Redaktion :
Dieser Artikel ist zuerst erschienen in WELTWOCHE Zürich:
«Aberwitzige Sprünge» | Die Weltwoche, Ausgabe 7/2017 | Freitag, 17. Februar 2017
http://www.weltwoche.ch/
EIKE dankt der Redaktion der WELTWOCHE, dem Autor Markus Schär sowie Prof. Fritz Vahrenholt für die Gestattung des ungekürzten Nachdrucks.
=========================================================================