Klimatologe: Es gibt für uns einen ,moralischen Imperativ‘, fossile Treibstoffe zu verbrennen

Bild rechts: Dr. John Christy bei der Anhörung vor dem Senate Committee on Environment and Public Works im Jahre 2012 (Screenshot).

„Wir sind nicht moralisch schlechte Menschen, wenn wir Kohlenstoff nehmen und diesen in die Energie umwandeln, die der Menschheit ein Leben anbietet in einer Welt, die anderenfalls brutal wäre“, schrieb Christy kürzlich in einem Op Ed. „Im Gegenteil, wir sind die Guten, wenn wir das tun“.

Er stellt auch in Frage, was er Widersprüche in der jüngsten päpstlichen Enzyklika nennt. Darin hat der Papst bekanntlich den Klimawandel „eine der prinzipiellen Herausforderungen“ genannt, „vor der die Menschheit heute steht“.

Die Enzyklika des Papstes „zeigt viel fehlendes Verständnis dafür, wie es in der realen Welt zugeht“, sagte Christy CNSNews.com. Unter Verweis auf Mikrowellen-Daten von Satelliten bis zurück zum Jahr 1978, die bis zu 0,08°C genau sind, sagte er „es findet höchstens eine sehr geringe Erwärmung statt“.

In seiner Enzyklika schrieb Papst Franziskus auch, dass „ein sehr solider wissenschaftlicher Konsens zeigt, dass wir gegenwärtig Zeuge einer verstörenden Erwärmung des Klimasystems sind … das Problem wird verschlimmert durch ein Entwicklungsmodell auf der Grundlage des intensiven Verbrauchs fossiler Treibstoffe, welches das Herz des weltweiten Energiesystems ist … Es besteht die dringende Notwendigkeit, politische Maßnahmen zu ergreifen, so dass während der nächsten paar Jahre die Emission von CO2 und anderer stark verschmutzender Gase drastisch reduziert werden können“.

Eine Videoaufzeichnung von Christy gibt es hier:

http://www.mrctv.org/videos/university-alabamas-earth-system-science-center-dir-global-warming

„Die Enzyklika ruft nach verstärkter Aufmerksamkeit für die ,Weisheit‘, dass alles menschliche Leben heiligt und ,unbegrenzt würdig‘ ist“, schrieb Christy in seinem Op Ed. „Andererseits werden wir aufgefordert, auf die fundamentalen Mittel zu verzichten, durch die das menschliche Leben heute zur Blüte gekommen ist – auf auf Kohlenstoff beruhende Energie (Kohle, Öl, Erdgas)“.

Kohlenstoff-basierte Energie, welche „die preisgünstigste und zuverlässigste Energiequelle heutzutage ist, holt die Menschen aus der Armut“, erklärte Christy bei CNSNews.com. „Ohne diese Energie wäre das Leben brutal und kurz“.

Unter Verweis auf die Tatsache, dass es „vor 4000 bis 5000 Jahren wärmer als heute war“, sagte Christy, dass die vom IPCC verwendeten Computermodelle eine globale Erwärmung prophezeit haben, die „drei mal so hoch“ ist wie das, was die Satellitendaten bzgl. der jetzigen Erdtemperatur zeigen. „Das zeigt meiner Ansicht nach, dass wir nicht wissen, wie man das Klimasystem modellieren kann“.

Christy bei CNSNews.com weiter: „Alle Datensätze zeigen die gleiche geringe Erwärmung (+0.11°C pro Jahrzehnt seit dem 16. November 1978), einige etwas mehr, andere etwas weniger. Aber immer noch ist die Erwärmung viel, viel geringer als von den Klimamodellen prophezeit, und das habe ich auch schon bei vielen Gelegenheiten gezeigt, einschließlich dem Kongress.

Bei einer Anhörung des Kongresses im Mai vorigen Jahres habe ich demonstriert, dass die Modelle hinsichtlich ihrer Temperatur-Projektionen signifikant über den heute gemessenen Werten liegen. Falls man also 36 Jahre zurück bis zum Jahr 1979 geht und die Modelle von da an laufen lässt, zeigen sie alle massenhaft Erwärmung. In der realen Welt zeigt sich aber nur eine sehr geringe Erwärmung, trotz des steigenden CO2-Niveaus“.

Am 13. Mai referierte Christy vor dem House Committee on Natural Resources, dass selbst wenn in den USA der Verbrauch fossiler Treibstoffe vollständig eliminiert werden würde, so dass „es keine Industrie, keine Autos, keine Versorgung, keine Menschen“ mehr geben würde – die Auswirkung auf die globalen Temperaturen „klein wären bis zur Unmessbarkeit.

Die beiden Ereignisse mit den größten Auswirkungen auf die Temperatur sind die El Nino-Ereignisse im Pazifik und große Vulkanausbrüche, welche die Erde mit ihren ausgeblasenen und bis in die Stratosphäre reichenden Aschewolken abschatten. Berücksichtigt man beide Ereignisse, gibt es wirklich nicht viel Spielraum für eine starke Erwärmung auf dem Planeten.

Wir sind zu der Schlussfolgerung gekommen, dass die Welt, das globale Klima, nicht sehr sensitiv hinsichtlich Kohlendioxid ist. Außerdem hat die Atmosphäre viele Möglichkeiten, überschüssige Wärme wieder loszuwerden, wenn man denn Wärme durch CO2 hinzufügt. CO2 mag also in der Lage sein, mehr Wärme im Klimasystem zurückzuhalten, aber das Klimasystem kennt auch viele Wege, die Wärme in das Weltall abzustrahlen.

Daher glauben wir, dass genau das vor sich geht und dass es Rückkopplungen gibt, die diese Wärme in den Weltraum hinaus freisetzen und nicht in der Atmosphäre akkumulieren lassen, wie sie das laut den Modellen tun sollte“.

Fossile Treibstoffe können nicht so einfach durch erneuerbare Energiequellen ersetzt werden, ohne genau den Menschen drastisch höhere Kosten aufzuerlegen, die sich das am wenigsten leisten können.

Und die drastische Reduktion des Verbrauchs fossiler Treibstoffe, wie es die EPA mit ihrem Clean Power Plan vorhat, würde einen „minimalen“ Effekt auf die globalen Temperaturen haben, fügte Christy hinzu.

„Hinsichtlich Zahlen ist die Wissenschaft ziemlich einfach. Die durch diesen Plan vermiedene Menge CO2 ist minimal im Vergleich zu den weltweiten Emissionen. Daher wird auch die Auswirkung auf die globalen Temperaturen minimal sein.

Sie wird so gering sein, dass wir sie nicht einmal werden messen können. Sie wird geringer als 0,02°C während der nächsten Jahrzehnte sein. Wir messen die globale Temperatur mittels Satelliten, mein Kollege Roy Spencer und ich hier an der University of Alabama in Huntsville (UAH). Und wir sehen größere Änderungen als diese von Tag zu Tag. Es ist unmöglich, eine Änderung von 0,02°C zu erkennen und irgendeiner Regulation zuzuordnen, die eingeführt worden ist“.

Christy verwies darauf, dass es kaum Chancen dafür gibt, dass erneuerbare Energiequellen wie Wind, Solar und Biomasse in absehbarer Zeit fossile Treibstoffe ersetzen können. „Der weltweite Kohleverbrauch nimmt jedes Jahr weiter zu, selbst in Ländern wie Japan und Deutschland, weil man dort erkannt hat, dass erneuerbare Portfolios einfach nicht in der Lage sind, den Energiebedarf einer modernen Ökonomie zu decken“.

[Aus deutschen Medien werden wir das wohl niemals hören! Anm. d. Übers.]

Kosten und Zuverlässigkeit – beides sind Faktoren hinsichtlich Erneuerbarer. Sie haben sich wieder und immer wieder als völlig unzureichend für eine moderne Ökonomie erwiesen. Die einzigen Erneuerbaren, die man da draußen sieht, sind stark subventioniert, so dass deren Kosten sehr hoch sind. Das ist einfach nicht mehr zu leisten.

Und die Ärmsten Menschen des Planeten werden niemals die höchsten Preise für Energie zahlen. Das ist schlicht und ergreifend eine Tatsache“, stellte er fest.

Christy fügte hinzu, dass es im nächsten Jahr oder so vielleicht „eine Spitze bzgl. der globalen Temperaturen geben werde im Zuge eines gewaltigen El Nino-Ereignisses, zu dem es im Pazifik kommen kann. Man bereite sich also auf eine Pressemeute vor, die ,wärmster Monat, wärmstes Jahr‘ hinausposaunt, nur wegen dieses Ereignisses [und wegen Datenmanipulationen seitens der NASA! Anm. d. Übers.].

Natürlich wird man dies der vom Menschen verursachten globalen Erwärmung zuordnen, aber niemand kann nachweisen, wie viel Erwärmung den Menschen und wie viel davon Mutter Natur geschuldet ist. Und die globalen Temperaturen werden rasch wieder sinken, wenn der El Nino abklingt“.

Es wird „sehr viel Lärm geben sowie Hände ringen und Verkündigungen hinsichtlich eines Grand Deal, den es geben muss“, und zwar auf der Klimatagung in Paris (COP21/CMP11) vom 30. November bis zum 11. Dezember, sagte Christy voraus.

„Aber die Welt wird auch weiterhin Kohlenstoffe verbrennen, einfach weil die Welt Energie braucht – und die ist es, die menschliche Fortschritte und die Verlängerung der Lebensdauer überhaupt erst ermöglicht. Folglich ist es egal, was in Paris herauskommt – die Emissionen werden weiter steigen“.

Related: Climate Scientist: 73 UN Climate Models Wrong, No Global Warming in 17 Years

Link: http://cnsnews.com/news/article/barbara-hollingsworth/climatologist-we-have-moral-imperative-burn-fossil-fuels

Übersetzt von Chris Frey EIKE




Naomi Klein: Beim vom Menschen verursachten Klimawandel geht es ,nicht um Wissenschaft‘

Klein gibt zu, dass progressive Politik hinsichtlich der Umwelt genau das ist, was Marx und Lenin zufolge das gewünschte Ziel der vor 100 Jahren angezettelten Revolution war – die Beseitigung des Kapitalismus. Dabei geht es nicht um Wissenschaft oder Gesundheit, überhaupt nicht. „Unser ökonomisches Modell steht im Krieg mit der Erde“, schreibt Klein. „Wir können die Naturgesetze nicht ändern. Aber wir können unsere Ökonomie ändern. Klimawandel ist unsere beste Chance, dies zu tun und eine bessere Welt zu schaffen“.

Kann eine Aussage noch klarer und eindeutiger sein? „Beim vom Menschen verursachten Klimawandel geht es nicht um Wissenschaft oder Gesundheit, überhaupt nicht!“

Man beachte bitte, dass Klein den doppeldeutigen Terminus „Klimawandel“ nutzt, wenn sie in Wirklichkeit „vom Menschen verursachter Klimawandel“ meint. Es handelt sich um eine Irreführung der Öffentlichkeit in großem Stil, dass jedwede Änderung des Klimas den menschlichen CO2-Emissionen in die Schuhe geschoben wird.

Hier folgt noch eine weitere Einsicht in die Denkwelt von Naomi Klein mittels einer Rezension von Kleins Buch mit dem Titel „This Changes Everything“. Dr. Herzberg, ein anerkannter Wissenschaftler und Autor von Beiträgen zum Klimawandel, schreibt:

Es ist tragisch, dass das, was eine Debatte unter objektiven Wissenschaftlern sein sollte zur Evaluierung der Daten zu Wetter und Klima, zu einem politischen Partisanenkrieg verkommen ist. Unglücklicherweise leistet Kleins jüngstes Buch dieser Tragödie nur Vorschub. Indem sie ihre politische Agenda verfolgt, werden Tatsachen verzerrt und angesehene Wissenschaftler verunglimpft. Einige Beispiele:

Klein sagt: „Kohlendioxid verbleibt ein oder zwei Jahrhunderte lang in der Atmosphäre, einiges davon sogar für ein Jahrtausend oder noch länger“.

Rund 50 veröffentlichte Studien zeigen eine Verweildauer von höchstens 5 Jahren, abgeleitet aus der Abnahme des C14-Isotops nach den oberirdischen russischen Atomtests.

Klein sagt weiter: „Die Mittelalterliche Warmzeit wurde schon vor langer Zeit umfassend widerlegt“.

Falsch! Hunderte Studien haben die Existenz der weltweiten Mittelalterlichen Warmzeit immer wieder belegt, während der die Temperatur höher gelegen hatte als heute zu einer Zeit, als menschliche CO2-Emissionen nicht existent waren. Bei ihrer Besprechung der Wetterauswirkungen von Vulkanausbrüchen versäumt sie es, die wirklich großen Ausbrüche zu erwähnen: Tambora und Krakatau.

Klein erwähnt mit keinem Wort den Klimagate-Skandal.

[Eine längere Biographie von Dr. Herzberg findet sich im Original am Ende des Beitrags. Anm. d. Übers.]

Falsch! Klimagate enthüllt ein schändliches Fehlen wissenschaftlicher Integrität auf Seiten der Klimawandel-Befürworter. Näheres hierzu auf einem Video von mir hier und für echte Daten auf www.climate4you.com. Dort erkennt man: Es ist nichts Ungewöhnliches hinsichtlich der Temperatur, der Eisbedeckung, des Meeresspiegelanstiegs oder der Schneebedeckung, nichts als die normale Variabilität bei den wetterbezogenen Parametern.

Zu ihren Gunsten muss gesagt werden, dass sie Vorträgen von Skeptikern bei einer Heartland-Konferenz zugehört hatte, aber anstatt zu versuchen, aus den Vorträgen der weithin anerkannten Wissenschaftler etwas zu lernen, verunglimpft sie diese Wissenschaftler.

So schreibt sie beispielsweise, dass die „Leugner-Bewegung mit Charakteren verschmutzt ist wie dem altmodischen Physiker … S. Fred Singer“.

Anstatt seine Verdienste als stellvertretender Sekretär der EPA, der Gründung des Weather Bureau Satellite Service‘ und seine Arbeiten in der Weltraumforschung und der Atmosphärenphysik sowie beim Entwurf des ersten Erdbeobachtungssatelliten für meteorologische Zwecke zu würdigen, diffamiert sie ihn als einen „Charakter“ und begrenzt seine Arbeit auf „Raketen-Technologie für das US-Militär“.

Nebenbei, ich habe Fred zum ersten Mal vor über 50 Jahren getroffen, und inzwischen hat er seinen 90. Geburtstag gefeiert. Er flüchtete aus Österreich unmittelbar vor der Machtergreifung und nimmt es jedem übel, der ihn als „Leugner“ bezeichnet, so als ob er ein Holocaust-Leugner sei. Ich habe viele Verwandte beim Holocaust verloren und finde dieses Abstempeln als Leugner ebenfalls besonders widerlich. Klein erwähnt auch mit keinem Wort die Serie von Artikeln in der Nation von Alexander Cockburn, die ihrer Arbeit vorausgegangen war. Cockburn hat die Angst erzeugende Hysterie der Alarmisten der globalen Erwärmung vollständig diskreditiert.

Die Theorie der globalen Erwärmung/des Klimawandels postuliert, dass menschliche CO2-Emissionen aus der Verbrennung fossiler Treibstoffe eine Zunahme des atmosphärischen CO2-Gehaltes verursacht und als Folge eine Zunahme der globalen Temperatur und Klimastörungen im Zuge des Treibhauseffektes.

Klein akzeptiert dieses Paradigma ohne jedes Hinterfragen.

Aber wenn man ihr Buch sorgfältig liest, erkennt man, dass sie sich kaum um dessen Stichhaltigkeit Gedanken macht. Zitat: „Die Verringerung von Emissionen ist nur ein Beispiel, wie der Klima-Notfall einem politischen Ziel neues Leben einhauchen kann – mittels seiner Dringlichkeit und der Tatsache, dass er praktisch jedermann auf der Erde betrifft … wie z. B. Erhebung von Steuern von den Reichen, der Blockierung schädlicher Handelsabkommen…“

„Sogar noch wichtiger ist, dass die Klimabewegung ein allumfassendes Narrativ bietet, in dem alles vom Kampf für gute Arbeitsplätze als Rechtfertigung für Einwanderer, Reparationen für die Ungerechtigkeit von Sklaverei … einfach alles zu einem Großen Projekt der Bildung einer unschädlichen und gegen Schocks resistenten Wirtschaft wird, bevor es zu spät ist“. Da also haben wir es: Die Wissenschaft ist nicht so wichtig. Was wirklich zählt, ist die soziale Gerechtigkeit, die wir daraus gewinnen können.

Sie hat viel gelernt aus ihrem Schock-Doktrin-Buch. Genauso wie die internationalen Bankiers die Schuldenkrise in kleineren Ländern ausnutzten, deren soziale Gerechtigkeit und Ökonomien abzubauen, schlägt sie vor, die Klimawandel-„Krise“ zum Erreichen sozialer Gerechtigkeit auszunutzen. Ich stimme weitgehend mit ihren Zielen bzgl. sozialer Gerechtigkeit überein, aber als Wissenschaftler kann ich es nicht ertragen, diese Ziele mittels eines Angst erzeugenden Betrugs zu erreichen.

Hier also folgen die drei einfachsten Argumente, um dem Klimawandel-Paradigma zu begegnen. Drakonische Maßnahmen zur Kontrolle von CO2-Emissionen basieren auf drei Fiktionen:

Erstens, dass es ein „Treibhausgas“ ist. Weder die EPA noch sonst irgendjemand hat bisher jemals eine wissenschaftlich gültige Definition eines solchen Gebildes vorgelegt. Die Atmosphäre ist weder das Dach eines Treibhauses noch kann sie „Wärme zurückhalten“. Stattdessen kühlt sie die Erde durch natürliche Konvektion und Strahlung in den Weltraum.

Zweitens, mit nur 0,04 Prozent des atmosphärischen Gasgemischs soll CO2 vermeintlich Temperatur und Klima der Erde kontrollieren. Das ist absurd und enthält nicht einen Iota eines zuverlässigen Beweises, dass das so ist.

Drittens, das Paradigma postuliert, dass menschliche Emissionen den atmosphärischen CO2-Gehalt bestimmen. Die Daten zeigen in überwältigender Klarheit, dass natürliche Quellen und Senken wie ozeanische Emission und Absorption, Photosynthese, Herausfiltern durch Vegetation, Vulkanausbrüche, Waldbrände und viele andere Prozesse die menschlichen Emissionen bei Weitem übertreffen. Im Vergleich dazu sind die menschlichen Emissionen trivial und lösen sich rasch in den kalten Ozeanen.

Die Bewegung der „Klima-Gerechtigkeit“ wird mit ihrem Verschmelzen des gerechtfertigten Wunsches nach sozialer Gerechtigkeit mit der verlogenen Theorie des vom Menschen verursachten Klimawandels nur dafür sorgen, dass soziale Gerechtigkeit vollständig diskreditiert wird, sobald die Wahrheit über den Klimawandel ans Tageslicht kommt.

Extreme Umweltlösungen können außerdem unbeabsichtigte Nebenwirkungen haben.

Die Arbeit von Rachel Carson, Kleins Heldin, führte zu einer weltweiten Ächtung des Einsatzes von DDT. Die Folge waren etwa 100.000 mehr Todesfälle pro Jahr unter Kindern in Afrika als Folge von Malaria. Diese Malaria-Epidemie ging viele Jahre später wieder zurück, nachdem der Einsatz von DDT wieder aufgenommen worden ist.

Jeder finde für sich selbst heraus, welche schädlichen unbeabsichtigten Konsequenzen aus den Maßnahmen zur Eliminierung fossiler Treibstoffe resultieren. Die Wirklichkeit lautet, dass derartige Maßnahmen keinerlei Auswirkungen auf Wetter und Klima haben werden.

Link: http://www.principia-scientific.org/man-made-climate-change-not-about-science-admits-naomi-klein.html?utm_campaign=aug-20-2015&utm_medium=email&utm_source=newsletter

Übersetzt von Chris Frey EIKE




Pachauri: „2012 wird es zu spät sein, den Klimawandel zu stoppen“

*Leider lässt sich die Darstellung des ersten Satzes im Original hier nicht reproduzieren. Das sah so aus:

Und hier der fragliche Ausschnitt aus jenem Artikel:

Quelle: http://www.nytimes.com/2007/11/18/world/europe/18iht-climate.2.8378031.html?_r=0

Nun, jetzt haben wir August 2015, die Welt ist nicht zerstört, und kein neuer UN-Klimavertrag wurde präsentiert, obwohl es viel Tamtam gibt im Vorlauf des Pariser Klimagipfels COP21 im Dezember. Das einzige, was sich nach Pachauris Proklamation aus dem Jahr 2007 geändert hat ist, dass Pachauri Anfang dieses Jahres zum Rücktritt gezwungen worden ist nach Vorwürfen, er hätte zahlreiche weibliche Mitarbeiter sexuell belästigt (hier).

Und auch seinen schmutzigen Liebesroman (hier; siehe Bild oben rechts) wollen wir nicht vergessen.

Dieser Beitrag ist Teil einer regelmäßigen Beitragsserie von WUWT, in der Höhepunkte von Behauptungen zum Klimauntergang in der Vergangenheit seitens Wissenschaftler, Experten und alarmistischer Aktivisten beleuchtet werden, die nicht eingetroffen sind. Die Serie lehnt sich an die „Throwback Thursday“-Reihe bei Facebook an, bei der Menschen alte Bilder aus ihrer Vergangenheit posten können. Der einzige Unterschied hier ist die Tatsache, dass diese lausigen Prophezeiungen es wirklich verdient haben, in die Gesichter derjenigen „zurück geworfen“ zu werden, die sie ausgestoßen haben.

Link: http://wattsupwiththat.com/2015/08/20/throwback-thursday-4-ipccs-pachauri-says-2012-will-be-too-late-to-stop-climate-change/

Übersetzt von Chris Frey EIKE




Sommerhitze 2015 – Klimawandel oder ’normales‘ Wettergeschehen, Teil 1

Der Thematik gebührend, wird der Artikel etwas länger und der Autor kann dem Wunsch der Redaktion auf kurze Berichte (leider) nicht erfüllen. Denn Wissenschaft lässt sich nicht in 2-3 Sätzen fassen. So haben denn die folgenden Aussagen

– Klimawandel könnte künftig mehr Hitzetote fordern (DWD)

– Rückkehr der Sintflut (ZDF)

– Hilfe…Die Erde schmilzt (Der Spiegel)

 …. nichts mit Wissenschaft, sondern bestenfalls mit Sensationsmache zu tun. Personen, die der Presse und dem DWD weniger wohl gesonnen sind, würden Dummes Zeug dazu sagen.

Natürlich darf die Politik nicht fehlen, sich im Unsinn zu überbieten: "Hitzewellen, Stürme und Überschwemmungen haben schon in den vergangenen zehn Jahren spürbar zugenommen – Das ist aber nur ein kleiner Vorgeschmack. In den nächsten Jahrzehnten dürften die Wetterextreme in Deutschland noch deutlich schneller aufeinanderfolgen" Bärbel Höhn von den Grünen. Nun, von den Grünen ist man ja Unsinn gewöhnt. Wo Wissen fehlt, muss dies irgendwie anderweitig ersetzt werden. Die Grünen haben insofern Ihren Platz bereits gefunden. Deren Unsinn wird wohl nur noch getoppt durch Herrn Pachauri. So sagte er 2007 als IPCC-Präsident:

"2012 will be too late" to stop climate change. (hier)

Mittlerweile haben wir 2015 und die Welt ist nicht untergegangen. Dass sie auch in Zukunft nicht untergehen wird, zeigt dieser Artikel.

1. Höchststände der Temperatur von über 40°C

Da sich (Hitze-)Rekorde besonders gut eignen, eine vermeintliche Erwärmung zu „belegen“, sollen Temperaturvergleichsmessungen etwas genauer betrachtet werden. Das Institut für Meteorologie der Freien Universität Berlin sagt zu Temperaturvergleichsmessungen in seiner Zeitschrift “Berliner Wetterkarte“ (“Vor- und Nachteile durch die Automatisierungder Wetterbeobachtungenund deren Einfluss auf vieljährige Klimareihen“):

“Mangelnde Vergleichbarkeit der Messwerte alter mit neuer Sensorik bei

− Thermometer: früher Glasthermometer heute Pt 100 Sensor

− Niederschlagsmesser: früher Hellmann-"Kübel“ heute Wippengerät oder neuerdings Gewichtsmessung des Niederschlags

− Luftfeuchtigkeit: früher Haarhygrometer heute Taupunktfühler oder kapazitiver Sensor

− Windgeschwindigkeit früher Schalenanemometer heute Ultraschallgerät

− Schneehöhenmessung früher Schneepegel von Hand heute Laser oder Ultraschallgerät

− Niederschlagsart und Wettererscheinungen Schnee, Regen, Hagel sowie

− Ausfälle der Sensorik verschiedenster Art mit Störung der Klimareihen

− Umbruch der Messmethoden durch andere Mittelwertbildung der Tageswerte siehe:

Temperaturmessung beim DWD „Früher und heute“

All dies kommt zwar der Erfassung der aktuellen Wetterlage und damit der darauf aufbauenden Wettervorhersage sehr zugute – birgt aber in der Klimatologie erhebliche Nachteile bei der Vergleichbarkeit alter Messreihen mit denen mit neuer Sensorik gewonnenen Werte – ein „Äpfel und Birnen Vergleich“ liegt nahe.“

Und weiter:

“Temperaturmessungen früher

Messfühler Quecksilber / Alkohol = Glasthermometer, Stundenwert – jeweiliger Ablesewert um H –10 Minuten,Tagesmitteltemperatur aus den Mannheimer Stundenwerten, 07, 14 und 2 mal 21 Uhr geteilt durch 4,die Extremtemperaturen werden um 07 Uhr für das Minimum und 21 Uhr für das Maximum amGlasthermometer abgelesen.

Temperaturmessungen heute

Messfühler Pt 100Die Temperatur wird mit 2 Messfühlern zur gegenseitigen Kontrolle gemessen, jede Sekunde ein Wertgebildet und über eine Minute gemittelt – also MinutenmittelDie Tagesmitteltemperatur wird aus 24 Werten gebildet, jeweils um H – 10 Minuten ( z.B. 08:50 Uhrfür 09:00 Uhr ). Die Extremtemperaturen werden aus den Minutenmittelwerten zwischen 00 und 24 Uhr gebildet.“

Eine starke Aussage „Äpfel und Birnen Vergleich“! Bereits der obige Vergleich früher zu heute zeigt, dass Aussagen zu vermeintlichen Rekordtemperaturen wertlos sind. Das Institut der Freien Universität Berlin: “Wenn man nun betrachtet, dass früher die vom Beobachter gewonnenen Werte genau auf einen Ablesezeitpunkt bezogen waren, nun aber Temperaturmittelwerte aus einzelnen differenzierten Sekundenwerten gewonnen werden, bleiben Fragen nach der Vergleichbarkeit offen. Zudem wurden früher die Temperaturen in einer „englischen“ Wetterhütte gewonnen, heute jedoch in einer Kunststoff – Lamellenhütte (zu Beginn in ebensolchen aus Aluminium). Jede von ihnen hat eine je nach Tageszeit und vor allem bei Sonnenschein spezifische unterschiedliche Eigenart, die nicht nur Einfluss im untersten Zehntelgradbereich hat. Somit muss man beim Umgang mit Temperaturdaten in Bezug auf einen Anstieg der vieljährigen Mitteltemperaturen mehr Vorsicht walten lassen, als dies derzeit Praxis ist.“

Schaut man sich die Belege dazu an, wird die Aussage förmlich sichtbar (Abb. 1 und 2 aus o.g. Artikel entnommen).

 

Abb.1 zeigt, dass Temperaurabweichungen von 5°C und mehr in den Maximaltemperaturen keine Seltenheit sind. Originaltext: “Unterschiedliche tägliche Messwerte bedingt durch alte und neue Sensoren für die Temperaturmessungveranlassten den Verfasser, dass vom 1.1.1999 bis 31.7 2006 am Fliegerhorst Lechfeld(WMO 10856) 8 ½ Jahre lang täglich ohne Unterbrechungen u. a. Vergleichsmessungen vonQuecksilber-Maximum-Glasthermometern in einer Wetterhütte und Pt 100 Widerstandsthermometerin einer Aluhütte jeweils unbelüftet vorgenommen wurden. An den 3144 Tagen ergab sich einemittlere Differenz von + 0,93 Grad – Pt 100 höher als Quecksilber. Die maximal erfassteTagesdifferenz betrug gar 6,4 Grad !“

 

 

 

Abb.2: Auch im Tagestemperaturgang zeigt sich eine deutliche Abweichung nach oben, von +3°C bei den heutigen Messungen zu denen vor z.B. 15 Jahren.

Dazu kommen noch die vom Menschen in seine Messungen eingebrachten Wärmeinseleffekte (WI). EIKE berichtete darüber:

http://www.eike-klima-energie.eu/klima-anzeige/der-waermeinseleffekt-wi-als-massgeblicher-treiber-der-temperaturen/

Abb.3 zeigt im Vergleich zu den DWD-Temperaturvergleichsdaten, die um die WI-Effekte bereinigte und damit korrekte Temperaturvergleichsmessung. Seit Beginn der DWD-Temperaturreihe ist eine Verfälschung in den Temperaturjahresvergleichsmessungen durch den WI um gut 1°C nach ober zu verzeichnen.

2. Erwärmungsenergie

Doch unbestreitbar sind die Jahre 2014 und der Sommer 2015 wärmer ausgefallen, als z.B. 2012 und 2013, wo ähnlich gemessen wurde. Woher stammt dann die zusätzliche Energie, die für eine Erwärmung notwendig ist? Schauen wir daher auf den Energiespender für die Erde, die Sonne.

Abb.4, Quelle: (http://www.solarham.net/) zeigt die auf der Erde angekommene Strahlungsintensität der Sonne. Derzeit ist keine im Vergleich aktive solare Aktivität zu verzeichnen.

Da sich das Wettergeschehen in der Atmosphäre abspielt, soll noch ein weitere solarer Parameter betrachtet werden, der von unser Atmosphäre absorbiert wird und daher nicht auf die Erdoberfläche gelangt, dessen Energie jedoch, durch die Absorption in der Erdatmosphäre aufgenommen wird, die Röntgenaktivität der Sonne. Sie gibt Aussage über die Korona Aktivität der Sonne, also über ihre atmosphärische Aktivität. Diese steht über den Sonnenwind in direktem Kontakt zur Erdatmosphäre.

 

Abb.5, Quelle: (http://sidstation.loudet.org/solar-activity-en.xhtml) zeigt die Röntgenaktivität der Sonne. Hier ist indes starke Aktivität erkennbar, wenn auch nicht in dem Maße, wie Anfang des Jahrhunderts).

Verantwortlich für die hohe Röntgenaktivität sind die Salar Flares, die auch für eine hohe Aktivität im Sonnenwind stehen und die kosmische Strahlung von der Erde fern halten, was zu weniger Wolken, weniger Regen und mehr Sonneneinstrahlung führt.

Abb.6, Quelle wie Abb.5 zeigt die Aktivität der Solar Flares. Gut zu erkennen, dass diese gegenwärtig sehr hoch ist.

Seit Svensmark ist bekannt, dass geladene Aerosolpartikel, die verstärkt durch kosmische Strahlung entstehen, bis zu 10-mal so effektiv in der Bildung von Wolkentröpfchen sind als ungeladene. Da die kosmische Strahlung durch starken Sonnenwind und hohe Röntgenaktivität der Sonne geschwächt wird, entstehen weniger geladene Aerosolpartikel, die als Ausgangsbasis für die Bildung von Wolkentröpfchen zur Verfügung stehen.

Des Weiteren schwächt starker Sonnenwind das Magnetfeld der Erde (insbesondere die Bz-Komponente des Sonnenwindes, die parallel zum Erdmagnetfeld verläuft und dadurch am stärksten mit ihm wechselwirkt, ist hierfür verantwortlich.

Mit dem Sonnenwind wird auch die magnetische Stromschicht (HCS = Heliospheric Current Sheet) transportiert.

Heliospheric Current Sheet (HCS)

Da das Interplanetarische Magnetfeld auf der Erdbahn mit bis 1 – 10 nT, 100 bis 1000-fach stärker ist, als das Dipolfeld der Sonne dies erwarten lässt (magnetische Dipolfelder klingen mit der dritten Potenz des Abstandes ab), muss es einen Effekt geben, der das Feld verstärkt. Dies ist die Heliosphärische Stromschicht, die bis an die Grenzen des Sonnenwindes reicht. Dabei hat sie eine Breite von ca. 60.000 km (http://wind.nasa.gov/mfi/hcs.html#table). Der elektrische Strom in der HCS ist radial einwärts gerichtet und liegt bei maximal 10-4 A/km2. Entgegen den Sonnenstrahlen wirkt es nicht in der Kreisfläche, sondern auf der Kugelfläche der Erde, wenn die Erde die HCS passiert.

Abb.7 zeigt die Lage der Heliosphärischen Stromschicht der Sonne (Heliospheric Current Sheet) von 1976 – 2015 anhand zweier Analysemethoden.

Berechnet wird die Kurve aus den Datenreihen:

  • des Sonnenpolarfeldes
  • des zonalen magnetischen Flusses über drei Sonnenzyklen und
  • der solaren Dipolkomponenten, Quelle: (http://wso.stanford.edu/)

Der daraus ermittelte zeitabhängige Wert trägt den Namen “HCS Tilt Angle“

Beide vorherigen Abbildungen deuten darauf hin, dass derzeit der Sonnenwind vergleichsweise hoch ist.

Abb.8, Quelle: NASA, zeigt die Sonnenwindstärke im Zeitraum von 1990 bis 2015. Obwohl in 2015 die Sonnenaktivität, wie sie sich in den Sonnenflecken und der magnetischen Aktivität widerspiegelt (Abb.4) vergleichsweise schwach ist, ist in 2015 eine deutliche Zunahme zu erkennen.

Wie die oben gezeigte Parameter unmittelbar mit dem Wettergeschehen zusammenhängen, zeigt Abb.9.

Die elektrische Leitfähigkeit der Atmosphäre, sowie die Blitzanzahl variieren mit der kosmischen Strahlung, Quelle: (http://www.slac.stanford.edu/cgi-wrap/getdoc/slac-wp-020-ch11g-Kirkby.pdf).

 

Abb.9 links zeigt die Schwankungen des Vertikalstromes zu der kosmischen Strahlung (GCR) in der Polarregion und die Abbildung rechts die Blitzhäufigkeit pro Jahr in Abhängigkeit zur GCR in den USA. Sowohl der Vertikalstrom, als auch die Blitzhäufigkeit schwanken mit der kosmischen Strahlung.

Wie sehr elektrische Effekte in der Atmosphäre die Kondensationsbildung und damit die Bewölkungsmenge steuern, wird bei einem Forbush-Ereignis (nach dem Geophysiker Scott E. Forbush, der den Effekt entdeckte) sichtbar. Ein Forbusch-Ereignis ist ein plötzlicher Abfall der kosmischen Strahlung wegen plötzlich auftretender starker Sonnenaktivität, da durch erhöhte Sonnenaktivität der Sonnenwind die kosmische Strahlung von der Erde ablenkt. Bei einem SCR-Ereignis (Solar Cosmic Ray) gelangen hochenergetische Protonen von der Sonne zur Erde.

 

Abb.10 zeigt den Rückgang bei Regen während einem Forbush-Ereignis (During Forbush GCR decrease). Deutlich zeigt sich, dass die Niederschlagsmenge stark zurückgeht, was darauf zurückzuführen ist, dass weniger elektrisch geladene Aerosole für Wolkenbildung zur Verfügung stehen. Quelle: http://www.slac.stanford.edu/cgi-wrap/getdoc/slac-wp-020-ch11g-Kirkby.pdf

 

Abb.11 (Quelle, wie Abb.10) zeigt die Änderung der Regenmenge während eines SCR-Ereignisses (During ground-level, SCR increase, Quelle wie oben). Dabei zeigt sich, dass die Regenmenge deutlich zunimmt, was auf die zunehmende Ionisation in der Atmosphäre und dadurch ausgelöst eine Zunahme von elektrisch geladenen Aerosolpartikeln zurückzuführen ist.

Derzeit klagen weite Teile über große Trockenheit und zu wenig Regen. Die Antwort darauf geben die Abb.5 bis 11.

1. Ergebnis

Die derzeit zu registrierende Trockenheit ist auf verstärkte solare Aktivität im Röntgenbereich und ihrer Flares zurück zuführen (Stichwort: Svensmark Effekt, stanford.edu) und ist damit vorüber gehend.

Teil 2 in Kürze

Raimund Leistenschneider – EIKE

 

 




Obmas Clean Power Plan wird mit der unglaublich bizarren Physik des Stromnetzes kollidieren

Bild rechts: © Alan Caruba†

Aber man erlaube mir hiermit eine kurze Betrachtung der Realitäten, über die es keinen Streit gibt: Die Physik der Stromversorgung, Realitäten, die Art und Wirtschaftlichkeit des Möglichen bestimmen.

Die eigentümliche Physik des Stromes wird ultimativ die angestrebten Ziele des neuen, 1560 Seiten starken Clean Power Planes zerschlagen, und zwar wirksamer als eine Armee von Lobbyisten, Gerichtsverfahren und Laborstudien zusammen. Es ist eine unbequeme Wahrheit, dass sich Strom ausgesprochen stark unterscheidet von jeder anderen Energiequelle, die die Gesellschaft nutzt; es ist in der Tat bizarr.

Ausgedrückt in Energie-Einheiten liefern die Stromversorger der Nation 5 Öl-Supertanker jeden Tag. Dieses Kunststück wird mit einem Netzwerk zustande gebracht, in dem operationelle Dynamik und Katastrophen nahezu mit Lichtgeschwindigkeit auftreten können. Und Folgendes ist die kritische Einzeltatsache: Über 99 Prozent allen Stromes muss genau zur gleichen Zeit erzeugt werden, wie er verbraucht wird. Man versuche das mal mit Weizen, Stahl oder Öl.

Folglich lässt sich das Problem so auf den Punkt bringen: Der CPP, wie inzwischen jedermann weiß, gibt einen Weg vor hin zu einer radikalen Zunahme des Verbrauchs von Wind- und Solarenergie überall in Amerika. Und schiebt man mal die Kosten beiseite (was in der realen Welt niemals der Fall sein kann), sollte ohne Weiteres klar sein, dass weder Wind noch Solar jederzeit verfügbar sind.

„Verfügbarkeit“ ist keine semantische Nettigkeit. Es ist eine spezifische und kritische technische Eigenschaft von Kraftwerken.

Um dem Netz zu ermöglichen, Energie kontinuierlich und nahezu augenblicklich zu liefern angesichts unvermeidlicher Herausforderungen (Kraftwerkspannen oder die hoch zyklische Natur der Nachfrage), müssen die Betreiber Zugang haben zu ungebrauchten Kapazitäten, die jederzeit abrufbar sein müssen. Wind und Solar weisen nur eine sehr geringe mittlere Verfügbarkeit auf im Vergleich zu konventionellen Kraftwerken, aber noch wichtiger ist, dass sie viele Stunden am Tag Null Verfügbarkeit aufweisen. Und genauso wenig den Output erhöhen können, um der normalen täglichen und stündlichen Spitzen-Nachfrage zu genügen.

Man muss sich vergegenwärtigen, dass sich „Verfügbarkeit“ grundlegend von anderen technischen, nicht-semantischen Eigenschaften von Kraftwerken unterscheidet, nämlich den „Kapazitätsfaktor“, welcher eine Maßzahl für die gesamte Lieferung von Energie ist. Nicht überraschend haben Wind und Solar auch geringe Kapazitätsfaktoren im Vergleich zu konventionellen Kraftwerken: Im Verlauf eines Jahres kann ein Megawatt Wind im Mittel weniger als ein Drittel so viel Energie liefern wie ein Megawatt einer Gasturbine. Falls man beispielsweise Automobile auf diese Weise bewertet, würde der Kapazitätsfaktor beschreiben, wie oft man im Mittel in der Lage ist, das Auto aus allen möglichen Gründen zu benutzen, unabhängig davon, wie groß das Auto oder sein Motor ist. Verfügbarkeit ist das Falls, Wenn und Wie lange, mit dem das Auto zu irgendeiner gegebenen Zeit tatsächlich losfahren kann.

Wenn es um Kapitalkosten geht, kommt der Kapazitätsfaktor ins Spiel. Vereinfacht gesagt, man muss drei Wind- oder Solar-Megawatt Kapazität schaffen, um die Energiemenge zu erzeugen, die äquivalent ist zu einem Megawatt Turbinenkapazität. (Offensichtlich hängt das genaue Verhältnis davon ab, wie sonnig und/oder windig es gerade ist). Das bedeutet, dass es einfach Unsinn ist zu behaupten, dass ein Solar- oder Windkraftwerk mit Kapitalkosten pro „Nennwert“-Megawatt im Vergleich zu einem konventionellen Kraftwerk den Heiligen Gral der „Netzparität“ erreicht hat. [Original: That means it is just nonsensical to claim a solar or wind plant with a capital cost per “nameplate” megawatt equal to a conventional power plant has achieved the Holy Grail of “grid parity.”] Und selbst falls man zusätzlich Wind- und Solarkapazität installiert, ist diese zusätzliche Kapazität wertlos, wenn sich nicht verfügbar ist zu der Zeit, zu der sie gerade gebraucht wird.

Es ist die Verfügbarkeit, die unabdingbar ist, wenn es um das Ingenieurwesen geht, und daraus abgeleitet eine ökonomische Herausforderung, ein Netz kontinuierlich und stabil am Laufen zu halten. Ein stabiles, kontinuierliches Netz ist unabdingbar erforderlich für die moderne Gesellschaft und ein Eckpfeiler der Moderne. Man frage mal in Indien oder in einem der dutzenden anderer Länder nach, die immer wieder von nur episodisch funktionierenden Netzen geplagt werden.

Noch einmal zurück zur Analogie mit dem Auto: Falls das bevorzugte Auto nur eine geringe Verfügbarkeit hätte, könnte man sich gelegentlich vom Nachbarn fahren lassen, der klug genug war, sich ein Auto zuzulegen, dass hoch verfügbar ist. Genau so funktionieren Solar und Wind heutzutage im Netz. Natürlich haben die Nachbarn des Netzes hoch verfügbare ,Autos‘, genannt Kohle, Gas und Kernkraft. Der US-Bundestaat Iowa ist der größte Winderzeuger der USA und bezieht dennoch 50% seines Stromes aus Kohle.

Heute stammen 90% der Energie in Amerika aus hoch verfügbaren Quellen: insgesamt 65% zu etwa gleichen Anteilen aus Kohle und Erdgas (was der CPP und die Grünen zu eliminieren trachten; zuerst Kohle, dann Gas). 20% stammen aus alternden Kernkraftwerken mit unglaublich hoher Verfügbarkeit (und für die der CPP keinerlei Anreize der Erneuerung bietet). 5% stammen aus alten, großen Wasserkraftwerken (welche die Grünen verachten).

Die Anti-Kohlenwasserstoff-Schreihälse für den CPP hatten lange Zeit drei schnelle Antworten auf die Frage des Verfügbarkeit-Problems, wenn man viel mehr Wind- und Solarenergie in das Netz speist: Mehr Effizienz, mehr Überlandleitungen, und viele, viele Batterien. All das sind integrale Bestandteile des CPP.

Beginnen wir mit den Batterien, der Trumpfkarte, die die grünen Experten höchst begeistert hatte als eine Möglichkeit, die Versorgungsindustrie zu stören und zu transformieren. Batterien sind konzeptionell die einfachste und offensichtlichste Lösung des Verfügbarkeits-Problems. Speichere es jetzt zum späteren Gebrauch. Das ist das ,Smartphone-Paradigma‘: man wende dies zunächst auf Autos, dann auf Wohnungen und dann auf das Netz selbst an. Tesla stand an vorderster Front, zumindest in den Medien, mit Auto- und Hausbatterien.

Die Schwierigkeiten hier beginnen schon bei der Physik. Strom ist erstaunlich schwierig zu speichern in der Größenordnung, um die es hier geht. Anders als jede andere Energiequelle und jedes anderen Gebrauchsgegenstandes, das die Gesellschaft verbraucht, kann man Strom nicht einfach stapeln, einfüllen oder auf irgendeine Art und Weise in riesigen Mengen Elektronen verpacken.

Inzwischen haben Speicherketten für Gebrauchsdinge der Größenordnung von Ländern irgendwo im Hintergrund gewaltige Speichermöglichkeiten: Fässer, Tanks, Pakete oder Warenhäuser voller zusätzlicher Versorgungsmöglichkeiten. Im Mittel sind für drei Monate der jährlichen nationalen Nachfrage Dinge gespeichert, die zu jedem Zeitpunkt für jeden Gebrauchsgegenstand von Öl und Erdgas bis hin zu Getreide und Metallen die Verfügbarkeit garantieren. Die Ausnahme? Strom! Die Gesamtmenge des gespeicherten Stromes in allen Batterien steht für alle Zwecke zu jedem Zeitpunkt nur einige Minuten lang zur Verfügung, nicht mehrere Monate lang.

Elon Musk hat uns einen Weg aufgezeigt, wie man die Herausforderung der Speicherung von Energie auf Netzebene illustrieren kann. Die erstaunlich große Tesla-Batteriefabrik im Wert von 5 Milliarden Dollar, die gerade in Nevada gebaut wird, also die sog. „Giga-Fabrik“, ist darauf ausgelegt, mehr Lithiumbatterien herzustellen als alle bereits bestehenden Lithium-Fabriken zusammen. Dies repräsentiert eine so große Anzahl von Batterien pro Jahr, dass man damit 30 Milliarden Wattstunden Strom speichern kann. Eine große Zahl. Aber in den USA werden etwa 4.000.000 Milliarden Wattstunden pro Jahr verbraucht. Folglich kann der gesamte Output der Giga-Fabrik gerade mal für fünf Minuten die Stromnachfrage in den USA decken.

Dies sagt noch nichts über die Kosten oder die Lebensdauer der Batterien, die nach Jahren und nicht nach Jahrzehnten bemessen wird, obwohl Letzteres für Stromsysteme auf Netzniveau gebraucht werden würde. Es sagt auch nichts über die weiteren Kosten für die Verfügbarkeit. Die Speicherung von Energie in kurzlebigen Batterien ist nicht nur ein wenig teurer, sondern zehntausende Male teurer als Gas in Tanks oder Kohle in Stapeln zu speichern, wo sie längere Zeit liegen können, aber jederzeit langlebigen Kraftwerken zur Verfügung stehen.

Aber man verspricht uns, dass sich bessere Batterie-Technologien kontinuierlich entwickeln werden. Natürlich werden sie das. Aber wie es schon immer bei Batterien der Fall war – neuere Technik ist teurer. Übrigens gibt es einen Markt, der bereit ist, für immer bessere Batterien zu zahlen. Die Kosten einer Batterie in Smartphones, gemessen auf Netzniveau, betragen 1000 Dollar pro Kilowattstunde Kapazität. Dies illustriert das Problem. Der gewünschte Preis, den die netzweite Speicherung erreichen muss, liegt dem Energieministerium zufolge unter 100 Dollar pro Kilowattstunde – und für ein System, das viel komplexer ist als die Energieeinheit im Smartphone. Und selbst das ist noch um mindestens das Zehnfache zu teuer für die Speicherung in großem Maßstab.

Hier folgt noch ein weiteres Beispiel der Größe der Herausforderung der Stromspeicherung. Die Stadt Cushing in Oklahoma ist Standort einer der wichtigsten und zahlreichen Ölspeicher. Um einen ,Speicherpark‘ zur Speicherung von Kilowattstunden in der Größenordnung der in Cushing gespeicherten Energie zu errichten, brauchen wir eine Anzahl von Batterien, die äquivalent ist zu 40 Jahren Produktion in 100 Giga-Fabriken. Strom ist sehr schwierig zu speichern.

Übertragung ist der zweite Knackpunkt, das Problem der geringen Verfügbarkeit grüner Energie zu lösen. Da es immer irgendwo auf dem Kontinent oder dem Planeten sonnig und windig ist, müsste man lediglich ein Netz konstruieren, das groß genug ist, um Strom aus größten Entfernungen zu transportieren. Europa hat ernsthaft Pläne verfolgt, ein Netz in das sonnige Nordafrika auszuweiten. Aber wieder steigert die gewaltige Größenordnung eines solchen Netzes die Kosten, und zwar erheblich. Dies sagt weder etwas über die damit einher gehenden Probleme hinsichtlich der Zuverlässigkeit so langer Übertragungsleitungen noch die fast einstimmige Opposition der Öffentlichkeit hinsichtlich des Verlaufes der Leitung aus. Europa hat diesen Plan inzwischen aufgegeben. Falls jemand wirklich grüne Energie aus weit entfernten Gegenden wünscht, könnte Kanada dafür geeignet sein mit seinem bisher erstaunlich unangetasteten Potential seiner Flüsse im Norden, viele tausend Meilen entfernt. Einen exzellenten Beitrag dazu gibt es hier.

Dann gibt es da noch die Effizienz, welche wahrheitswidrig von den grünen Befürwortern und dem CPP als eine Energie-„Quelle“ angepriesen wird. Und um das klarzustellen, wir meinen damit nicht die Einsparung, welche normalerweise zu Mangel führt oder man freiwillig darauf verzichtet. Mit Reduktion des Wachstums oder selbst des absoluten Niveaus der zukünftigen Nachfrage erzeugt man nicht mehr Energie, sondern es wird einzig und allein die Lieferung jener Energie herausgefordert. Genau wie Nahrung muss Energie kontinuierlich ,wachsen‘.

Unter dem Strich steht, dass trotz der bereits in Effizienz investierten Milliarden, um das Wachstum abzuwürgen, und trotz einer verheerenden Rezession, die es wirklich abgewürgt hat, die Strom-Nachfrage in den USA heute um 10% höher ist als im Jahre 2001. Diese scheinbar moderate Menge in der Größenordnung des amerikanischen Netzes repräsentiert eine Zunahme äquivalent zu dem jährlichen Stromverbrauch in Italien. Die Energy Information Administration prophezeit einen weiteren Anstieg um mindestens 10% während der nächsten 15 Jahre – dies wird es erforderlich machen, dass die USA reale Kapazität äquivalent zu Deutschlands gesamten Netz hinzufügt.

Aber Effizienz als eine ,Lösung‘ aller Arten von Umweltproblemen wird auf beiden Seiten der politische Debatte vielfach begrüßt. Darum ist es angebracht, kurz zu erläutern, warum im besten Falle Effizienz keinen Unterschied macht für die Maximalziele des CPP und im schlimmsten Falle dadurch die Kosten für die Verbraucher zusätzlich steigen.

Eine effizientere Energieerzeugung (weniger verbrannter Treibstoff pro erzeugter Kilowattstunde) ist das sprichwörtliche ,Kinderspiel‘, wenn die Kosten der neueren effizienteren Hardware geringer sind als die Kosten des eingesparten Treibstoffes. Ingenieure sind dieser Art von Effizienz seit Jahrhunderten erfolgreich hinterher gejagt; man frage mal GE und GM oder Intel und IBM.

Die Menschen sind glücklich, die effizientere Technologie zu kaufen, wenn sie das Gleiche kostet wie die ältere, weniger effiziente Technologie. Aber wenn Firmen und Verbraucher aufgefordert werden, mehr auszugeben, um zukünftige Einsparungen zu kaufen, sind sie allgemein sehr zögerlich, weil sie gedrängt werden, das heutige wertvolle Kapital für zukünftige Einsparungen auszugeben, und weil sie gewöhnlich aufgefordert werden, darauf zu bauen, dass die Einsparungen real sind, weil die zukünftigen Kosten von Treibstoff höher sein könnten. (Die Preise haben für alle Kohlenwasserstoffe drastisch nachgegeben). Ersteres garantiert höhere sofortige Kosten, bei Letzterem besteht die Gefahr, dass sich die potentiellen Einsparungen niemals realisieren.

Natürlich können Regierungen die Märkte manipulieren und den Verbrauchern Geld zukommen lassen via Steuernachlässe oder Subventionen, um in die teurere Ausrüstung für theoretische zukünftige Vorteile für die Gesellschaft als Ganzes zu ,investieren‘. Aber diese Strategie ist keine Lösung der Verfügbarkeit von Energie, nicht nur, weil Effizienz keine Energiequelle ist, sondern auch, weil Subventionen sehr schnell sehr teuer werden und nicht nachhaltig sind.

Dann gibt es da noch die Effizienz, mit der das Verbraucherverhalten kontrolliert wird – ein Statement, das aus sich selbst heraus eine rote Flagge darstellen sollte, sowohl als Gegenstand politischer Philosophie als auch als ein Widerspruch in sich, wenn die Begriffe Effizienz und Verbraucherverhalten nebeneinander gestellt werden. Falls bei einer Spitzennachfrage nicht genügend Energie zur Verfügung steht, dann – so lautet das Konzept – eliminiert man die Spitze dadurch, die Nachfrage madig zu machen oder die Nachfrage während der Spitze zu eliminieren.

Versorgungsunternehmen haben seit den siebziger Jahren (oder sogar noch früher) Programme aufgelegt, gewöhnlich mit Vorzugsraten, Strom-Großverbraucher dazu zu bringen, ihren Verbrauch in Zeiten der Spitzennachfrage zu drosseln. Dass das Internet dies jetzt einfacher macht, ist nahezu irrelevant. Die niedrig hängende industrielle Frucht ist schon vor langer Zeit gepflückt worden. Was übrig bleibt, sind industrielle Operationen, die nicht an- und ausgestellt werden können. Datenzentren sind dafür ein gutes Beispiel. Und es ist wichtig, im Hinterkopf zu halten, dass das Ausmaß, bis zu dem es irgendeine wirtschaftliche Erholung gibt in einigen Ecken der industriellen Landschaft, genau deswegen besteht, weil der Strom in den USA billig und zuverlässig ist (zumindest bis jetzt).

Inzwischen hat es die Lasten-Umverteilung in heimischen Märkten seit Langem nicht vermocht, radikale Änderungen des Verbraucherverhaltens zu erreichen. Die tägliche Preisauszeichnung hat funktioniert, jedoch den Widerstand der Verbraucher geweckt. Unabhängig von zukünftigen Anwendungen, die einfacher und kontrollierbarer durch Smartphones werden, gibt es auch hier kaum noch niedrig hängende Früchte. Wenn es heiß ist beispielsweise und die Menschen zu Hause sind, gibt es eine scharfe Grenze der Bereitschaft, dass ein Versorgungsunternehmen von Weitem die Air Condition abschaltet. Natürlich machen es Smartphones und smarte Häuser einfacher, das Licht auszuknipsen, das auszuschalten die Kinder vergessen haben. Hier kann es wohl Einsparungen geben, aber diese sind wirklich minimal.

Die echte Ironie von all dem ist, dass der Schub des CPP in Richtung Energiequellen, die das Netz weniger zuverlässig oder im besten Fall und zu horrenden Kosten nicht zuverlässiger machen, genau zu dem Zeitpunkt kommt, an dem die moderne Gesellschaft eine größere Zuverlässigkeit braucht.

Die Nachfrage nach „jederzeit abrufbarer“ Energie, um unsere auf Digital und Informationen zentrierte Gesellschaft am Blühen zu halten, war niemals größer. Der Anteil des US-BIP im Zusammenhang mit Informationen – welche vollständig von Strom abhängig ist – ist dreimal größer als der Anteil im Zusammenhang mit dem (vom Öl abhängigen) Transportsektor. Mehr zu dem immer größeren Stromhunger habe ich hier geschrieben.

Die mittlere Anzahl von Netzausfällen ist seit dem Jahr 1990 um 8 bis 10 Prozent jährlich gestiegen. Stromausfälle haben im vorigen Jahr um 12 Prozent zugenommen. Und die Dauer von Ausfällen ist ebenfalls gestiegen, und zwar um 14 Prozent pro Jahr. Die Eaton Corporation listet für jeden US-Bundesstaat die Ausfälle hier.

Und seit Neuestem gibt es das zunehmend dringlicher werdende Problem von Cyber-Angriffen auf das Netz – das ist eines der kritischsten Felder, die nach zusätzlichen Ausgaben und Aufmerksamkeit verlangen, um das Netz zu stärken. Glücklicherweise können Internet und Analytiker in diesem Bereich einen wesentlichen Unterschied machen. Und während in Silicon Valley produziert und Dienstleistungen angeboten werden, preisen Institutionen wie das jüngst in Betrieb genommene Siebel Energy Institute die Vorteile für sie durch der Energieeinsparung an. Es werden die Bereiche Sicherheit und Zuverlässigkeit sein, in denen sie die größten und wertvollsten Beiträge leisten können.

Wir wussten schon lange, dass die Kosten von Stromausfällen weitaus höher sind als der Wert der Energie selbst. Abhängig von der Art der Industrie ist ein Stromausfall zehn- bis zehntausend mal teurer als die Energie selbst. Wir wissen bereits, dass Ausfälle insgesamt in der US-Wirtschaft zu Kosten in Höhe von 150 Milliarden Dollar pro Jahr führen. Und darin sind noch nicht einmal die sozialen und menschlichen Kosten solcher Ausfälle enthalten.

Man kann sich darauf verlassen, dass der CPP nicht als „Kostenfaktor“ für eine Zukunft angesehen wird, die ein weniger zuverlässiges Netz zur Folge hat. Und man kann sich darauf verlassen, dass die Verbraucher und Wähler genau dies irgendwann bemerken. Und man kann sich darauf verlassen, dass die Verbraucher eventuell bemerken werden, dass die Strompreise schon begonnen haben zu steigen seit dem Jahr 2005, was einen ehemaligen 25-jährigen Trend fallender Preise umgekehrt hat.

Ein Netz der Zukunft, dass sowohl teurer als auch weniger zuverlässig ist, wird schlimme Folgen haben für die Wirtschaft und giftig für Politiker sein.

Link: http://www.forbes.com/sites/markpmills/2015/08/07/the-clean-power-plan-will-collide-with-the-incredibly-weird-physics-of-the-electric-grid/

Übersetzt von Chris Frey EIKE