Wo die Wissenschaft vom Weg abkommt

Viel zu viele Ergebnisse, die den akademischen Äther füllen, sind entweder das Ergebnis nachlässig durchgeführter Experimente oder schlechter Analysen ( siehe hier). Eine Faustregel unter Investoren im Bereich Biotechnologie lautet, dass die Hälfte der veröffentlichten Forschungsergebnisse nicht wiederholt werden kann. Und selbst das könnte eine optimistische Schätzung sein. Im vorigen Jahr haben Forscher eines Biotech-Unternehmens, nämlich Amgen, herausgefunden, dass sie lediglich sechs der 53 „grundlegenden“ Studien zur Krebsforschung reproduzieren konnten. Zuvor ist es einer Gruppe beim Arzneimittelhersteller Bayer gelungen, gerade mal ein Viertel von 67 ähnlich wichtigen Studien zu wiederholen. Ein führender Computer-Wissenschaftler ärgert sich darüber, dass drei Viertel aller Studien in seinem Umfeld Quatsch sind. Von den Jahren 2000 bis 2010 haben rund 80.000 Patienten an klinischen Tests teilgenommen, und zwar für Forschungen, die später aufgrund von Fehlern oder Ungenauigkeiten zurückgezogen wurden.

Was für eine Menge Müll!

Selbst wenn die gescheiterte Forschung nicht das Leben der Teilnehmenden auf das Spiel setzt – und vieles davon so weit vom Markt entfernt, dass das nicht möglich ist – es werden Geld und die Bemühungen von einigen der besten Geister der Welt verschwendet. Die Gelegenheitskosten des verhinderten Fortschritts sind schwer zu quantifizieren, aber vermutlich sind sie erheblich. Und sie könnten noch steigen.

Ein Grund ist die Wettbewerbsfähigkeit der Wissenschaft. In den fünfziger Jahren, als akademische Forschung nach ihrem Erfolg im 2. Weltkrieg Formen annahm, war sie immer noch lockerer Zeitvertreib. Der gesamte Club der Wissenschaftler umfasste einige wenige Hunderttausend. Mit dem Anwachsen ihrer Zahl auf etwa 6 bis 7 Millionen aktive Forscher haben die Wissenschaftler ihr Faible für Selbst- und Qualitätskontrolle verloren. Der Leitsatz „veröffentliche oder verschwinde“ [„publish or perish“] regiert inzwischen über das akademische Leben. Wettbewerb auf Arbeitsplätze ist ruinös. Vollzeit-Professoren in Amerika haben im Mittel 135.000 Dollar im Jahr 2012 verdient – mehr als Richter. Jedes Jahr bewerben sich sechs frisch gebackene PhDs auf einen akademischen Posten. Heutzutage bedeutet die Verifikation (die Wiederholung von Ergebnissen anderer Forscher) nur noch wenig, um die Karriere eines Forschers voranzubringen. Und ohne Verifikation bleiben zweifelhafte Ergebnisse bestehen, um in die Irre zu führen.

Karrieresucht ermutigt auch zu Übertreibungen und zum Rosinen aus Ergebnissen herauspicken. Um ihre Exklusivität zu retten, haben führende Journale hohe Raten der Ablehnung eingeführt: über 90% der eingereichten Manuskripte wurden zurückgewiesen. Die auffälligsten [most striking] Ergebnisse haben die größte Chance, akzeptiert zu werden. Da ist es kein Wunder, dass einer von drei Forschern einen Kollegen kennen, der eine Studie aufgemotzt hat, indem er, sagen wir, unpassende Daten „aufgrund eines Bauchgefühls“ aus den Ergebnissen herausgehalten hat. Und wenn immer mehr Forschungsteams auf der ganzen Welt an einem Problem arbeiten, wird die Wahrscheinlichkeit immer geringer, dass zumindest einer der ehrlichen Verwirrung zum Opfer fallen wird zwischen dem süßen Signal einer bahnbrechenden Entdeckung und der Laune des statistischen Rauschens. Solche störenden Korrelationen erscheinen oft in Journalen, die nach Aufsehen erregenden Studien trachten. Wenn sie beim Wein trinken erwischt oder senil werden oder Kindern Videospiele gestatten, könnten sie genauso gut auf den Titelseiten von Zeitungen landen.

Im umgekehrten Fall, nämlich wenn es nicht gelingt, eine Hypothese zu beweisen, wird man entsprechende Arbeiten nicht zur Veröffentlichung anbieten, geschweige denn dass sie akzeptiert werden würden. „Negative Ergebnisse“ machen nur etwa 14% der veröffentlichten Studien aus. Im Jahr 1990 waren es noch 30%. Dabei ist das Wissen, was falsch ist, genauso wichtig für die Wissenschaft wie das Wissen um das, was richtig ist. Der Fehlschlag, Fehlschläge zu veröffentlichen bedeutet, dass die Forscher Geld und Mühe verschwenden, um finstere Wege zu beschreiten, die bereits von anderen Wissenschaftlern untersucht worden waren.

Der geheiligte Prozess der wissenschaftlichen Begutachtung ist bei Weitem auch nicht das, was er sein sollte. Wenn ein bekanntes medizinisches Journal eigene Nachforschungen angestellt hatte hinsichtlich einer vorangegangenen Studie anderer Experten auf diesem Gebiet, stellte sich heraus, dass die meisten Begutachter nicht die Fehler entdeckt hatten, die absichtlich in die Studien eingebracht worden waren, selbst dann nicht, als man den Begutachtern gesagt hat, dass sie auf die Probe gestellt werden würden.

Wenn etwas zerbrochen ist, repariere man es.

All das bildet eine sehr schüttere Grundlage für eine Unternehmung, die die Wahrheit über die Welt herausfinden soll. Was könnte man tun, um diese Grundlage zu festigen? Eine Priorität dabei sollte es für alle Disziplinen sein, dem Beispiel jener zu folgen, die das meiste dazu getan haben, die Standards zu festigen. Ein Anfang wäre es, besser mit Statistiken umgehen zu können, vor allem bei der zunehmenden Zahl von Bereichen, in denen immer größere Datenmengen auf der Suche nach bestimmten Mustern durchforstet werden. Genetiker haben das getan und einen früheren Fluss spezieller Ergebnisse bei der Sequentierung von Genomen in einen Strom wichtiger Ergebnisse umgewandelt.

Idealerweise sollten Forschungsprotokolle im Voraus registriert und in virtuellen Notebooks festgehalten werden. Dies würde die Versuchung mindern, in den Folgen des Experiments herumzufummeln, um die Ergebnisse bedeutender aussehen zu lassen als sie sind. (Es gibt Hinweise, dass Solches bereits bei klinischen Tests mit Medikamenten der Fall war).Wo immer möglich, sollten Datensätze auch anderen Forschern zur Überprüfung offen stehen.

Die fortschrittlichsten Journale werden schon jetzt weniger zögerlich, eintönige Studien zuzulassen. Einige von der Regierung bezahlte Agenturen einschließlich des amerikanischen National Institutes of Health, das jedes Jahr 30 Milliarden Dollar für Forschungen ausgibt, arbeiten daran, wie man Experimente zur Wiederholung der Ergebnisse ermutigen kann. Und eine wachsende Zahl Wissenschaftler, vor allem jüngere, verstehen etwas von Statistik. Aber diese Trends müssen sich noch viel mehr verstärken. Journale sollten „uninteressanten“ Arbeiten Platz einräumen, und Finanziers sollten Geld beiseite legen, dies zu bezahlen. Die Begutachtung sollte verbessert werden – oder gleich eingebracht werden in Gestalt einer Evaluierung nach der Veröffentlichung durch anhängende Kommentare. Dieses System hat während der vergangenen Jahre in Physik und Mathematik gut funktioniert. Und schließlich sollten Politiker sicherstellen, dass von öffentlichen Geldern finanzierte Institutionen ebenfalls diesen Regeln folgen.

Wissenschaft verlangt enorme – wenn auch manchmal verwirrte – Anerkennung. Aber ihr privilegierter Status fußt auf der Kapazität, meistens richtig zu liegen und Fehler zu korrigieren, wenn etwas falsch läuft. Und es ist nicht so, als ob dem Universum echte Mysterien ausgehen würden, die noch harte Arbeit für Generationen von Wissenschaftlern bereit halten. Die falschen Spuren, die durch schlampige Forschungen gelegt werden, sind eine unverzeihliche Barriere für das Verstehen.

Link: http://www.economist.com/news/leaders/21588069-scientific-research-has-changed-world-now-it-needs-change-itself-how-science-goes-wrong

Übersetzt von Chris Frey EIKE




Wie man eine halbe Billion Euro verliert: Europas Stromversorger stehen vor einer existenziellen Bedrohung

Das Problem besteht darin, dass Kern- oder Braunkohlekraftwerke auf Volllastbetrieb angelegt sind und nicht ohne Weiteres ihre Erzeugung verringern können, während die zusätzliche Energie aus Sonne und Wind frei ist. Die Last der Anpassung liegt also bei Gas- und Kohlekraftwerken, deren Output auf lediglich 10% der Kapazität fiel.

Diese Ereignisse waren ein Mikrokosmos der Änderungen, die alle Gebiete betreffen, in denen erneuerbare Energiequellen immer wichtiger werden – Europa im Allgemeinen und Deutschland im Besonderen. Für Umweltaktivisten sind diese Änderungen ein Triumph. Erneuerbare Low-Carbon-Energie bekommt einen immer größeren Anteil an der Erzeugung. Das hilft, den Großhandelspreis zu senken und könnte eines Tages zu großen Reduktionen von Treibhausgas-Emissionen führen. Für etablierte Unternehmen jedoch ist das eine Katastrophe. Ihre Gaskraftwerke werden durch erneuerbare Energiequellen beiseite gedrängt. Sie verlieren Geld durch die Stromerzeugung. Sie machen sich Sorgen, dass das Wachstum von Solar- und Windenergie das Netz destabilisiert und zu Blackouts führen kann. Und sie weisen darauf hin, dass man keinen normalen Betrieb laufen lassen kann, in dem die Kunden für einen Service abhängig vom Verbrauch zahlen, wenn die Preise negativ werden. Kurz gesagt, argumentieren sie, das Wachstum der erneuerbaren Energie unterminiert die etablierte  Stromversorgung und ersetzt sie durch etwas weniger Zuverlässiges und viel Teureres.

Strom schwächer

Die Schwäche der europäischen Stromversorger war mit Sicherheit alarmierend. Auf ihrem Höhepunkt waren die obersten 20 Versorger etwa 1 Billion Euro wert. Jetzt sind sie nur noch die Hälfte wert (siehe Graphik 1). Seit September 2008 haben die Energieversorger im Bereich Verluste des Morgan Stanley-Index’ globaler Aktienkurse am schlechtesten abgeschnitten. 2008 hatten die obersten 10 europäischen Einrichtungen alle eine Kreditwürdigkeit von A oder besser. Jetzt ist dies nur noch bei 5 Unternehmen so.

Am weitesten fortgeschritten ist der Verfall in Deutschland, wo Strom aus erneuerbaren Quellen am schnellsten zugenommen hat. Der größte Stromversorger des Landes, E.ON, musste einen Verfall seiner Anteilspreise um drei Viertel seit dem Spitzenwert hinnehmen, und das Einkommen aus der konventionellen Stromerzeugung (fossile Brennstoffe und Kernkraft) fiel seit 2010 um mehr als ein Drittel. Der Umsatz des zweitgrößten Versorgers RWE ist ebenfalls seit 2010 um ein Drittel zurückgegangen. Der Finanzchef des Unternehmens klagt: „Die konventionelle Stromerzeugung kämpft als Geschäftsbereich um ihr ökonomisches Überleben“.

Die Unternehmen wären in jedem Falle in Schwierigkeiten gekommen, egal was mit den Erneuerbaren ist. Während des ersten Jahrzehnts dieses Jahrhunderts haben die europäischen Unternehmen zu viel in die Erzeugungskapazität aus fossilen Brennstoffen investiert, was diese Erzeugung um 16% in Europa als Ganzem verstärkt hat. In einigen Ländern war es noch viel mehr (Spanien z. B. 91%). Der Strommarkt ist aber nicht einmal annähernd um diese Größenordnung gewachsen, selbst in guten Zeiten. Dann hat die Finanzkrise auf die Nachfrage durchgeschlagen. Der International Energy Agency IEA zufolge wird die Gesamtnachfrage in Europa zwischen 2010 und 2015 um 2% abnehmen.

Verschärft wurden diese Probleme durch zwei Einflüsse von außerhalb. Das erste war die Havarie in Fukushima. Dadurch war die Regierung von Angela Merkel in Panik geraten und hat die sofortige Schließung von acht Kernkraftwerken und bis 2022 die Schließung der übrigen 9 in Deutschland verfügt. So abrupt kam diese Änderung, dass sich die Nackenschläge für die Unternehmen verstärkten, obwohl viele dieser Kraftwerke später ohnehin geschlossen werden sollten.

Das andere Problem war der Schiefergas-Boom in Amerika. Dies wirkte sich direkt auf die europäische Kohle aus, die zuvor in Amerika verbrannt worden war, und die Kohlepreise sanken im Vergleich zu den Gaspreisen. Gleichzeitig verfiel der Kohlenstoffpreis, weil es zu viele Zertifikate gab, die die Emission von Kohlenstoff im europäischen Emissions-Zertifikatehandel erlauben würden, und die Rezession führte zu einer geringeren Nachfrage. Das hat die Strafen für die Verbrennung von Kohle reduziert, die Umsatzvorteile von Kohlekraftwerken erhalten und Gaskraftwerke ins Hintertreffen geraten lassen. Gérard Mestrallet, leitender Direktor des größten Stromerzeugers der Welt GDF Suez, sagt, dass 30 GW durch Gas erzeugter Kapazität seit dem Spitzenwert eingestampft worden sind, einschließlich brandneuer Kraftwerke. Die Zunahme der Kohleverbrennung hat die Kohlenstoff-Emissionen in Deutschland während der Jahre 2012 und 2013 steigen lassen, also das Gegenteil dessen erreicht, was beabsichtigt war.

Darum wären die Gas- und Kernkraftanteile der Stromerzeuger selbst vor dem Boom der Erneuerbaren in Schwierigkeiten geraten. Das Wachstum von Wind und Solar hat diesen Vorgang nur verstärkt. Die Kapazität der Erneuerbaren (die viel größer ist als der Output) macht fast die Hälfte der Stromerzeugungs-Kapazität in Deutschland aus; in Spanien und Italien ist es etwa ein Drittel. Die Gesamtkapazität einschließlich der Erneuerbaren liegt weit über der Spitzennachfrage in allen drei Ländern. Daher haben die Erneuerbaren ganz stark zu der Überversorgung beigetragen.

Exzessive Erzeugung plus verringerte Nachfrage gleich niedrigere Preise. Die Strompreise sind von über 80 Euro pro MWh zu Spitzenzeiten im Jahr 2008 in Deutschland auf nur noch 38 Euro pro MWh heute (siehe Graphik 2). Das sind Großhandelspreise. Der Preis für die Haushalte beläuft sich auf 285 Euro pro MWh, ist also einer der höchsten der Welt. Teilweise liegt das daran, dass darin die Subventionen für die Erneuerbaren enthalten sind, die pro Energieeinheit eineinhalb mal so hoch sind als der Strompreis selbst). Mit dem Fallen der Großhandelspreise fiel auch die Rentabilität der Kraftwerke. Bloomberg New Energy Finance (BNEF) zufolge verlieren 30 bis 40% der konventionellen RWE-Kraftwerke Geld.

Aber das ist nur die Hälfte. Die Erneuerbaren haben nicht nur die Strommenge unter Druck gesetzt. Sie haben das etablierte Geschäftsmodell der Versorger transformiert. Direktor Michael Liebreich von BNEF vergleicht es mit den Telefon-Unternehmen in den neunziger Jahren oder heutzutage mit den Zeitungen, die durch das Internet unter Druck geraten: „es ist eine existenzielle Bedrohung!“ sagt er.

Maximale Bestrafung

In den achtziger Jahren war die Stromversorgung eine relative einfache Angelegenheit. Man garantierte eine konstante Stromversorgung auf der Basis von Kohle, Kernkraft (falls gewünscht) oder Wasserkraft (falls verfügbar). Diese Kraftwerke konnte man rund um die Uhr in Volllast betreiben. Aus technischen Gründen lassen sich Kohle- und Kernkraftwerke nicht einfach herunter fahren. Das sorgte für die Grundlastversorgung (die stets benötigte Menge). Um zusätzlichen Strom zu Spitzenlast-Zeiten zu erzeugen (beispielsweise am frühen Abend), hatte man Kraftwerke, die einfacher hoch- und herunter geregelt werden konnten wie z. B. Gaskraftwerke. Stellt man sich eine Verteilung der Stromversorgung über einen Tag vor, sieht es aus wie eine Schichttorte: Die unterste Schicht ist flach (Kernkraft, Kohle usw.), die obere Schicht (Gas) ist gewellt.

Die Liberalisierung des Strommarktes hat dieses einfache, geordnete System hinweg gefegt. Kraftwerke erzeugten Strom nur noch angepasst an den marginalen Strompreis. Das Aufkommen erneuerbarer Energie hat diese Änderungen dann wesentlich beschleunigt. Erneuerbare haben „Netz-Priorität“, das heißt, den so erzeugten Strom muss das Netz bevorzugt aufnehmen. Das ist eine legale Forderung, um die erneuerbare Energie in Europa voranzubringen. Aber sie ist auch logisch: Da die Marginalkosten von Wind und Sonne Null sind, würden die Netze diese Energie ohnehin zuerst aufnehmen. Also kommt die erneuerbare Energie am unteren Ende der Schichttorte ins Spiel. Aber anders als die schon bestehenden Grundlastversorger (Kernkraft und Kohle) sind Wind- und Solarenergie unregelmäßig und ändern sich mit dem Wetter. Dadurch wird die Grundschicht der Schichttorte ebenfalls wellig.

Wenn jetzt die Nachfrage schwankt, könnte es nicht ausreichen, lediglich den Output von Gas-Generatoren zu senken. Einige Kraftwerke müssten vielleicht komplett abgeschaltet und Kohlekraftwerke herunter gefahren werden. Genau das passierte am 16. Juni. Das ist teuer, weil es schwierig ist, Kohlekraftwerke herunter zu regulieren. Das macht die Strompreise volatiler. Und es hat auf die Profite verheerende Auswirtungen.

Unter dem alten System war der Strompreis zu Spitzenlastzeiten auf Spitzenwerte gestiegen (um die Mittagszeit und am frühen Abend). Nachts fiel der Preis mit der sinkenden Nachfrage. Die Unternehmen haben ihr ganzes Geld während der Spitzenlastzeiten verdient. Aber um die Mittagszeit ist die solare Stromerzeugung maximal. Dank der erzwungenen Bevorzugung reißt der Solarstrom ein großes Stück aus diesem Kuchen der Spitzennachfrage, was die Preisspitze eliminiert hat. Dem Fraunhofer-Institut für Solarenergie zufolge hatte der Strompreis im Jahre 2008 während der Spitzenlastzeiten 14 Euro pro MWh über dem Grundlastpreis gelegen. Während der ersten sechs Monate des Jahres 2013 betrug dieser Preisunterschied nur 3 Euro. Fazit: der mittlere Strompreis ist seit 2008 nicht nur um die Hälfte gefallen, sondern die Spitzenlastpreise sind um fast vier Fünftel gesunken. Kein Wunder, dass die Versorger derartig in Schwierigkeiten stecken.

Aber es wird noch schlimmer kommen. Die Kombination von Nachfrage in Europa und Investitionen in China haben die Preise für Solarpaneele seit 2006 um fast zwei Drittel abstürzen lassen (siehe Graphik 3). In Deutschland sind die Kosten für die Erzeugung eines Megawatts Strom mittels Solarpaneele auf 150 Euro gefallen. Das liegt über den Großmarktpreisen, aber unter den festgesetzten Preisen für die Erneuerbaren und unter den Preisen für die Haushalte. Das bedeutet, dass die solare Stromerzeugung selbst dann noch steigen kann, wenn die neue Regierung in Deutschland die Subventionen für Erneuerbare kürzt. Die Herausforderungen für die alten Unternehmen steigen.

Mehr noch, während der letzten paar Jahre haben sich die Versorger abgesichert und zwei Drittel ihres erzeugten Stromes ein bis drei Jahre im Voraus verkauft (d. h. sie bekommen die Preise aus dem Jahr 2010 für heute gelieferte Energie). Das hat sie vor der vollen Auswirkung der jüngsten Preisrückgänge bewahrt. Diese Verträge laufen 2014 oder 2015 aus. Der Direktor von E.ON sagte kürzlich: „Für die Jahre 2013 und 2014 ist keine Erholung in Sicht“.

Bereiche Holz und Wind

Die Versorger sind angesichts dieser Probleme nicht machtlos, und sie werden nicht alle gleich stark betroffen. Die sechs großen britischen Versorger beispielsweise waren geschützt durch langfristige Preisabkommen mit dem Regulator, obwohl ihre Profite mager bleiben.

Einige Versorger sind selbst in das Geschäft mit den Erneuerbaren eingestiegen. Drax, früher das größte Kohlekraftwerk in UK, ist konvertiert worden zur Verbrennung von Holzpellets. Andere Versorger investieren in großem Umfang in Offshore-Windparks.

Aber im Großen und Ganzen waren die großen Versorger sehr zögerlich mit Investitionen. In Deutschland beispielsweise gehören nur 7% der erneuerbaren Kapazität den Stromversorgern. Das Problem liegt darin, dass die Solarenergie sich so total von dem unterscheidet, woran sie gewöhnt sind. Der althergebrachte Versorger besitzt ein großes teures Kraftwerk mit einer Kapazität von 1 bis 1,5 GW. Das Kraftwerk befindet sich in der Mitte eines strahlenförmig nach allen Seiten sich ausbreitenden Netzes. Der Solarstrom unterscheidet sich davon. Photovoltaik-Paneele sind billig, klein (ein solches mittlerer Größe kann eine Kapazität von lediglich 10 MW haben) und in einem Netzwerk angeordnet, nicht als Mittelpunkt eines Rades mit Speichen.

Die Versorger könnten die erneuerbare Energie etwas ernster nehmen, aber im Moment ändert sich kaum etwas. Stattdessen reagieren die Versorger auf ihre Probleme, indem sie sich von der Stromerzeugung verabschieden und in „Downstream“-Aktivitäten [?] einsteigen wie z. B. durch das Anbieten von Beratung der Kunden. Während der letzten Monate hat Vattenfall, der größte Versorger Schwedens, 6% seiner Gewinne abgeschrieben, und drei deutsche Stromriesen, E.ON, RWE und EnBW haben angekündigt, ihre Kapazität um über 15 GW zu kürzen. Am weitesten ist EnBW hinsichtlich der Aussichten für die Zukunft gegangen. Das Unternehmen sagt, dass der Verdienst aus der Stromerzeugung von 2012 bis 2020 um 80% zurückgehen wird, abgesetzt von höheren Verdiensten durch Energie-Serviceleistungen und Erneuerbare. „Wir müssen überdenken, welche Rolle wir spielen und welchen Platz wir im Sektor Energie einnehmen“, sagt der Boss Frank Mastiaux.

Saubere Trennung

Für die Unternehmen sind die Änderungen und abstürzende Anteilspreise offensichtlich besorglich. Aber sollte sich sonst noch jemand darum kümmern? Amory Lovins vom Rocky Mountains Institute, einer amerikanischen Denkfabrik, sagt: „In Deutschland hat sich ein Geschäftsfeld mit Low-Carbon-Energie gebildet, und zwar bis zu einem Punkt, an dem der weitere Zubau von Solarenergie wenige Subventionen braucht; an dem Großmarktpreise fallen und die Bedrohung für die Verlässlichkeit des Netzes bisher nicht materialisiert haben“. Wo also liegt das Problem?

Da gibt es viele verschiedene Antworten. Erstens mussten die Versorger massive Verluste bei der Bewertung der Gewinne hinnehmen. Ihr Marktkapital ist innerhalb von fünf Jahren um 500 Milliarden Euro gesunken. Das ist mehr als die europäischen Bankanteile im gleichen Zeitraum verloren haben. Diese Verluste spielen unmittelbar eine Rolle. Für Pensionsfonds und andere Investitionen repräsentieren sie verlorenes Kapital und geringere Verdienste in der Zukunft. Für Beschäftigte bedeuten sie geringere Löhne und Arbeitsplatzverluste. Die Verluste – von denen viele dem Boom der erneuerbaren Energie vorausgegangen waren – addierten sich zu den gewaltigen Summen, die die Europäer auch für die Politik hinsichtlich der Klimaänderung ausgeben. Die Subventionen für erneuerbare Energie bewegen sich um 16 Milliarden Euro pro Jahr in Deutschland (Tendenz steigend); die kumulativen Kosten betragen etwa 60 Milliarden Euro.

Als nächstens haben die Versorger ihre Rolle als Investoren verloren. Einst waren sie gleichmäßig in Betrieb, zuverlässig und resistent gegen Inflation, die Schatzkammer der USA der Kapitalmärkte. Pensionskassen brauchen dieses Kapital, um ihre langfristigen Verpflichtungen auszubalancieren. Aber die Versorger spielen diese Rolle nicht mehr, was nicht nur die kollabierenden Anteilspreise zeigen, sondern auch die Politik bzgl. Dividenden. Bis zum Jahr 2008 folgten die Gewinne von RWE und E.ON den deutschen 10-Jahres-Bonds. Seitdem sind sie auf etwa 10% gestiegen, während die Gewinne der Regierungs-Bonds gleich geblieben sind. Erneuerbare sind nicht die einzigen riskanten Investitionen.

Am wichtigsten ist aber, dass das abwärts gerichtete Schicksal der Versorger verstörende Fragen aufwirft über die Zukunft des Stromsystems in Europa. Vereinfacht gesagt: Die europäischen Staaten fügen allmählich ein System zusammen, in dem es immer mehr Low-Carbon- und schwankende Energiequellen gibt; mehr Energieversorger, mehr moderne Kraftwerke und mehr Energie, die über Grenzen hinweg gehandelt wird. All dies wird zusammengehalten durch „Smart Grids“, die den Verbrauchern sagen, wie viel Energie sie verbrauchen, die Geräte abschalten, wenn sie nicht gebraucht werden und die Nachfrage effizienter gestalten.

In einer solchen Welt spielen die althergebrachten Versorger zwei vitale Rollen. Sie sind einmal die Stromerzeuger, wenn alle Stricke reißen und stellen sicher, dass die Lichter nicht ausgehen, wenn der Wind nicht weht und die Sonne nicht scheint. Und sie werden Investoren sein, wenn es um den Bau eines ganz neuen Netzes geht. Es ist nicht klar, ob die Lage der Versorger gut genug ist, auch nur eine solche Rolle wahrzunehmen.

Bislang haben sie es vermocht, Backup-Strom zur Verfügung zu stellen, und das Netz ist nicht zusammengebrochen, selbst im sonnen- und windverrückten Deutschland [!]. Tatsächlich ist das deutsche Netz zuverlässiger als die meisten anderen (die Länder führen einen Zuverlässigkeits-Index: Deutschland liegt in Europa mit an vorderster Stelle). Die Grünen weisen daher Bedenken zurück, dass die Erneuerbaren die Stabilität des Netzes unterminieren. Sie verweisen darauf, dass es in einem Netz von Wind- und Solarparks über ganz Europa immer irgendwo Gebiete gibt, in denen es windig oder sonnig genug ist, sie zu betreiben, zumindest tagsüber.

Vielleicht. Aber wie die Preissprünge in Deutschland zeigen, wird es immer schwieriger, die Netzstabilität zu gewährleisten. Die Versorger werden nicht dafür belohnt, die variable Natur von Wind und Solar auszugleichen. Und dies passiert zu einer Zeit, in der die erneuerbare Energie im Mittel etwa 22% der Energienachfrage in Deutschland deckt. Niemand weiß wirklich, was passiert, wenn Erneuerbare einen Marktanteil von 35% erreichen,  was das erklärte Ziel der Regierung bis zum Jahr 2020 ist, geschweige denn bei einem angestrebten Anteil von 80% im Jahr 2050. Fast jeder räumt ein, dass sich bei steigendem Anteil der Erneuerbaren die Regulierung des Netzes ändern muss.

Die Rolle der Versorger als Investoren ist ebenfalls bedroht. Die erforderlichen Summen, um das Netz aufzubereiten, sind gewaltig und betragen bis zu 1 Billion Euro bis zum Jahr 2020. Unternehmen mit einem Wert von 500 Milliarden Euro können so etwas nicht einmal ansatzweise finanzieren. Stattdessen kürzen sie ihre Kapitalausgaben. Bei RWE beispielsweise sind sie seit 2011 von 6,4 Milliarden Euro auf 5 Milliarden Euro gefallen. Davon gehen 1,6 Milliarden in die Wartung existierender Kraftwerke, was etwa 1 Milliarde Euro für die Entwicklung übrig lässt – die Hälfte des gegenwärtigen Niveaus. In ihrem jetzigen Zustand können die Versorger das saubere Energiesystem, auf das Europa hofft, nicht finanzieren.

Und das hat Auswirkungen auf die Zukunft. Um den Investitionsausfall durch die Versorger auszugleichen, müssen die Regierungen Andere überreden einzuspringen, wie z. B. Pensionfonds oder Wohlstandsfonds [pension funds or sovereign-wealth funds]. Aber diese Einrichtungen haben schon durch das Halten von Anteilen der Versorger indirekt in Energie investiert und nicht direkt. Und das aus gutem Grund: Sie mögen nicht die politischen Risiken des Besitzes von Projekten, in denen die Regierungen eine Rolle spielen, weder durch Planung noch durch das Festsetzen von Preisen. In einigen Ländern gibt es auch Gesetze gegen das Erwirtschaften von Umsätzen, sowohl stromaufwärts (Erzeuger) als auch stromabwärts (Verteilung.)

Während der letzten 30 Jahre haben die europäischen Regierungen versucht, die Energiemärkte zu deregulieren. Sie haben staatseigene Unternehmen privatisiert und die Stromerzeugung aufgeteilt nach Übermittlung und Verteilung. Ziele waren zunehmender Wettbewerb, Effizienzsteigerungen und Preisabschläge.

Diese Ziele werden immer schwerer zu erreichen sein. Erneuerbare Energie hat sich einen wachsenden Anteil des Marktes gegriffen, hat die Großhandelspreise gedrückt und war erfolgreich hinsichtlich der Verbilligung von neuen Technologien. Aber die Kosten für die Subventionen waren ebenfalls sehr hoch, die erwünschten Umweltauswirkungen nicht existent und der Schaden für die Versorger viel größer als erwartet. Europa im Allgemeinen und Deutschland im Besonderen sehen sich selbst als Pioniere von Low-Carbon-Energie. Wenn sie das wirklich sind, müssen sie ein deutlich besseres Stromsystem schaffen, dass sich die Low-Carbon-Energie auszahlt ohne Verringerung der Zuverlässigkeit und ohne Entstehung übermäßiger und unnötiger Kosten.

[Leider lässt sich der Autor oder die Autorin nicht darüber aus, wie das gehen soll. A. d. Übers.]

Link: http://www.economist.com/news/briefing/21587782-europes-electricity-providers-face-existential-threat-how-lose-half-trillion-euros

Übersetzt von Chris Frey EIKE




So sieht der wahre Zustand des Klimas aus: NIPCC – Summary for Policymakers

Außerdem ist festzustellen, dass keiner der Autoren im NIPCC auch nur einen Cent an staatlicher Zuwendung erhalten hat! Intensive und ergebnisoffene Forschung wurde hier strikt ehrenamtlich betrieben.

Das ganze Dokument kann mit dem Link unten aufgerufen werden. Dort stehen alle Belege und Nachweise für die hier übersetzten Fakten. Aus Zeitgründen kann das gesamte Dokument aber nicht komplett übersetzt werden.

Chris Frey

Aufbau: Die NIPCC-SPM enthält eine Einführung (Introduction) sowie 5 Kapitel und ‚Conclusions’. Die 5 Kapitel tragen die Titel:

1.Methodology (Methodik)

2.Global Climate Models

3.Postulates (Forderungen)

4.Circumstancial Evidence

5.Policy Recommendations (Empfehlungen an die Politik)

Conclusions

In den Kapiteln werden jeweils zentrale Aussagen des IPCC Punkt für Punkt widerlegt. Am Ende eines jeden Kapitels findet sich eine Zusammenfassung von wenigen Zeilen. Diese Zusammenfassungen werden hier übersetzt. Außerdem gibt es 10 Kästen, in denen die zentralen Aussagen des NIPCC-Berichtes nach Themen sortiert  rekapituliert werden. Die Kästen 1 und 3 sowie 5 bis 10 werden übersetzt, ebenso wie die ‚Conclusions’. Sie ergänzen sich natürlich mit den Zusammenfassungen am Ende der einzelnen Kapitel. Ich gehe davon aus, dass jede einzelne Aussage kreuzweise belegt ist, im Gegensatz zu den frisierten IPCC-Unterlagen, so dass ich auf die Übersetzung dieser Erläuterungen hier verzichte. Der Link zum Dokument ist unten angegeben.

Und noch eine Anmerkung: Im gesamten Text wird die korrekte Schreibweise CO2 beibehalten. Im Editor der EIKE-Website lässt sich diese Tiefstellung jedoch nicht darstellen.

Hier also zunächst der Inhalt der Kästen.

Kasten 1: Zusammenfassung der Ergebnisse vom NIPCC

● Das atmosphärische Kohlendioxid (CO2) ist ein mildes Treibhausgas, dessen Wärmewirkung mit steigender Konzentration immer weiter abnimmt.

● Eine Verdoppelung der atmosphärischen CO2-Konzentration verglichen mit dem vorindustriellen Niveau würde unter Ausblendung anderer Antriebe und Rückkopplungen wahrscheinlich eine Erwärmung zwischen 0,3°C und 1,1°C verursachen, wovon fast 50% bereits eingetreten sind.

● Wenige Zehntelgrad zusätzlicher Erwärmung würden, so sie wirklich eintritt, nicht zu einer Klimakrise führen.

● Die Modellergebnisse in den seit 1990 veröffentlichten IPCC-Berichten projizieren bei einer Verdoppelung des CO2-Gehaltes eine Erwärmung bis zu 6°C bis zum Jahr 2100. Stattdessen hat sich die Erwärmung zum Ende des 20. Jahrhunderts abgeschwächt, gefolgt (ab 1997) von 16 Jahren mit stabilem Temperaturverlauf.

● In letzter geologischer Zeit hat die Temperatur der Erde aus natürlichen Gründen zwischen +4°C und -6°C Abweichung variiert, verglichen mit der Temperatur im 20. Jahrhundert. Eine Erwärmung um 2°C über die heutigen Werte, so sie wirklich eintritt, würde noch deutlich innerhalb der natürlichen Bandbreite liegen.

● Obwohl eine zukünftige Erwärmung von 2°C abhängig von der geographischen Breite ökologische Auswirkungen hätte, gibt es keine Beweise, dass diese Änderungen im Ganzen schädlich für die globale Umwelt oder das menschliche Wohlergehen sind.

● Mit dem gegenwärtigen Gehalt von rund 400 ppm leben wir immer noch in einer nach CO2 hungernden Welt. Während des Kambriums vor etwa 550 Millionen Jahren) war der Gehalt etwa 15 mal höher, ohne dass nachteilige Auswirkungen bekannt sind.

● Alles in allem korrespondiert die Erwärmung seit 1860 mit der Erholung aus der Kleinen Eiszeit. Sie wurde verursacht von natürlichen multidekadischen Zyklen, angetrieben durch Oszillationen zwischen Ozean und Atmosphäre oder auch durch solare Variationen wie dem de Vries-Zyklus (ca. 208 Jahre) und dem Gleissberg-Zyklus (ca. 80 Jahre) sowie kürzeren Periodizitäten.

● Die Erde hat sich während der letzten 60 Jahre nicht signifikant erwärmt trotz einer Zunahme des atmosphärischen CO2 um 8%, was 34% allen zusätzlichen CO2 repräsentiert, die seit dem Beginn der industriellen Revolution in die Atmosphäre gelangt sind.

● CO2 ist ein unabdingbar notwendiger Nährstoff für die Photosynthese der Pflanzen. Eine zunehmende CO2-Konzentration in der Atmosphäre lässt den Planeten „ergrünen“ und hilft, die wachsende menschliche Bevölkerung zu ernähren.

● Es gibt keine enge Korrelation zwischen der Temperatur-Variation der letzten 150 Jahre und mit dem Menschen in Verbindung stehenden CO2-Emissionen. Der parallele Verlauf von Temperatur und CO2 zwischen etwa 1980 und 2000 könnte Zufall sein und enthält nicht unbedingt Kausalität.

● Die Gründe für historische globale Erwärmungen bleiben ungewiss, aber es gibt signifikante Korrelationen zwischen Verhaltensmustern des Klimas und multidekadischen Variationen sowie der Sonnenaktivität während der letzten paar hundert Jahre.

● Projektionen der künftigen Entwicklung der Sonnenaktivität lassen während der kommenden Jahrzehnte eher eine globale Abkühlung als eine Erwärmung erwarten, trotz weiterer CO2-Emissionen.

Quelle: „Executive Summary“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 3: Schlüsselfakten über Temperatur-Antriebe und Rückkopplungen

● Eine Verdoppelung des CO2-Gehaltes seit dem vorindustriellen Niveau (von 280 auf 560 ppm) würde wahrscheinlich einen Temperatur-Antrieb von 3,7 W/m² in der unteren Atmosphäre bringen, was etwa 1°C Erwärmung bedeutet.

● Die IPCC-Modelle betonen die Bedeutung der positiven Rückkopplung des zunehmenden Wasserdampfes und projizieren deshalb eine Erwärmung von etwa 3°C bis 6°C, während empirische Daten eine Größenordnung weniger zeigen, nämlich etwa 0,3°C bis 1,0°C.

● In Eisbohrkernen zeigt sich, dass Temperaturänderungen parallelen Änderungen des CO2-Gehaltes viele hundert Jahre voraus laufen. Sie zeigen auch, dass Temperatur und CO2 in langen Zeiträumen historischer und geologischer Aufzeichnungen nicht miteinander gekoppelt sind. Daher kann das CO2 nicht der Haupttreiber für die meisten Temperaturänderungen sein.

● Der atmosphärische Methan-Gehalt (CH4) fällt während der letzten beiden Jahrzehnte deutlich unter die in den IPCC-Berichten projizierten Werte. Diese viel zu hohen Schätzungen des Methangehaltes fließen in die IPCC-Temperaturprojektionen ein und müssen daher nach unten korrigiert werden.

● Der auftauende Permafrost oder untermeerische Gashydrate werden wahrscheinlich keine gefährlichen Mengen von Methan freisetzen, jedenfalls nicht bei der gegenwärtigen Erwärmungsrate.

● Es wird erwartet, dass die Stickstoffoxid-Emissionen (N2O) fallen, wenn der CO2-Gehalt und die Temperatur steigen, was bedeutet, dass sie als negative Rückkopplung fungieren.

● Andere negative Rückkopplungen der Klimasensitivität werden durch das IPCC entweder außen vor gelassen oder unterschätzt. Darunter ist die Zunahme tiefer Bewölkung als Folge des gestiegenen Wasserdampfgehaltes, eine steigende Aufnahme von Dimethylsulfid (DMS) seitens der Ozeane und das Vorhandensein und der Gesamt-Abkühlungseffekt durch sowohl natürliche als auch industrielle Aerosole.

Quelle: „Cahpter 2. Forcings and Feedbacks“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 5: Schlüsselfakten im Vergleich zu globalen Klimamodellen

● Klimamodelle haben während der letzten 15 Jahre eine atmosphärische Erwärmung um 0,3°C simuliert. Tatsächlich war die Temperatur gleich geblieben, oder es hat sich sogar etwas abgekühlt.

● Klimamodelle haben eine Erwärmung der Ozeane um 0,2°C simuliert, tatsächlich wurde keinerlei Erwärmung beobachtet.

● Klimamodelle haben das Auftauchen eines hochtroposphärischen Hot Spots über den Tropen simuliert; ein solcher ist bis heute nicht gefunden worden.

● Klimamodelle haben projiziert, dass die Erwärmung zum Ende des vorigen Jahrhunderts an beiden Polen stattgefunden haben sollte, in Wirklichkeit konzentrierte sich die Erwärmung nur auf arktische Gebiete.

● Klimamodelle berechnen allgemein eine Klimasensitivität von 3°C bei einer Verdoppelung des CO2-Gehaltes verglichen mit dem vorindustriellen Niveau. Meteorologischen Beobachtungen zufolge beträgt diese Sensitivität aber nur 1°C oder weniger.

● Die Klimamodelle unterschätzen die Verdunstung an der Erdoberfläche infolge der gestiegenen Temperatur um den Faktor 3, was in der Konsequenz zu einer Unterschätzung des globalen Niederschlags führt.

● Die Klimamodelle repräsentieren durch Aerosole veränderte Infrarotstrahlung nicht angemessen, obwohl Studien zeigen, dass verschiedene Mineral-Aerosole (bei gleicher Konzentration) Unterschiede im bodennahen IR-Fluss zwischen 7 und 25 W/m² zeitigen können.

● Deterministische Klimamodelle haben inhärente Eigenschaften, die eine dynamische Vorhersagbarkeit unmöglich machen. Die Einführung von Methoden, um dem zu begegnen (vor allem Parameterisierung) bringt einen Bias in die Modellprojektionen.

● Grenzen der Rechenmöglichkeiten von Computern verhindern, dass die Klimamodelle wichtige Klimaprozesse auflösen; Modelle mit geringer Auflösung können viele wichtige regionale und niedriger skalige Phänomene wie beispielsweise Wolken nicht erfassen.

● Die Kalibrierung der Modelle ist fehlerhaft, nehmen sie doch an, dass der gesamte Temperaturanstieg seit Beginn der industriellen Revolution ausschließlich durch menschliche CO2-Emissionen verursacht wurde. In Wirklichkeit begannen menschliche Emissionen erst Mitte des 20. Jahrhunderts.

● Nichtlineare Klimamodelle zeigen ein chaotisches Verhalten. Als Folge zeigen verschiedene Modellläufe unterschiedliche Trendwerte.

● Interne Klima-Oszillationen (AMO, PDO usw.) sind wesentliche Faktoren in historischen Temperaturreihen. Die Klimamodelle versuchen nicht einmal, diese zu simulieren.

● Genauso gehen in die Klimamodelle nicht die Auswirkungen ein durch Veränderungen des solaren Magnetfeldes oder kosmischer Strahlen. Von beiden weiß man, dass sie das Klima signifikant beeinflussen.

Quelle: „Chapter 1. Global Climate Models and Their Limitations“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 6: Schlüsselfakten zur Temperatur an der Erdoberfläche

● Ob die heutige Temperatur als Teil eines Erwärmungstrends gesehen werden kann, hängt von der betrachteten Zeitperiode ab.

● Im (Klima-)Zeitscale von mehreren tausend Jahren zeigt die Temperatur Abkühlung; im historischen (meteorologischen) Zeitscale im vorigen Jahrhundert Erwärmung. Während der letzten 16 Jahre gab es keine Erwärmung trotz einer Zunahme des atmosphärischen CO2-Gehaltes um 8% – das repräsentiert 34% der mit dem Menschen in Verbindung stehenden CO2-Emissionen seit der industriellen Revolution.

● Setzt man eine atmosphärische Durchmischung von etwa einem Jahr an, kann man mit den soeben erwähnten Fakten die Hypothese einer gefährlichen Erwärmung testen. Diesen Test hat sie nicht bestanden.

● Den vom IPCC bevorzugten HadCRUT-Daten zufolge war es im 20. Jahrhundert zu zwei Phasen mit Erwärmung gekommen, nämlich zwischen 1910 und 1940 sowie zwischen 1979 bis 2000, und zwar mit etwa den gleichen Raten von jeweils 1,5°C pro Jahrhundert. Die Erwärmung Anfang des 20. Jahrhunderts ging wesentlichen industriellen CO2-Emissionen voraus und muss natürlichen Ursprungs sein. Die Erwärmung in der zweiten Periode könnte eine kleine Auswirkung menschlicher CO2-Emissionen sein, aber die Erwärmung kann auch auf den Wärmeinseleffekt zurückgehen.

● Andere Temperatur-Datensätze zeigen die Erwärmung im HadCRUT-Datensatz zum Ende des vorigen Jahrhunderts nicht.

● Es war nichts Ungewöhnliches an der nur im HadCRUT-Datensatz erkennbaren Erwärmung zum Ende des vorigen Jahrhunderts, weder hinsichtlich der Größenordnung noch der Rate. Beides liegt deutlich innerhalb bekannter, natürlicher Variationen, die auch zuvor schon aufgetreten waren.

● Es gibt keine empirischen Beweise, die die Hypothese stützen, dass eine planetarische Erwärmung um 2°C insgesamt ökologisch oder ökonomisch schädlich wäre.

Quelle: Chapter 4. „Observations: Temperatures“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 7: Schlüsselfakten über den solaren Antrieb

● Es gibt immer mehr Beweise dafür, dass Änderungen der Temperatur auf der Erde zum allergrößten Teil durch Variationen der Sonnenaktivität angetrieben werden. Beispiele von durch die Sonnenaktivität bestimmte Klimaepochen sind u. A. die Mittelalterliche Warmzeit, die Kleine Eiszeit und die Warmzeit des frühen 20. Jahrhunderts (1910 bis 1940).

● Die Sonne kann bis zu 66% zur Erwärmung im 20. Jahrhundert beigetragen haben, vielleicht sogar noch mehr.

● Berichte über starke empirische Korrelationen zwischen der solaren Variabilität und Klimaindizes einschließlich Temperatur, Niederschlag, Dürren, Überschwemmungen, Sturmfluten und Monsune kamen aus der ganzen Welt.

● Die IPCC-Modelle enthalten nicht wichtige solare Faktoren wie Fluktuationen der magnetischen Feldstärke, und sie überschätzen den Antrieb durch anthropogenes CO2.

● Das IPCC berücksichtigt nicht die Bedeutung der gezeigten empirischen Beziehungen zwischen Sonnenaktivität, dem Einfall galaktischer kosmischer Strahlen und der Bildung tiefer Wolken.

● Die jeweilige Bedeutung der Sonne und von CO2 als Antriebe des globalen Klimas bleiben ungelöst; die jetzigen Klimamodelle lassen eine Fülle von bekannten Verbindungen zwischen Sonne und Klima außen vor.

● Die seit einiger Zeit sehr ruhige Sonne und die Extrapolation solarer Zyklen in die Zukunft zeigen, dass es während der nächsten Jahrzehnte zu einer planetarischen Abkühlung kommen könnte.

Quelle: Chapter 3. Solar Forcing of Climate”, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 8: Schlüsselfaktoren zur Cryosphäre

● Mittels Satelliten und durch Luftüberwachung gewonnene Datensätze zur Quantifizierung des globalen Eishaushaltes sind kurz, und die Methoden stecken noch in den Kinderschuhen. Die Ergebnisse bis heute zeigen aber, dass sich die Eisverhältnisse sowohl in Grönland als auch in der Antarktis im Gleichgewicht befinden.

● Eisbohrkerne aus Grönland und der Antarktis zeigen, dass es zu Klimaänderungen sowohl in grundlegenden Eiszeiten/Zwischeneiszeiten gekommen war als auch zu kürzeren Ereignissen im Zeitraum von Jahrzehnten und Jahrhunderten mit starken Raten von Erwärmung und Abkühlung einschließlich abrupter Temperaturänderungen.

● Beobachtete Änderungen hinsichtlich Temperatur, Schneefall, Geschwindigkeit des Eisflusses sowie Kalben von Gletschern sowohl in Grönland als auch in der Antarktis scheinen innerhalb der Grenzen natürlicher Klimavariationen zu liegen.

● Die globale Eisbedeckung bleibt in der Fläche in etwa gleich seit Beginn von Satellitenbeobachtungen im Jahre 1979, wobei die Eisabnahme im Arktischen Ozean durch Eiswachstum um die Antarktis kompensiert wird.

● Während der letzten 25 000 Jahre (spätes Pleistozän und Holozän) zeigten die Gletscher in der ganzen Welt starke Fluktuationen, weitgehend in Übereinstimmung mit dem sich ändernden Klima. Dabei hatten sie sich zeitweise auf Positionen hinter ihrer heutigen Ausdehnung zurück gezogen.

● Trotz dieser Tatsache zeigen die Gebirgsgletscher der Welt eine große Vielfalt von Reaktionen auf lokale Klimavariationen. Sie reagieren auf die Temperaturänderung nicht in einfacher, gleichförmiger Weise.

● Tropische Gebirgsgletscher sowohl in Afrika als auch in Südamerika haben sich während der letzten 100 Jahre zurückgezogen, und zwar infolge geringerer Niederschläge und gesteigerter Sonnenstrahlung; aber auch anderswo haben sich die Gletscher seit dem Ende der Kleinen Eiszeit zurückgezogen.

● Die Daten zur globalen Geschichte der Eisverhältnisse und die Eismassenbilanz stützen nicht die IPCC-Behauptungen, denen zufolge CO2-Emissionen die Hauptursache für Gletscherrückzüge der heutigen Zeit sind.

Quelle: Chapter 5. „Observations: The Cryosphere“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 9: Schlüsselfaktoren zur Hydrosphäre

Ozeane

● Die Kenntnis lokaler Änderungen des Meeresspiegels ist unabdingbar für das küstennahe Management; derartige Änderungen ereignen sich mit sehr stark variierenden Raten in der ganzen Welt, typischerweise zwischen +5 und -5 mm pro Jahr.

● Der globale Meeresspiegel, dessen Kenntnis nur begrenzt für das küstennahe Management genutzt werden kann, ist während des vorigen Jahrhunderts zwischen 1 und 2 mm pro Jahr gestiegen.

● Satelliten-Fernerkundungen der Änderungen des Meeresspiegels zeigen seit 1993 eine globale Anstiegsrate über 3 mm pro Jahr, aber wegen des komplizierten Prozesses und des Anfangsstadiums der verwendeten Methoden ist dieses Ergebnis als nicht sicher anzusehen.

● Raten der globalen Änderung des Meeresspiegels variieren in dekadischem und multidekadischem Maßstab und zeigen in jüngster Zeit weder eine Beschleunigung noch irgendeine andere simple Verbindung mit zunehmenden CO2-Emissionen.

● Die Korallenatolle im Pazifik versinken nicht im Meer; vielmehr sind die Küstenlinien der Atolle direkten Wetter- und seltenen Hochwasserereignissen ausgesetzt. Außerdem durch Änderungen des Meeresspiegels infolge von ENSO und Auswirkungen der zunehmenden menschlichen Besiedlung.

● Ein zusätzlicher Anstieg infolge Wärmeausdehnung ist ebenfalls unwahrscheinlich, zeigt doch das Netzwerk von ARGO-Bojen keine signifikante Erwärmung des Ozeans während der letzten 9 Jahre (Knox und Douglass 2010).

● Obwohl die ganze Bandbreite natürlicher Variationen noch nicht vollständig bekannt ist, fehlt jeder Beweis für Änderungen der globalen Ozeanzirkulation in letzter Zeit, die außerhalb der natürlichen Variation liegen oder durch menschliche CO2-Emissionen ausgelöst worden sind.

Monsun, Dürren und Überschwemmungen

● Es gibt kaum Beweise für eine Zunahme der globalen Niederschlagsmenge insgesamt während des 20. Jahrhunderts, unabhängig von multidekadischen natürlichen Klimarhythmen.

● Monsunregenfälle sind zum Ende des 20. Jahrhunderts nicht variabler oder intensiver geworden; stattdessen reagiert die Niederschlagsmenge hauptsächlich auf Änderungen der Sonnenaktivität.

● Der südamerikanische und der indische Monsun waren während der kalten Kleinen Eiszeit stärker ausgeprägt und schwächer während der Mittelalterlichen Warmperiode. Weder globale noch lokale Änderungen zeigen einen Zusammenhang mit CO2-Emissionen.

● Die Beziehung zwischen Dürre und globaler Erwärmung ist schwach, da es sowohl in der Mittelalterlichen Warmzeit als auch in der Kleinen Eiszeit zu ausgeprägten Dürren gekommen war.

Quelle: Chapter 6 „Observations: The Hydrosphere“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Kasten 10: Schlüsselfakten zu Extremwetterereignissen

● In allen Zeitmaßstäben nimmt die Variabilität der Temperatur ab, wenn die mittlere Lufttemperatur steigt.

● Daher ist die Behauptung, dass die globale Erwärmung vermehrt zu Extremen hinsichtlich Wetter und Klima einschließlich der Temperatur selbst führen werde, theoretisch ohne Grundlage und wird auch durch empirische Beweise nicht gestützt.

● Obwohl es in einigen Gebieten zu signifikanten Änderungen der Intensität oder der Anzahl von Extremwetterereignissen im 20. Jahrhundert gekommen war, existiert für den Globus als Ganzes während der letzten 100 Jahre keine Relation zwischen derartigen Ereignissen und der globalen Erwärmung.

● Beobachtungen aus der ganzen Welt zeigen, dass Dürren nicht extremer oder erratischer als Folge der globalen Erwärmung geworden sind. In den meisten Fällen waren die schlimmsten Dürren in der durch Aufzeichnungen belegten meteorologischen Geschichte viel milder verlaufen als Dürren, zu denen es periodisch in Kaltzeiten gekommen war.

● Es gibt wenige oder gar keine Beweise dafür, dass Niederschläge in einer sich erwärmenden Welt variabler und intensiver werden; tatsächlich zeigen einige Beobachtungen das genaue Gegenteil.

● Es gab während der modernen Zeit keine Zunahme von Stürmen, weder nach Häufigkeit noch nach Intensität.

● Trotz der vermeintlich „beispiellosen“ Erwärmung des 20. Jahrhunderts gab es keine Zunahme tropischer Zyklone, weder hinsichtlich Intensität noch Häufigkeit, weder global noch konzentriert auf einzelne Ozeangebiete.

● Die allgemein verbreitete Auffassung, dass die Erwärmung des 20. Jahrhunderts begleitet war von einer Zunahme von Extremwetterereignissen ist eine Folge exzessiver Berichterstattung in den Medien und hat hinsichtlich der Fakten keine Grundlage (Khandekar 2013).

Quelle: Chapter 7 Obersavtions: Extreme Weather“, Climate Change Reconsidered II: Physical Science (Chicago, IL: The Heartland Institute, 2013)

Und hier die Zusammenfassungen:

Kapitel 2: Global Climate Models:

Wir kommen zu dem Ergebnis, dass die gegenwärtige Generation der globalen Klimamodelle (GCMs) nicht in der Lage ist, genaue Projektionen des Klimas auch nur für 10 Jahre im Voraus zu erstellen, geschweige denn für einen Zeitraum von 100 Jahren in der Zukunft, der von den politischen Planern übernommen worden ist. Das Output derartiger Modelle sollte daher nicht verwendet werden, um die Politik anzuleiten, bis sie validiert worden sind und gezeigt haben, dass sie prognostisch von praktischem Nutzen sind.

Kapitel 3: Postulates (Forderungen):

Wir kommen zu dem Ergebnis, dass weder die Rate noch die Größenordnung der Erwärmung zum Ende des 20. Jahrhunderts (1979 bis 2000) außerhalb der natürlichen Variabilität liegt. Auch war sie in keiner Weise ungewöhnlich im Vergleich zu früheren Epochen der Klimahistorie der Erde. Außerdem sind die solaren Antriebe wahrscheinlich viel wichtiger als gegenwärtig erkannt, und es fehlt jeder Beweis, dass eine Temperaturzunahme um 2°C (aus welchen Gründen auch immer) schädlich für den Planeten wäre.

Kapitel 4: Circumstantial Evidence (Detaillierte Beweise):

Wir kommen zu dem Ergebnis, dass es keinen eindeutigen Beweis gibt, dass es in der Umwelt zu nachteiligen Entwicklungen kommt durch die anthropogenen CO2-Emissionen. Insbesondere die Cryosphäre schmilzt nicht beschleunigt; der Anstieg des Meeresspiegels beschleunigt sich nicht. Es sind keine systematischen Änderungen hinsichtlich Verdunstung oder Regenmenge dokumentiert worden, auch nicht hinsichtlich der Größenordnung und der Intensität extremer meteorologischer Ereignisse. Die zunehmende Freisetzung von Methan in die Atmosphäre aus dem Permafrost oder untermeerischen Gashydraten ist unwahrscheinlich.

Kapitel 5: Policy Recommendations (Empfehlungen für die Politik):

Hier wird allgemein wiederholt, dass Klimawandel schon immer stattgefunden hat, dass nichts an der gegenwärtigen Lage ungewöhnlich oder noch nie da gewesen ist, und vor allem, dass sich die Politiker endlich aus unabhängigen Quellen informieren sollen, bevor sie Maßnahmen von einer Tragweite beschließen und einführen, wie es derzeit der Fall ist. Auf die Übersetzung im Einzelnen wird hier verzichtet.

Das letzte Kapitel in diesem Bericht mit dem Titel Conclusions wird hier wieder vollständig übersetzt:

Conclusions

Nur sehr wenige Wissenschaftler bestreiten, dass menschliche Aktivitäten einen  Einfluss auf das lokale Klima haben können oder dass die Summe solcher lokalen Auswirkungen hypothetisch zu einem beobachtbaren globalen Signal werden kann. Die Schlüsselfragen jedoch, die beantwortet werden müssen, lauten, ob das menschliche globale Signal groß genug ist, um gemessen werden zu können, und falls ja, stellt dieses Signal eine gefährliche Änderung außerhalb der bandbreite der natürlichen Variabilität dar, oder wird es dies in Zukunft tun?

Die Antwort des NIPCC, abgeleitet aus der umfassenden Begutachtung der wissenschaftlichen Beweise, lautet, dass jedwedes menschliches Klimasignal so klein ist, dass es innerhalb der Bandbreite der natürlichen Variabilität liegt und nicht gefährlich ist. Gleichzeitig ändert sich die globale Temperatur, wie sie es aus natürlichen Gründen schon immer getan hat. Eine Phase des Temperaturstillstands oder einer leichten Abkühlung hat die moderate Erwärmung des 20. Jahrhunderts abgelöst. Mit Sicherheit wird es weiterhin zu derartigen natürlichen Klimaänderungen kommen.

Angesichts dieser Tatsachen wäre die umsichtigste Klimapolitik, sich auf extreme Klimaereignisse vorzubereiten oder sich an diese anzupassen, unabhängig von den Gründen. Angemessene Planungen für gefährliche Klimaereignisse und –änderungen in der Zukunft sollten sofort stattfinden, um Antworten auf die [Auswirkungen] bekannten Raten, Größenordnungen und Risiken natürlicher Änderungen zu finden. Gibt es solche Pläne erst einmal, stellen sie auch eine Grundlage für jedwede anthropogene Klimaänderung dar, ob diese nun eintritt oder nicht.

Politische Entscheidungsträger sollten dem Druck von Lobbygruppen widerstehen, die Wissenschaftler zum Schweigen bringen, die die Autorität des IPCC in Frage stellen sowie dessen Behauptung, für die „Klimawissenschaft“ zu sprechen. Climate Change Reconsidered II: Physical Science enthüllt eine wissenschaftliche Gemeinschaft, die zutiefst verunsichert ist hinsichtlich der Zuverlässigkeit der IPCC-Computermodelle, dessen Forderungen und seiner Interpretation der Beweise. Diese Kritik stammt nicht von einer „Randgruppe“ der Gemeinschaft der Klimawissenschaftler: Sie wird direkt und wiederholt in tausenden Artikeln der begutachteten Literatur geübt.

Der berühmte britische Biologe Conrad Waddington schrieb im Jahre 1941:

Es ist … wichtig, dass Wissenschaftler darauf vorbereitet sind, dass sich ihre Lieblingstheorien als falsch herausstellen. Wissenschaft als Ganzes kann niemals zulassen, dass die Beurteilungen der Fakten durch Ideologie verzerrt werden können, die festlegt, was zu stimmen hat und was nicht; oder was man hofft, das zutreffend ist.

Dieses zukunftweisende Statement verdient eine genaue Betrachtung jener, die weiterhin den Mode-Glauben verbreiten, dass menschliche CO2-Emissionen zu einer gefährlichen globalen Erwärmung führen – trotz starker empirischer Beweise des Gegenteils.

Es folgt eine ausführliche Liste mit Literaturhinweisen, gefolgt von einer Auflistung aller am Bericht beteiligten Autoren.

Link zum gesamten Werk: http://heartland.org/media-library/pdfs/CCR-II/Summary-for-Policymakers.pdf

Zusammengefasst und in Auszügen übersetzt von Chris Frey EIKE




Globale Folgen der Schiefergas-Revolution: „schielen um die Ecke”

Eines der auf der Sitzung angesprochenen Themen wird Schiefergas sein. Mr. Newton zufolge ist noch nicht klar, dass die „Schiefergas-Revolution“ in Nordamerika die globalen Erdgasmärkte durcheinander wirbeln wird.

 „Die Auswirkungen schielen, um ein Sprichwort zu gebrauchen, vielleicht schon um die Ecke”, witzelte er und fügte hinzu: „Mit Sicherheit wird Schiefergas sehr große Auswirkungen auf die amerikanischen Energiemärkte haben, obwohl wir jedoch während der letzten Monate, vielleicht ziemlich überraschend, den Unterschied [the differential] von 20 Dollar gesehen haben, den es während der letzten Jahre zwischen NYMEX und Brent gegeben hat, wobei sich zahlreiche Infrastruktur-Ereignisse in den USA ereignet haben, das heißt mehr Ölerzeugnisse verlassen die USA“.

Inzwischen, sagt er, bleibt der gewaltige Preisunterschied für Erdgas bestehen, und erklärt weiter: „Als ich das letzte Mal bei Henry Hub Wholesale schaute, zahlte man um die 3,50 Dollar /TCF [TCF = Thousand Cubic Feet?]. Das steht in starkem Kontrast zu Mitte 2008, als man dafür etwa 10,50 Dollar zahlen musste“.

Während er einräumt, dass die Öl- und Gaspreise zu jener Zeit rekordhoch waren, stellten diese Preise eine deutliche Wegmarke dar, wenn man Faktoren wie die Wettbewerbsfähigkeit der USA in Betracht zieht, vor allem hinsichtlich der Energie- und der Chemieindustrie.

Ihm zufolge könnte sich wirklich alles ändern, falls die USA mehr Lizenzen vergeben, um sein unkonventionelles Gas zu exportieren. Inzwischen dürften die niedrigen Erdgaspreise dort wahrscheinlich nicht so niedrig bleiben.

„Es ist keineswegs klar, ob es besonders ökonomisch ist, es für 3,50 Dollar aus dem Boden zu holen”, kommentiert er. „Das ist der Grund, warum wir in den letzten eineinhalb Jahren ein viel größeres Interesse an herkömmlichem Öl [tight oil] als an Schiefergas gesehen haben, welches einen starken Auftritt in der Ölerzeugung der USA hatte – Ich denke an 190000 Barrel pro Tag, das ist nicht alles tight oil, aber man kann erkennen, dass jene Ölreserven kommerziell zunehmend attraktiv aussehen, wenn der Preis auf diesem Niveau verharrt“.

Aber immer noch, sagt er, ist es unwahrscheinlich, dass die Preise auf  den niedrigen Stand wie vor einem Jahrzehnt fallen werden. Aber wie wahrscheinlich ist es Mr. Newton zufolge, dass sich die Schiefergas-Revolution in anderen Gebieten der Welt wiederholt?

„Technisch gesehen wartet das Zeug nicht einfach darauf, aus dem Boden geholt zu werden. Nach meinem Verständnis hat jedes Feld seine eigenen Charakteristika, und das bedeutet, dass eine Technologie, die auf einem Feld wunderbar funktioniert, auf einem anderen Feld stark überarbeitet werden muss, um dort ebenfalls zu funktionieren.

Zweitens, Amerika ist signifikant führend hinsichtlich der Erfahrungen mit Technologien, mit denen man unkonventionelles Gas und Öl extrahieren kann, und wahrscheinlich dauert es eine Weile, bis man in der restlichen Welt auch diese Erfahrungen gesammelt hat – es sei denn, sie können die amerikanische Technologie importieren“, fügt er hinzu.

Drittens unterstreicht er, dass dies nicht allein eine USA-Angelegenheit ist, sondern eine in ganz Nordamerika. „Schaut man sich Projektionen der Selbstversorgung bzgl. Energie an einem ‚Tag X’ an, scheint es so, als könnten die USA bis zum Jahr 2035 energie-unabhängig werden, aber für Nordamerika könnte es schon früher soweit sein, vor allem, wenn der mexikanische Präsident Enrique Peña Nieto damit Erfolg hat, im mexikanischen Energiemarkt eine signifikante Liberalisierung einzuführen und ausländische Investitionen ins Land zu holen. Dies wäre notwendig zur Ausbeutung der mexikanischen Schiefergasreserven. Schätzungen der EIA zufolge belaufen sich diese Reserven auf die sechstgrößte Menge weltweit; wenn man bedenkt, dass die kanadischen Reserven an 5. und die USA an 4. Stelle stehen, unterstreicht dies, dass das ganze Thema ein nordamerikanisches ist und nicht eines der USA allein“.

Während Mr. Newton es für realistisch hält, dass Nordamerika in der Lage sein wird, große Mengen unkonventionellen Gases in die ganze Welt zu exportieren, verweist er auf die politischen Hindernisse. „Einige Lobbyisten argumentieren, dass die USA das Gas für sich selbst behalten sollten, das Öl noch viel mehr. Man braucht eine Lizenz des US-Energieministeriums, um Öl und Gas zu exportieren, und von denen wurden während der letzten Jahre nicht allzu viele ausgestellt.

„Es gibt klare Anzeichen, dass sich die USA dem Export immer weiter nähern, und das erste Ziel wird meiner Einschätzung nach Japan sein: Schon jetzt gibt es Verträge über japanische Investitionen in Flüssiggas (LNG) mit dem Ziel, Gas dorthin zu verschiffen, und es wäre für mich überhaupt keine Überraschung, ein sauber ausgehandeltes Rahmenabkommen zwischen den USA und dem über wenig Energie verfügenden Japan zu sehen. Man zahlt dort derzeit Preise für Gas, die signifikant über dem Marktraten liegen“.

Er verweist auf die diplomatischen Bemühungen Japans, mit Russland ins Gespräch zu kommen, um die gegenwärtig fehlende Energiesicherheit in Japan zu stärken. Hier wirken sich die Schwierigkeiten aus, die japanischen Kernkraftwerke nach Fukushima wieder anzufahren.

Mittlerweile macht Mr. Newton die Entwicklung von Schiefergas in China geltend, was die Energieszene im Nahen Osten, wenn nicht in ganz Asien grundlegend verändern könnte. Er stellt fest: „Die EIA schätzt, dass China über die größten Schiefergas-Reserven der Welt verfügt: über 1000 BCF [= Milliarden Kubikfuß]. Bislang war man in China nicht sehr erfolgreich damit, das Zeug aus dem Boden zu holen, aber ich denke, wir sollten nicht die Fähigkeit Chinas unterschätzen, dieses Problem auf die eine oder andere Weise rasch zu lösen“.

Mr. Newton erinnert daran, dass er und einer seiner Kollegen im Jahr 2001 vorhergesagt hatten, dass Energiesicherheit in China oberste Priorität sei, zumindest für die folgende Dekade.

 „Wir haben nur teilweise recht gehabt”, räumt er ein, „weil wir einen etwas zu engen Blickwinkel hatten. Realität ist, dass die wirtschaftliche Sicherheit – damit meine ich Energie, Rohstoffe und Nahrungsmittel – Chinas oberste Priorität hinsichtlich seiner Außenpolitik ist. Aber Energiesicherheit ist unabdingbar notwendig, um Chinas Wachstums-Maschinerie zu füttern, und das wird auch so bleiben, auch wenn die Wirtschaft im Verlauf des nächsten Jahrzehnts deutlich weniger energieintensiv wird“.

Die heimische Energiegewinnung hat angesichts schwindender konventioneller Ölreserven sehr hohe Priorität für das Land, vor allem auch, weil man sich saubereren Energiequellen zuwenden möchte als Öl oder Kohle.

Mr. Newton sagt, dass er viel von dem Argument hält, wonach die rasante Zunahme von Erdgasreserven die weitere Verbreitung von Erneuerbaren verlangsamen wird. „Nichtsdestotrotz stecken wir derzeit noch in einer auf Kohlenstoff basierenden globalen Ökonomie, und da muss man akzeptieren, dass Gas sauberer ist als Öl oder Kohle“.

Gefragt nach dem Nachhall des Gefühls, dass Erdgas die sauberste Kohlenstoff-Energiequelle ist, erwidert er, dass das davon abhänge, mit wem man redet. „Es gab jüngst einen Artikel in der FT über die Haltung der britischen Regierung zu Schiefer. Aber er bewirkte nicht viel, erlaubte er es doch im Grunde der Anti-Schiefer-Bewegung, die Medien mit ihren Botschaften zu dominieren. Es wird immer irgendwelche Neinsager geben, und es ist Sache der anderen, diese zu neutralisieren“.

Hinsichtlich der geopolitischen Lage Europas sagt Mr. Newton, dass ihn die Zusammenhanglosigkeit hinsichtlich Energie immer wieder überrasche. Als Beispiel führt er Deutschland an. Lange Zeit stand das Land an vorderster Front der Befürwortung erneuerbarer Energie, aber nach dem Unfall in Fukushima hat sich die Regierung entschlossen, sich aus der Kernkraft zurückzuziehen. „Und es scheint, als ob Deutschland als Folge davon in absehbarer Zukunft immer abhängiger von Kohle werde. Außerdem, den Deutschen vorzuschlagen, etwas Dramatisches hinsichtlich ihrer Autoabgase zu unternehmen ist in etwa so, als würde man die Amerikaner auffordern, das Recht zum Tragen von Waffen aufzugeben“.

Genauso verworren ist die Politik des Kontinents hinsichtlich Schiefer. Frankreich und Belgien haben Fracking verboten, Polen und UK sind nach wie vor enthusiastisch. „Obwohl die Polen in technische Schwierigkeiten geraten sind“.

Aber wird Europa von den russischen Erdgasquellen abhängig bleiben, und falls nicht, wohin wird das Gas strömen?

„Das oberste Problem Russlands ist, dass es tatsächlich derzeit nicht sehr viel neues Gas aus dem Boden holt. Eine große Zahl existierender Gasfelder leert sich. Zweitens, derzeit fehlen Russland sehr viele Kapazitäten durch Pipelines in Richtung Osten; drittens, bei allem Respekt der Bemühungen von Japans Premierminister Shinzo Abe, die Option offenzuhalten, von Russland Gas zu kaufen, lautet die Lektion der vergangenen Jahre, dass Russland als Versorger nicht so zuverlässig ist wie zu Sowjetzeiten, als die Gashähne praktisch niemals zugedreht worden waren. Es gibt also immer Fragezeichen“.

Inzwischen war China eifrig damit beschäftigt, starke Beziehungen mit anderen Gasversorgern in Mittelasien zu knüpfen. Beispielhaft hierfür stehen die aus Turkmenistan herausführenden Pipelines.

„Das nützt mit Sicherheit auch den mittelasiatischen Republiken, die nicht komplett von Russland als Transitkorridor abhängig sein wollen“, sagt Newton zum Schluss. Viel wahrscheinlicher sei es, dass nichtrussische Gasquellen in Ost- und Südostasien in den Brennpunkt rücken.

Link: http://www.naturalgaseurope.com/shale-gas-revolution-still-in-the-pipeline

Übersetzt von Chris Frey EIKE




Neuer IPCC-Bericht: Treibhausgase waren für 140% der Erwärmung seit 1951 verantwortlich

Bild 1: Der Datensatz HADCRU4 der globalen Mitteltemperatur zeigt zwischen 1951 und 2010 eine Erwärmung um 0,64°C mit einer linearen Steigung von 0,0107°C pro Jahr.

Der neue Bericht „macht für die beobachtete Verlangsamung der Erwärmung von 1998 bis 2012 – ein Phänomen, das von Skeptikern als Beweis angeführt wird, dass die Erwärmung nicht vom Menschen verursacht ist – einen vorübergehenden Abkühlungszyklus im Wettersystem und eine geringer als erwartete Sonnenaktivität verantwortlich“. Allerdings zeigen Satellitendaten, dass das, was das IPCC als „beobachtete Verlangsamung der Erwärmung“ nennt, in Wirklichkeit eine Abkühlung war. (Vielleicht sollte das IPCC den Terminus „negative Erwärmung“ übernehmen?).

Bild 2: Satellitendaten zeigen globale Abkühlung von 1998 bis 2012 mit einer Steigung von –0,0044°C pro Jahr.

Wachsende Sicherheiten zur globalen Erwärmung und die Rolle der Menschen
AFP, 21. September 2013

Während der vergangenen 23 Jahre haben die UN-Wissenschaftler immer sicherer werdende Erklärungen zur Klimaänderung veröffentlicht.

Anfangs war lediglich von einer oberflächlichen Warnung die Rede, dass Wärme zurückhaltende Kohlenstoffemissionen aus der Verbrennung fossiler Treibstoffe einen „Treibhauseffekt“ auslösen könne. Heute wird die Überzeugung geäußert, dass dieser Effekt inzwischen einen Einfluss auf das Klima der Erde ausübt.

Hier folgen Auszüge aus den IPCC-Zustandsberichten, der jüngste davon aus dem letzten Bericht.

Erster Zustandsbericht (1990):

„…Emissionen durch menschliche Aktivitäten lassen die atmosphärischen Konzentrationen von Treibhausgasen allmählich zunehmen… Diese Zunahme wird den Treibhauseffekt verstärken, was sich im Mittel in einer zusätzlichen Erwärmung der Erde bemerkbar macht“.

Zweiter Zustandsbericht (1995):

„Die meisten dieser Studien haben eine signifikante Änderung gefunden und zeigen, dass es unwahrscheinlich ist, dass der beobachtete Erwärmungstrend ausschließlich natürlichen Ursprungs ist… Die Vielfalt der Beweise zeigt, dass es einen wahrnehmbaren menschlichen Einfluss auf das globale Klima gibt. … Die mittlere Erwärmungsrate (in Projektionen für das 21. Jahrhundert) würde vermutlich größer sein als jemals während der letzten 10000 Jahre, aber die aktuellen und dekadischen Änderungen würden eine merkliche natürliche Variabilität einschließen“.

Dritter Zustandsbericht (2001):

„Es gibt neue und stärkere Beweise, dass der größte Teil der beobachteten Erwärmung während der letzten 50 Jahre auf menschliche Aktivitäten zurückzuführen ist … die projizierte Erwärmungsrate ist viel größer als die beobachteten Änderungen während des 20. Jahrhunderts und sehr wahrscheinlich ohne Beispiel zumindest während der letzten 10000 Jahre, basierend auf paläoklimatischen Daten“.

Weiter heißt es in dem Bericht, dass die Temperatur zwischen 1901 und 2000 um 0,6°C gestiegen ist. Menschliche Aktivitäten waren „wahrscheinlich“ der Grund für die Erwärmung, ein Terminus, der gewöhnlich eine Wahrscheinlichkeit über 66 Prozent ausdrückt.

Vierter Zustandsbericht (2007):

Die Erwärmung des Klimasystems ist eindeutig, wie inzwischen klar aus Beobachtungen der globalen Luft- und Wassertemperaturen hervorgeht sowie aus verbreitetem Schmelzen von Schnee und Eis und steigendem globalen Meeresspiegel. Der größte Teil der beobachteten Zunahme der globalen Mitteltemperatur seit Mitte des 20. Jahrhunderts ist sehr wahrscheinlich auf die beobachtete Zunahme anthropogener Treibhausgase zurückzuführen“.

Dem Bericht zufolge hatte die Erwärmung während der 100 Jahre zuvor 0,74°C betragen, und 11 der 12 vorhergehenden Jahre waren die wärmsten jemals.

Menschliche Aktivitäten waren „sehr wahrscheinlich“ der Grund der Erwärmung, was gemeiniglich eine Wahrscheinlichkeit über 90% bedeutet.

Fünfter Zustandsbericht (von AFP eingesehene Version):

In der Nordhemisphäre war der Zeitraum von 1983 bis 2012 sehr wahrscheinlich der wärmste 30-Jahres-Zeitruam der letzten 800 Jahre und wahrscheinlich die wärmste Periode der letzten 1400 Jahre.

„…Treibhausgase haben im Zeitraum 1951 bis 2010 wahrscheinlich zu einer globalen Erwärmung zwischen 0,5°C und 1,3°C beigetragen“.

„…Es ist sehr sicher [there is high confidence], dass dies zur Erwärmung der Ozeane geführt, Schnee und Eis geschmolzen hat, den globalen Meeresspiegel hat steigen lassen und zur Änderung einiger Klimaextreme in der zweiten Hälfte des 20. Jahrhunderts geführt hat“.

Menschliche Aktivitäten waren „äußerst wahrscheinlich“ der Grund dieser Erwärmung, was eine Wahrscheinlichkeit zwischen 95 und 100 Prozent bedeutet.

In der Version wird die beobachtete Verlangsamung der Erwärmung von 1998 bis 2012 – ein Phänomen, das von Skeptikern als Beweis für die nicht-anthropogene Ursache der Erwärmung angeführt wird – auf einen vorübergehenden Abkühlungszyklus im Wettergeschehen und auf eine geringer als erwartet auftretende Sonnenaktivität zurückzuführen ist.

Die Temperatur ist seit dem Jahr 1901 um 0,89°C gestiegen, heißt es darin.

Vier Projektionen zufolge, die auf der Menge des emittierten Kohlenstoffes basieren, wird die zusätzliche Erwärmung in diesem Jahrhundert abgeschätzt mit einem Bereich zwischen 1,0°C bis 3,7°C und einem Meeresspiegelanstieg von 40 bis 62 cm.

Wie in den vorherigen Berichten auch sind diese Schätzungen Mittelwerte. Jede Projektion zeigt eine große Bandbreite auf beiden Seiten des Graphen.

[Die Kommentare zu diesem Beitrag sind m. E. genauso beachtenswert. Daher füge ich deren Übersetzung hier an:]

Anonymus:

Einen Moment! Im 3. Zustandsbericht (gemeiniglich TAR genannt) heißt es, dass die Temperatur im Zeitraum 1901 bis 2000 um 0,6°C gestiegen ist.

Jetzt im 5. Zustandsbericht heißt es, dass die globale Mitteltemperatur (vermutlich bis 2012) um 0,89°C gestiegen ist.

Folglich hat die globale Mitteltemperatur der letzten 12 Jahre seit 2012 um 0,29°C zugenommen? Ich dachte, es hätte einen Stillstand gegeben?

Eco-Geek

„…ein vorübergehender Abkühlungszyklus im Wettergeschehen und einer geringer als erwartet auftretenden Sonnenaktivität”.

Moment, so wie ich das IPCC verstanden habe, wird die globale Temperatur hauptsächlich durch Treibhausgase und der Gesamt-Solarstrahlung bestimmt? Führt das nicht zu einer ganz neuen Wissenschaft? Ich meine, sie sagen jetzt zum Beispiel, dass geringere (das „als erwartet“ kann man ignorieren) Sonnenaktivität die globalen Temperaturen beeinflusst, oder?

Ich vermute, dass sie damit einräumen, dass alle Berichte zuvor signifikant fehlerhaft waren, weil man die Sonnenaktivität nicht beachtet hatte.

Na schön! Das IPCC veröffentlicht neue Zahlen, die auf neuen Modellen basieren, in denen die Sonnenaktivität enthalten ist.

Was? Das haben sie gar nicht getan? Sie behaupten, dass die Sonnenaktivität die Temperaturen signifikant beeinflusst, ohne sich damit befasst zu haben, in welchem Ausmaß?

In diesem Falle müssen wir alle „Maßnahmen zur Reduktion des globalen Kohlenstoff-Ausstoßes“ aufgeben, bis man etwas über Klimaänderung erfahren hat.

Link: http://hockeyschtick.blogspot.de/2013/09/new-ipcc-report-claims-greenhouse-gases.html

Übersetzt von Chris Frey EIKE