Öl und Benzin – der Faktencheck!

Tatsächlich ist nichts davon nachvollziehbar. Weder die Situationsbeschreibung, noch die Ideen zur Lösung eines Problems, das man zu sehen glaubt, ohne es wirklich zu erkennen.
Vor mir liegt die Studie “Reserven, Ressourcen und Verfügbarkeit von Energierohstoffen” der Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) des Jahres 2006. Dieses Papier scheint nicht mehr zum Download zur Verfügung zu stehen. Es heißt darin auf Seite 16:

“Das verbleibende Potenzial an konventionellem Erdöl kann aus geologischer Sicht bei moderatem Anstieg des Erdölverbrauchs die Versorgung mit Erdöl über einen Zeitraum von etwa 10 bis 15 Jahren gewährleisten. Nach diesem Zeitraum muss infolge des zu erwartenden Rückgangs der Erdölförderung nach Überschreiten der weltweit maximal möglichen Förderung mit einer Versorgungslücke bei Erdöl gerechnet werden, die durch andere Energieträger oder Erdölsubstitute (aus Erdgas, Kohle oder Biomasse) ausgeglichen werden müsste.”

Nun wird diese Untersuchung durch das BGR jährlich durchgeführt. Die aktuellste Version von Ende 2011 enthält zur Frage der Verfügbarkeit von Erdöl die folgende Aussage:

“Für die nächsten Jahre kann aus geologischer Sicht bei einem moderaten Anstieg des Erdölverbrauchs die Versorgung mit Erdöl gewährleistet werden. Nach der als optimistisch anzusehenden BGR-Projektion könnte die globale Erdölförderung bis etwa 2036 gesteigert werden und 4,6 Mrd. t/a erreichen.”

In nur fünf Jahren hat sich damit ein möglicher “Peak Oil” um fünfzehn Jahre nach hinten verschoben. Dies ist ein stabiler Trend in allen Prognosen dieser Art: Das erwartete Fördermaximum wandert schneller in die Zukunft, als die Zeit vergeht. Das erste Diagramm zeigt, warum das so ist. Bei nahezu gleichbleibender Produktion in den letzten Jahrzehnten steigt die Zahl der gesicherten Reserven immer weiter an. Die Erdölkonstante, die statische Reichweite, erhöht sich dadurch ständig. Lag sie 1980 noch bei etwa 30 Jahren (demzufolge hätten wir eigentlich schon seit zwei Jahren kein Benzin mehr), ist sie heute bei über 50 angekommen.

Oft kommt seitens der Peak-Oil-Vertreter an dieser Stelle das Argument, die Konstanz der Produktion wäre das eigentliche Problem. Viele der Reserven seien in Wahrheit nur mit hohem Aufwand und unter hohen Kosten zu erreichen. Die Ölförderung könne eben nicht mehr über das heute erreichte Niveau hinaus gesteigert werden. Das ist eine merkwürdige Argumentation. Warum sollte denn versucht werden, die Förderung zu erhöhen, wenn es keinen Bedarf gibt? Tatsächlich steigen die Ölreserven sogar doppelt so schnell, wie der Verbrauch (nachfolgende Abbildung – Leider enthält der “Ölverbrauch” in den mir vorliegenden Daten von BP auch Biodiesel und Bioethanol, auf die der moderate Anstieg von etwa 1 Prozent pro Jahr wesentlich entfällt.). Und wenn es eine Konstante im Ölgeschäft tatsächlich gibt, dann die, daß nur gefördert wird, was man auch verkaufen kann.


Die Reserven, die heute schon zu marktfähigen Kosten förderbaren Vorkommen, machen nur einen Bruchteil des Erdöls aus, das uns zur Verfügung steht. In den Diagrammen sind von den unkonventionellen Vorkommen nur  geringe Mengen der kanadischen Ölsande enthalten. Vor allem hinsichtlich des Potentials von Schieferöl (nicht zu verwechseln mit “Ölschiefer”) gibt es noch keine belastbaren Aussagen. Alles, was ich dazu finden konnte, ist eine Studie des privaten Washingtoner Think Tanks “Institute for Energy Research”, in der man aus verschiedenen Quellen Ressourcen in einer Größenordnung von etwa 1.800 Milliarden Barrel allein für Nordamerika abgeleitet hat (Seite 15) – mehr als die globalen Reserven von derzeit etwa 1.500 Milliarden Barrel. Darf man vermuten, dieses Öl würde im Boden belassen, wenn es jemand kaufen möchte? Wohl eher nicht.  
Es gibt keine Verknappung, noch ist eine solche für die kommenden Jahrzehnte absehbar. Die BGR sieht das fast ganz richtig, in ihrer Energiestudie von 2011:

“Insbesondere die fortschreitende Technologieentwicklung im vergangenen Betrachtungszeitraum hat die Trennung in konventionelle und nicht-konventionelle Vorkommen unschärfer werden lassen.”

Ich würde weiter gehen. Eine solche Trennung ergibt keinen Sinn mehr. Das Gerede von einer bevorstehenden Verknappung des Öls entbehrt damit jeder Grundlage.
Trotzdem habe ich heute für 1,72 Euro pro Liter getankt. Das ist mehr, als ich im Laufe meines Autofahrerlebens bislang gewohnt war. Die dritte Abbildung zeigt: Es ist wohl mehr als zum historischen Höchststand des Jahres 1953. Moment mal, werden jetzt viele einwerfen, in den 1950er Jahren hat Benzin doch nur ein paar Pfennige gekostet. Stimmt natürlich, 1953 waren es im Jahresdurchschnitt etwa 37 Pfennig pro Liter. Aber diese 37 Pfennig waren damals so viel wert, wie heute 160 Cent. Das Diagramm ist mit den Daten zum Verbraucherpreisindex des statistischen Bundesamtes inflationsbereinigt. Die Spritpreise (Jahresmittelwerte) stammen vom ADAC und die jeweiligen Sätze für Mineralöl- und Umsatzsteuer kann man bei Wikipedia nachlesen. Für das Jahr 2012 sind die Monate Januar bis März berücksichtigt. Es wird deutlich, wer am Autofahrer wirklich verdient. Nicht die Ölmultis, sondern Wolfgang Schäuble.

Gerade mal 60-70 Cent kostet der Liter heutzutage. Das ist im Verlauf der Jahrzehnte nicht ungewöhnlich. Langfristig zeigt der Trend nach unten, von Schwankungen auf kürzeren Skalen überlagert. Die Rekordwerte entstehen, weil von jedem Liter der Staat mittlerweile fast einen Euro einkassiert. Der rote Bereich im Diagramm zeigt den Steueranteil.
Nichts ist es mit dem knappen Öl. Und Preiskartelle der Konzerne haben und hatten, wenn es sie denn gibt oder gab, nur Ausschläge von wenigen Cent hervorgerufen. Der Kostentreiber bei Benzin ist der Staat – und niemand sonst. Es hilft hier auch keine Energiewende, es hilft keine Erhöhung der Pendlerpauschale und schon gar nicht hilft eine Debatte über Unternehmensstrategien. Allein eine schnelle und substantielle Senkung der Steuerlast, der Mehrwert- und vor allem der Mineralölsteuer, könnte Entlastung bringen. Auch langfristig. Dieses Thema aber scheuen alle Parteien. Was nicht verwundert.
Unsere wirklichen Probleme mit dem Öl werden in zwanzig oder dreißig Jahren ganz andere sein. Nicht zu wenig wird es geben, sondern zu viel. Vor allem in Nordamerika, in den USA, in Kanada und in Mexiko. Angesichts des unaufhaltsamen technischen Fortschrittes haben sowohl Exxon, als auch BP analog zu den Analysten der Citigroup ihre neuesten Zukunftsszenarien gegenüber dem Jahr 2010 deutlich verändert. Die baldige Unabhängigkeit des nordamerikanischen Wirtschaftsraums von Importen ist nicht mehr hypothetisch, sondern wahrscheinlich. Es wird dann niemand mehr da sein, der ein Interesse daran hat, auch die Versorgung Europas aus politisch instabilen Regionen abzusichern. Die Navy wird sich fein heraushalten, wenn irgendein Potentat mal wieder die Straße von Hormus zu sperren droht. Ein neues Erdölzeitalter beginnt. Und wir sind nicht darauf vorbereitet.
Dr. Peter Heller; zuerst erschienen bei Science Sceptical

ÄHNLICHE BEITRÄGE

Peak oil doomsayers ignore human ingenuity




Ein Termin bei der Kanzlerin?

Thorium als Energiequelle

Vorschlag: Die Bundesregierung soll ein ambitioniertes Programm zur Entwicklung und Realisierung des Thorium-Flüssigsalzreaktors auflegen.

Nein, ich möchte hier nicht den Anstoß für die Fortsetzung einer ideologiebasierten Energiedebatte liefern, die von beiden Seiten voller Fanatismus und Bitterkeit geführt wird. Wollen wir denn nicht alle dasselbe? Eine bessere Zukunft für uns und unsere Kinder? Wenn wir uns doch in diesem Ziel einig sind, ist es dann nicht möglich, Gräben zu überwinden und die klügsten unserer jeweiligen Ideen miteinander zu verbinden, statt Gegensätze zu betonen und sich gegenseitig zu neutralisieren?

Auch und gerade als Befürworter der Kernenergie bin ich zu Einsicht in der Lage. Uran 235, der Stoff, den unsere gegenwärtigen Reaktoren zur Energiegewinnung einsetzen, ist selten. Ihn nutzen zu wollen, bedarf einer Technologie, die entlang der gesamten Kette, vom Bergbau über die Anreicherung bis hin zur Verwendung im Kraftwerk und der anschließenden Behandlung der Abfälle, Risiken beinhaltet, die viele Menschen zu tragen nicht mehr bereit sind. Angesichts der Störfälle in Harrisburg, Tschernobyl und Fukushima ist auch mir deutlich geworden, wie aus Risiken reale Gefahren werden können, seien Wahrscheinlichkeiten auch noch so gering. Aber hören wir denn auf, Häuser zu bauen, wenn mal eines einstürzt? Schaffen wir Schiffe ab, wenn eines versinkt? Demontieren wir unser Schienennetz, wenn ein Zug entgleist? Verzichten wir auf Wasserkraft, wenn ein Damm bricht?

Nein, das tun wir nicht. So zu handeln, würde den meisten Menschen irrational und hysterisch erscheinen. Stattdessen versuchen wir, aus Unglücken zu lernen und unsere Technologie weiter zu verbessern, sie sicherer, effizienter und effektiver zu gestalten. Sind wir selbstbewußt, sind wir fähig und kompetent genug, uns dieser Herausforderung auch auf dem Gebiet der friedlichen Nutzung der Kernenergie zu stellen?

Es gibt ein Element, das sehr viel häufiger zu finden ist, als Uran 235. Es handelt sich um das Schwermetall Thorium. Und es gibt eine Maschine, mit der die diesem Element innewohnenden Energien freigesetzt und verwendet werden können. Es handelt sich um den Thorium-Flüssigsalzreaktor, im englischen Sprachraum auch als “LFTR” (Liquid Fluoride Thorium Reactor) oder eingängig als Lifter bezeichnet.

Der Vorteil dieser Maschine besteht dabei nicht darin, die mit unseren gegenwärtigen Leichtwasserreaktoren verbundenen Risiken noch weiter zu minimieren. Mit dem Lifter wären diese Risiken vielmehr grundsätzlich ausgeschlossen. Er stellt eine völlig andere Technologie, ein völlig anderes Konzept dar. Eine Kernschmelze ist nicht möglich, denn der Kern ist bereits geschmolzen. Kühlsysteme, deren Ausfall gefährlich sein könnte, gibt es nicht mehr. Der Lifter reguliert seine Temperatur selbst. Er basiert auf dem Konzept der passiven Sicherheit, sollte (wie im Falle Fukushima) jegliche Energieversorgung des Kraftwerkes unterbrochen sein, nimmt er von selbst einen sicheren Betriebszustand ein. Isotope, die man zum Bau von Kernwaffen verwenden könnte, entstehen im Thorium-Brennstoffkreislauf nicht. Es fehlen ebenso die langlebigen und toxischen Transurane, die bei herkömmlichen Reaktoren das Problem der Endlagerung aufwerfen.

Ein Lifter ist weit mehr als nur eine thermodynamische Maschine zur Stromproduktion. Er ist eine chemische Fabrik, seine Gestaltung ist auf die optimale Handhabung der beteiligten Stoffe ausgerichtet. Dies begründet letztlich nicht nur seine Sicherheitsvorteile, dies ermöglicht auch die Gewinnung vieler nützlicher Stoffe auf einfache Weise während des Betriebs, von seltenen Erden wie Neodym bis hin zu Isotopen für die Nuklearmedizin. Darüber hinaus stellt er eine ideale Quelle für Prozesswärme in der industriellen Produktion dar.

Das einzige Problem: Er produziert Energie durch die Freisetzung der Kernbindungskräfte mittels einer Kernspaltung. Und dieser Ansatz ist nun nicht nur in Deutschland verboten, sondern für viele Mitbürger scheinbar grundsätzlich nicht tragbar. Darf oder kann man aber ein Naturgesetz verbieten, ist es klug, gegen ein natürliches Prinzip zu demonstrieren?

Ich kann die politische Entscheidung zum Ausstieg aus der Kernenergie als eine Reaktion auf die Stimmung in der Bevölkerung verstehen. Ich kann auch verstehen, wenn viele Menschen angesichts der Geschehnisse in Tschernobyl und Fukushima der Kernkraft skeptisch, ja sogar ängstlich gegenüberstehen. Man sollte sich aber darüber im klaren sein: Was man auch immer als Argument gegen Kernkraftwerke in die Diskussion einbringt, ist in Wahrheit nur ein Argument gegen eine bestimmte technische Umsetzung und nicht gegen die Kernkraft insgesamt. Es gibt tausende Möglichkeiten, die Kernbindungskräfte in Kraftwerken zu nutzen, man sollte Leichtwasserreaktoren nicht für eine gesamte Technologie haftbar machen.

Masse und Energie sind einander äquivalent. Daraus kann man nicht aussteigen.

Der Lifter ist keine Phantasie. Er wurde bereits gebaut und war als Versuchsanlage am Oak Ridge National Laboratory in den USA von 1965 bis 1969 in Betrieb. Die Technologie ist heute weitgehend in Vergessenheit geraten, zumindest in Deutschland. Weltweit hingegen formieren sich Netzwerke aus Wissenschaftlern und Ingenieuren, aus Wirtschaft, Wissenschaft und Politik, um die Wiederaufnahme der damaligen Entwicklungstätigkeiten zu forcieren. Zu nennen sind die Thorium Energy Alliance, dieInternational Thorium Energy Organization und die Weinberg Foundation. Anfang 2011 hat China angekündigt, innerhalb der nächsten 5 Jahre einen Demonstrationsreaktor zu bauen und binnen 20 Jahren den Lifter kommerziell einzusetzen. Man sieht dies als eines von vier Projekten zur Gewinnung einer strategischen Führungsrolle in Wissenschaft und Wirtschaft in bedeutenden Zukunftstechnologien.

Stellen wir uns in Deutschland dieser Herausforderung? Wir, die wir doch eigentlich die Maschinen entwickeln und bauen möchten, die die Welt in Zukunft mit Energie versorgen? Energie, die sauber und ohne die heute debattierten Risiken produziert wird? Man kann an den Klimawandel glauben oder nicht – der Lifter wird ganz unabhängig davon keine Naturräume bedrohen, wie Wind- und Solarkraftwerke oder wie der Anbau von Energiepflanzen, und er wird kein Kohlendioxid freisetzen.

Wenn die Frage gestellt wird, wovon wir in Zukunft in Deutschland leben wollen, dann kann die Antwort nur unsere Innovationskraft sein. Die Kernkraftgegner mögen im Moment triumphieren, aber die Freiheit, durch Demonstrationen politische Entscheidungen zu erzwingen ist auch verbunden mit der Verantwortung, die man dann für diese Entscheidung zu übernehmen hat. Ist es verantwortlich gedacht, sich wegen eines Störfalles in einem bestimmten Reaktortyp gleich ganz  von einem zukünftigen Wachstumsmarkt zu verabschieden? In einer auf Wissen und Kompetenz in Hoch- und Spitzentechnologien angewiesenen Gesellschaft?

Ich kann auch als Befürworter der Kernenergie der Entscheidung zum Ausstieg etwas abgewinnen. Wenn wir den Leichtwasserreaktor durch etwas Besseres ersetzen. Das uns mehr Möglichkeiten für eine sichere, saubere und verlässliche Energieversorgung bietet – und nicht weniger. In diesem Sinne bitte ich Sie alle um Zustimmung zu meinem Vorschlag. Ich würde mich freuen, könnten einige Kernkraftgegner über ihren Schatten springen und damit ein Zeichen dafür setzen, ideologische Ignoranz nicht als den Weg in die Zukunft anzusehen. Fortschritt kann auch eine Brücke sein, er kann Gräben überwinden, weil er scheinbar wichtige Fragen irrelevant macht. Der Lifter ist in diesem Sinne nicht Sieg oder Niederlage für die ein oder andere Meinung, sondern ein Gewinn für uns alle.

—–

Nach der Reduzierung auf die durch den Zukunftsidalog vorgeschriebenen 1.500 Zeichen wurde dann das hier daraus:

Die Bundesregierung soll ein Programm zur Entwicklung und Realisierung des Thorium-Flüssigsalzreaktors auflegen.

Mit dem LFTR (Liquid Fluoride Thorium Reactor, eingängig “Lifter”) wären die Risiken herkömmlicher Kernkraftwerke ausgeschlossen. Er basiert auf einem anderen Konzept. Eine Kernschmelze ist nicht möglich, Kühlsysteme, deren Ausfall gefährlich sein könnte, gibt es nicht mehr. Sollte jegliche Energieversorgung des Kraftwerkes unterbrochen sein, nimmt der Lifter von selbst einen sicheren Betriebszustand ein. Isotope für den Bau von Kernwaffen entstehen im Thorium-Brennstoffkreislauf nicht. Es fehlen auch langlebige und toxische Transurane, die bei herkömmlichen Reaktoren das Problem der Endlagerung aufwerfen.

Der Lifter ist nicht nur eine thermodynamische Maschine zur Stromproduktion. Er ist eine chemische Fabrik, sein Design ist auf die optimale Handhabung der beteiligten Stoffe ausgerichtet. Dies ermöglicht die Gewinnung vieler nützlicher Stoffe während des Betriebs, von seltenen Erden wie Neodym bis hin zu Isotopen für die Nuklearmedizin. Darüber hinaus wäre er eine Quelle für Prozesswärme in der industriellen Produktion.

Deutschland wird auch in Zukunft nur von seiner Innovationskraft leben können. In den USA, in GB und in China ist man bestrebt, die Arbeiten der 1960er Jahre, in denen der Lifter bereits prototypisch realisiert wurde, wiederaufzunehmen und ihn zur Marktreife zu führen. Wir dürfen uns aus diesem Zukunftsmarkt nicht verabschieden.

Ich denke, wir sollten uns in den Zukunftsdialog einbringen. Wenn denn die Kanzlerin wissen will, welche Fragestellungen und Themen die Menschen bewegen, dürfen wir nicht fehlen. Im Gegensatz zum Bürgerdialog des BMBF zur Energiewende, der nicht nur mich frustriert hat, sind hier alle Themen erlaubt. Betreut wird die Internetseite auch nicht von einem privaten, dem rotgrünen Spektrum zuzuordnenden Dienstleister, sondern vom Presse- und Informationsamt der Bundesregierung selbst. Und das allerbeste: Man kann nicht mit “Nein” stimmen, sondern nur mit “Ja”.

Ich bitte daher um die Stimmen der Leser von Science Skeptical (ein paar unterstützende Kommentare wären natürlich auch hilfreich). Und um die Weiterverbreitung dieses Aufrufes in allen möglichen anderen Blogs. Kann ich es unter die besten zehn schaffen? Wahrscheinlich nicht, wenn man sich anschaut, wie beliebt die Debatten über das bedingungslose Grundeinkommen und die Legalisierung von Cannabis sind (beides Ideen, die mir durchaus sympathisch sind, das möchte ich einräumen). Aber man kann solche Plattformen auch nutzen, um Ideen bekannt zu machen und weiter zu verbreiten. Schaffen wir 1.000 Unterstützer bis zum 15. April? Diese tausend erzählen es vielleicht herum und bald werden es mehr.

An dieser Stelle möchte ich auch auf meinen Artikel in der letzten Ausgabe der NovoArgumente hinweisen, der nun auch online gelesen und diskutiert werden kann. Leider ist der Text immer noch zweimal vorhanden, einmal hier (im Blog) und einmal hier(im Archiv, mit schon eingegangenen Kommentaren). Was die Novo-Redaktion da treibt, ist mir ein Rätsel.

Es gibit im Zukunftsdialog natürlich auch weitere Vorschläge, die die Haltung von Science Skeptical aufgreifen. Einige Beispiele:

Auch diese Beiträge verdienen unsere Unterstützung. Weitere Fundstücke können im Kommentarbereich ergänzt werden.

Dr. Peter Heller, übernommen von Science Sceptical




Afrikagate!

Die Geschichte von Afrikagate beginnt im Jahr 2007. Verbunden mit der Veröffentlichung einer Zusammenfassung des vierten IPCC-Sachstandberichtes (“Synthesis Report”) begann der IPCC-Vorsitzende Rajendra Pachauri, die folgende Passage in seine Reden und Stellungnahmen zu integrieren (u.a. am 22.9.2009 in New York):

In Africa, by 2020, between 75 and 250 million people are projected to be exposed to water stress due to climate change, and in some countries yields from rainfed agriculture could be reduced by up to 50%.

Dies erregte die Aufmerksamkeit des britischen, klimaskeptischen Bloggers Richard North und des Journalisten Jonathan Leake (Sunday Times), die sich fragten, ob es denn für eine derartige Behauptung eine seriöse wissenschaftliche Quelle gäbe. Ausgehend von dem Ergebnis ihrer Recherchen entstand eine längliche Auseinandersetzung, die in den letzten Jahren in zahlreichen Blogs und Zeitungen in vielen Ländern ausgetragen wurde und deren vorläufigen Höhepunkt in Deutschland der Rechtsstreit zwischen der Journalistin Irene Meichsner und dem Klimaforscher Stefan Rahmstorf darstellt. Über diesen Konflikt hat der Journalist Markus Lehmkuhl hier umfassend berichtet und dem ist eigentlich nichts hinzuzufügen.
Durch die Berichterstattung auf der Klimazwiebel wurde ich nun darauf aufmerksam, wie sich im Laufe der Jahre das Thema der Auseinandersetzung verändert hat.
Leake und North stellten nämlich ursprünglich den zweiten Halbsatz von Pachauris Darstellung in den Mittelpunkt ihrer Kritik. Die Aussage, in einigen afrikanischen Ländern könnten die landwirtschaftlichen Erträge von nicht künstlich bewässerten Feldern um bis zu 50% zurückgehen, beruht tatsächlich nur auf einer Sekundärquelle aus der sogenannten durch unabhängige Experten ungeprüften “grauen” Literatur. Im Auftrag einer kanadischen Umweltlobbygruppe wurden hier Studien aus drei nordafrikanischen Ländern zusammengefasst (Marokko, Tunesien, Algerien), mit denen vor allem ein Impuls für den Aufbau von Bewässerungssystemen in der dortigen Landwirtschaft gesetzt werden sollte. Nun sind alle drei Länder eher kleine bzw. dünnbesiedelte Wüstenstaaten. Inwieweit ausgerechnet diese als Symbole für eine globale Bedrohung durch Dürren aufgrund eines hypothetischen menschgemachten Klimawandels herangezogen werden können oder sollten, kann man durchaus hinterfragen. Statt zu schreiben “Studien halten einen Ernterückgang von bis zu 50% in Marokko, Tunesien und Algerien für denkbar, sollte nicht in neue Bewässerungssysteme investiert werden”, kommuniziert das IPCC außerdem einen Ernterückgang von bis zu 50% in “einigen Ländern”, sollte nicht der Klimawandel bekämpft werden.
Die Causa Meichsner versus Rahmstorf aber entzündete sich vor allem am ersten Halbsatz.
Wo also stammen die 75-200 Millionen gefährdeten Menschen eigentlich her? In der “Summary for Policymakers” des “Synthesis Reports” gibt es dazu nur die Tabelle SPM 2 mit der folgenden Aussage zu Afrika:

By 2020, between 75 and 250 million of people are projected to be exposed to increased water stress due to climate change.

Es existieren also Projektionen (mithin keine Prognosen), in denen von 75 bis 250 Millionen Menschen gesprochen wird, die unter einem gegenüber heute erhöhten Wassermangel leiden könnten. Eine Quellenangabe fehlt. Schaut man in die Synthese selbst, so findet sich dort auf Seite 50 (Abschnitt 3.3.2) dieselbe Aussage, aber erneut ohne Quellenangabe. Man wird auf den Report der Arbeitsgruppe 2, Abschnitt 9.4 verwiesen:

In some assessments, the population at risk of increased water stress in Africa, for the full range of SRES scenarios, is projected to be 75-250 million and 350-600 million people by the 2020s and 2050s, respectively (Arnell, 2004). However, the impact of climate change on water resources across the continent is not uniform. An analysis of six climate models (HadCM3, ECHAM4-OPYC, CSIRO-Mk2, CGCM2, GFDL_r30 and CCSR/NIES2) and the SRES scenarios (Arnell, 2004) shows a likely increase in the number of people who could experience water stress by 2055 in northern and southern Africa (Figure 9.3). In contrast, more people in eastern and western Africa will be likely to experience a reduction rather than an increase in water stress (Arnell, 2006a).

Das klingt schon etwas differenzierter. Und jetzt wissen wir auch (nachdem wir ausgehend von Pachauris Reden drei dicke Dokumente durchsucht haben), woher die Zahlen stammen. Aus einer Studie von Nigel W. Arnell, Climate change and global water resources: SRES emissions and socio-economic scenarios, die 2004 im Journal Global Environmental Changes erschien.
Grundlage der Untersuchung von Arnell sind die vier Emissionsszenarien, die das IPCC in seinem vierten Sachstandsbericht zur Grundlage der Zukunftsprojektionen gemacht hat, diese werden mit den Kürzeln A1, A2, B1 und B2 beschrieben. Diese vier Szenarien enthalten jeweils unterschiedliche Annahmen über die zukünftigen ökonomischen und demographischen Entwicklungen. Auch ohne jeden Klimawandel wird die Zahl der von Wassermangel bedrohten Menschen in Afrika aufgrund der Bevölkerungszunahme bis 2025 steigen. Von heute wahrscheinlich etwa 200 Millionen (1995: 134 Mio.) auf 340 (A1, B1), 381 (A2) oder 295 Millionen (B2).
Arnell kreuzt nun diese vier ökonomischen Szenarien mit sechs Klimamodellen (die so kryptische Bezeichnungen wie HadCM3, ECHAM4 oder CSIRO aufweisen) zu 14 Kombinationen, um letztlich Auswirkungen eines potentiellen Klimawandels auf die Wasserversorgung für größere Regionen in einem ausgedehnten Zukunftsraum zu projizieren. Seine Ergebnisse findet man in Tabelle 11 und Tabelle 12 der Veröffentlichung. Die erste Tabelle enthält die Zahl an Menschen, für die sich in den Projektionen durch den angenommenen Klimawandel Dürrerisiken erhöhen könnten. Und die Extremwerte finden sich bei der Kombination von “B2″ mit “HadCM3″ als 74 bis 239 Millionen.
Bestätigt dies die Angaben im IPCC-Bericht? Mitnichten. Denn es gibt ja noch die zweite Tabelle. Wenn sich durch den Klimawandel die Niederschlagsmuster ändern, gibt es Gewinner und Verlierer. Die Anzahl der Gewinner, also der Menschen, die durch den Klimawandel im Jahr 2025 geringeren Risiken ausgesetzt sein werden, ergibt sich bei B2-HadCM3 zu 66 bis 132 Millionen. Diese Zahl wird durch das IPCC nicht kommuniziert.
Von allen 14 Projektionen weisen vier (A2-GFDL, A2-CCSR, B2-GFDL und B2-CCSR) einen positiven Nettoeffekt auf, in ihnen ist die Zahl der Betroffenen mit sinkenden Risiken in Afrika größer als die Menge der mit steigenden – immer verglichen mit einer Welt ohne Klimawandel. Am ausgeprägtesten ist hier B2-CCSR mit minus 22 Millionen. Den schlechtesten Nettowert findet man bei B2-CSIRO mit plus 200 Millionen. Dies bestätigt die von Markus Lehmkuhl gefundenen Werte. Nicht nur enthält uns das IPCC diese Zahlen vor, sie scheinen von den Wissenschaftlern nicht einmal wahrgenommen worden zu sein, wie die Replik des PIK auf Lehmkuhl belegt:

 ”Dagegen  schreibt  Lehmkuhl,  die  Arnell‐Studie  „weist  für  Afrika  aus,  dass  […]  zwischen  minus  23  und  plus  200  Millionen  Menschen  von  erhöhter  Wasserknappheit“  betroffen  wären.  Derartige  Zahlen  finden  sich  nicht  in  der  Arnell‐Studie  und  sind  laut  Aussage  von  Nigel  Arnell  wissenschaftlich  falsch.”

Ist Ihnen noch etwas aufgefallen? Richtig, Arnells Projektionen setzen im Jahr 2025 ein. Im vierten IPCC-Sachstandsbericht werden daraus die “2020s”, im zusammenfassenden Report ist man dann schon bei “bis 2020″ angekommen. Der Wunsch nach Dramatisierung ist auch spürbar in der Aufrundung der Bruttozahlen auf 75 bis 250 Millionen.    
Climategate ist der Beleg für die bei einigen Klimaforschern verbreitete Haltung, man müsse wissenschaftliche Ergebnisse politisch instrumentalisieren, um der grünen Ideologie der “Nachhaltigkeit” zum Durchbruch zu verhelfen. Die anderen “Gates” – Hurrikangate, Himalayagate und eben auch Afrikagate – verdeutlichen die Taktik der Vorgehensweise. Aus der ausgewerteten Literatur wird nur selektiv zitiert. Man übertreibt, in dem man Risiken mit konkreten Zahlenwerten belegt, immer ein wenig dramatischer, als es die für Leser der Zusammenfassungen schwer zu identifizierende Quelle vorgibt. Positive Zukunftsaussichten hingegen verbirgt man hinter unkenntlichmachenden Wortnebeln – sofern man sie überhaupt anspricht. Oft werden auch Formulierungen konstruiert, die willfährige Journalisten zu Übertreibungen einladen. Was man natürlich stillschweigend toleriert, denn es dient ja der “guten Sache”.
So nutzt Pachauri die Aussage über Afrikas Dürrerisiken bis heute in obiger Formulierung, jüngst erst zur Eröffnung der Klimakonferenz in Durban. Und in der deutschen Presse findet man dann nicht selten Übersetzungen wie diese:

“Unseren Berechnungen nach werden in Afrika bis 2020 zwischen 75 und 250 Millionen Menschen Opfer von Wassermangel, der dem Klimawandel zuzuschreiben ist”, betonte der Vorsitzende des Weltklimarats, Rajendra Pachauri. Allein die landwirtschaftlichen Erträge drohten vielerorts um 50 Prozent zu sinken.

Aus Risiken werden ganz schnell reale Tote. In nur acht Jahren und natürlich “vielerorts”. Dieser Journalist wird sicher keinen bösen Brief aus Potsdam erhalten.
P.S.: Bemerkenswert ist die Betrachtung von Arnells Tabelle 10. Hier werden die Gewinner und Verlierer des Klimawandels in den 14 Projektionen global aggregiert. Tatsächlich übersteigt nur in einer einzigen Projektion (A1-HadCM3) die Zahl der Verlierer die der Gewinner (um 180 Millionen). Alle dreizehn anderen sehen global eine teils erhebliche Verbesserung der Wasserversorgung durch den Klimawandel gegenüber einer Welt ohne diesen. In A2-ECHAM4 beträgt die Nettozahl der Profiteure gar 1,7 Milliarden. Wo im IPCC-Report findet man diese Zahl? Ich habe gar nicht erst gesucht, vielleicht kann einer der Leser weiterhelfen…
Dr. Peter Heller Science Sceptical

ÄHNLICHE BEITRÄGE (AUTOMATISCH GENERIERT):




Auswertung des Bürgerdialogs (Phase 1): Energiewende wird abgelehnt

Dies ist auch die Erwartungshaltung der Bundesregierung an die von ihr getroffenen Entscheidungen. Denn die vier Leitthesen des Bürgerdialogs zur Energiewende spiegeln diese Aussichten wieder.  In der Zeit vom 11.07. bis zum 25.08.2011 war es auf dem durch das Bundesforschungsministerium betriebenen Portal für jeden möglich, seine Meinung zu diesen Fragestellungen zu äußern:
    •    These 1 (“Speicher und Netze”): Ich trage den Ausbau der Energieinfrastruktur mit, auch wenn es bedeutet, dass in meiner Umgebung neue Stromleitungen oder Energiespeicher gebaut werden müssen.
    •    These 2 (“Brückentechnologien”): Ich halte Investitionen in neue Gas- und Kohletechnologie für notwendig, auch wenn dadurch die Klimaschutzziele in Deutschland nicht vollständig erreicht werden.
    •    These 3 (“Erneuerbare Energien”): Ich bin bereit, höhere Strompreise (ca. 3 -6 % pro Jahr bis 2020) zu zahlen, um den Ausbau der erneuerbaren Energietechnologien zu fördern.
    •    These 4 (“Energieeffizienz”): Ich halte Maßnahmen zum Energiesparen für sinnvoll, auch wenn sie mich in meinem persönlichen Lebensstil einschränken.
Neben einer formalisierten Bewertung dieser Aussagen in dem Raster “vollständige Zustimmung”, “teilweise Zustimmung”, “neutral”, “teilweise Ablehnung” und “vollständige Ablehnung” gab es auch noch die Möglichkeit, seine Haltung mit einem kurzen Kommentar zu erläutern. Unser Autor Quentin Quencher hat in mühevoller Kleinarbeit (für die ihm an dieser Stelle großer Dank und große Anerkennung auszusprechen sind) alle diese Kommentare inhaltlich ausgewertet. Es waren 2.450. Es kann leider nicht festgestellt werden, wieviele Bürger sich an dieser Befragung wirklich beteiligt haben. Eine ganze Reihe Nutzer hat alle vier Thesen kommentiert, andere haben sich nur bei einzelnen zu Wort gemeldet. Da man auch anonym schreiben durfte, können Mehrfachkommentierungen durch einzelne Personen nicht ausgeschlossen werden. Repräsentativ ist das Meinungsbild des Bürgerdialogs natürlich auch nicht. Aber es mag für die Bundesregierung eine interessante und unerwartete Erfahrung darstellen, was insgesamt zum Ausdruck gebracht wurde.

Abbildung 1: Bewertung der Leitthesen
Abbildung 1 zeigt die weit überwiegende Ablehnung der vier Thesen (die Zahlen in der Beschriftung auf der x-Achse stehen für die Gesamtzahl an Wertungen, die für die jeweilige These abgegeben wurden).   Besonders deutlich ist die Abneigung gegen eine Subventionierung der NIEs ausgeprägt.
Die These zu den Brückentechnologien verlangt eine differenzierte Betrachtung. Denn hier wird die weitere und intensivere Nutzung der Energieträger Kohle und Gas als kontraproduktiv zu den deutschen Klimaschutzbemühungen dargestellt. Was ja auch richtig ist. Da mir beispielsweise der Klimaschutz völlig gleichgültig ist, habe ich “vollständige Zustimmung” ausgewählt. Viele andere Kommentatoren haben die These allerdings genau deswegen negiert, weil sie ihre Ablehnung von Maßnahmen zur Emissionsreduzierung zum Ausdruck bringen wollten. Eine Opposition gegen Kohle- und Gaskraftwerke kann und darf man also aus diesem Antwortverhalten nicht ableiten. Durch die Fragestellung hat man es vielmehr geschafft, Klimaskeptiker, Klimaalarmisten und diejenigen, die ihre Zustimmung zur Kernkraft verdeutlichen wollten, zu einem identischen Abstimmungsverhalten anzuregen.
Betreffend These 4 ist festzuhalten, daß “Effizienzsteigerung” und “Sparen” (im Sinne der Fragestellung) nicht dasselbe sind. Dieser Irrtum wurde in sehr vielen Beiträgen thematisiert. Die überwiegende Ablehnung bezieht sich daher eindeutig auf das Sparen, das mit einer “Einschränkung des persönlichen Lebensstils” verbunden ist.
Die Nutzer des Onlinedialogs akzeptieren also die zu erwartenden Folgen der Energiewende mit großer Mehrheit nicht. Wenn man daraus Widerspruch gegen die Energiewende insgesamt ableitet, liegt man nicht falsch (Abbildung 2).


Abbildung 2: Haltung zur Energiewende insgesamt
Quentin hat alle 2.450 Kommentare daraufhin durchgearbeitet, ob man aus dem Geschriebenen die Haltung zur Energiewende insgesamt erkennen kann oder nicht. Und das Resultat ist klar und deutlich. In 62% der Kommentare werden die jüngst getroffenen Entscheidungen der Bundesregierung abgelehnt.
Es stellt sich die Frage, ob denn auch die Befürworter der Energiewende deren negative Folgen verstanden haben. Ja, sie haben (Abbildung 3). Aber sie sind bereit, diese in Kauf zu nehmen. Die Befürworter der Energiewende sind also willens, flächenverbrauchende Infrastrukturen in ihrer unmittelbaren Lebensumwelt hinzunehmen, sie akzeptieren, erheblich mehr für Strom zu bezahlen zu müssen um den Ausbau der NIEs aus eigener Tasche zu finanzieren und sie sind richtig scharf darauf, sich durch Energiesparen in ihrem persönlichen Lebensstil einzuschränken. Man kann erwarten, daß das BMBF exakt diese Botschaft in den Energiedialog hineininterpretieren wird. “Energiedialog zeigt: Bürger mit den Auswirkungen der Energiewende einverstanden” – so oder so ähnlich könnte der Tenor der offiziellen Kommunikation lauten.


Abbildung 3: Die Haltung der Befürworter
Es war eben nicht Ansinnen der Bundesregierung, durch den Bürgerdialog Zustimmung oder Ablehnung zur Energiewende insgesamt, oder auch zu einzelnen Themen wie Klimaschutz und Kernenergie in Erfahrung zu bringen. Es ging allein um die Fragestellungen, die sich innerhalb des durch die Energiewende mit beschleunigtem Ausstieg aus der Kernenergie gesetzten Rahmens stellen. Man hat die Online-Plattform also unter der Annahme gestaltet, die Bürger wären ohnehin in großer Mehrheit für den bereits gesetzlich festgelegten Umbau unserer Stromversorgung. Wichtig ist, sich zu verdeutlichen, daß dieser Umbau in Wahrheit schon lange vor Fukushima beschlossen wurde. Das Modell des Jahres 2010, das eine moderate Laufzeitverlängerung der Kernenergienutzung von 12 Jahren, einen schnellen Ausstieg aus der Verstromung von Braunkohle und Gas sowie eine erhebliche Reduzierung des Strombedarfes und eine Ausweitung der Importe vorsah, zeigt Abbildung 4. Schon damals war die Resonanz auf diese Pläne eher wenig enthusiastisch.
 

Abbildung 4: Das Energiekonzept des Jahres 2010
 
Nun hat man durch den Störfall in Japan die Chance bekommen, dieses Konzept erneut offensiv zu vermarkten, lediglich geändert durch die Vertauschung der Rollen von Kernkraft und fossilen Energieträgern. Und wieder zeigt sich: Begeisterung für diese Pläne ist kaum zu wecken. Die Befürworter der Energiewende argumentieren auch im Online-Dialog überwiegend nicht getrieben von der Aussicht auf technische und ökonomische Verbesserungen. Sondern getrieben von der Angst vor Klimakatastrophen und Radioaktivität. Die zeigt sich in ihrer Ablehnung von Kohle- und Gaskraftwerken (These “Brückentechnologien”). Strom aus Kernkraftwerken darf in ihrer Weltsicht nicht nur nicht genutzt, er darf auch nicht durch Strom aus fossilen Quellen ersetzt werden. Sie halten es für geboten, zu verzichten.
Wie sehr Furcht die Basis für die Befürworter der Energiewende darstellt, zeigt sich auch in der Abwesenheit von Ideen zur Behebung der ihr innewohnenden Probleme. Gerade mal drei Vorschläge finden sich in nachweisbarer Größenordnung in den Kommentaren (Abbildung 5). Vom “Smart Grid” erwartet man eine Verringerung der erforderlichen Produktionskapazitäten, von den “dezentralen Netzen” einen größeren Wettbewerb, der zu einem geringeren Kostenanstieg beiträgt. Und als einzige Innovation im Bereich der NIEs wird “Windgas” genannt, womit die Erzeugung von Wasserstoff oder Methan als Zwischenspeicher durch den von Windanlagen produzierten überschüssigen Strom in Zeiten geringeren Bedarfs gemeint ist.

Abbildung 5: Lösungsvorschläge in den Kommentaren
In deutlich mehr Kommentaren hingegen wurde die Kernenergie verteidigt. Hier sind sowohl diejenigen eingerechnet, die die gegenwärtige Technologie weiter nutzen wollen, als auch diejenigen, die sich von Kernkraftwerken der kommenden Generationen und insbesondere von einem neuen, auf Thorium basierendem Brennstoffkreislauf, erhebliche Vorteile versprechen.
Der Bürgerdialog wurde genutzt, um Fragen zu beantworten, die nicht gestellt wurden. Die Nutzer haben ihre Ablehnung der Energiewende und ihre Befürwortung der Kernenergie sehr deutlich artikuliert. Wer nun erwartet hatte, die Macher der Online-Plattform hätten dies in der nun begonnenen zweiten Phase berücksichtigt, wurde enttäuscht. Nun sollen nicht mehr die Risiken, sondern die Chancen und Möglichkeiten diskutiert werden und bei den vorgegebenen Ideen wurde das Ergebnis der ersten Phase schlicht ignoriert.
Es nützt nichts. Einmal mehr agieren die befragten Bürger anders, als von der Bundesregierung intendiert. Mit “Kostenverteilung nach Verursacherprinzip“, “neue Reaktoren“, “AKW Laufzeit verlängern” und “Subventionen abschaffen” erhalten vier von Bürgern zusätzlich eingebrachte Vorschläge derzeit den meisten Zuspruch. Vorschläge, durch deren Umsetzung die Energiewende verhindert würde.
Dr. Peter Heller; zuerst erschienen auf Science Sceptical hier




Vom Wert der Klima-Prognosen: Nicht heiß genug, nicht kalt genug…

Viele Menschen aber können nicht mehr einfach nur genießen. Sie unterliegen dem Zwang der Suche nach dem Negativen. Und so verwundert es nicht, wenn die Klimaalarmisten die Temperaturen in Deutschland als Vehikel benutzen, um landauf landab auf die „globalen Temperaturrekorde“ hinzuweisen. Rekorde oder zumindest rekordverdächtige Werte, die sich beispielsweise aus den Berechnungen des NASA Goddard Institute for Space Studies (NASA-GISS) ableiten lassen. Und natürlich werden uns diese Daten in allen möglichen Blogbeiträgen, Zeitungsartikeln und Fernsehberichten als Menetekel verkauft. Als – je nach Formulierung – Beweis oder zumindest Indiz für die fortschreitende globale Erwärmung, die zwangsläufig in die Katastrophe führt.

Stefan Rahmstorf beispielsweise findet es heiß. In seinem jüngsten Text läßt er die Interpretation der Temperaturkurve zwar geschickt offen, aber es ist deutlich, was er seinen Lesern sagen möchte. Auch er weiß: Globale oder gar lokale Temperaturrekorde sind kein Beweis für eine menschgemachte, katastrophale Erderwärmung. Aber wenn es eine solche gäbe, wären entsprechende Werte zu erwarten. Da man nun solche Daten mißt, berechnet und in Deutschland Wärme auch wirklich wieder spüren kann, ist der Indizienbeweis perfekt.

Nein, ist er nicht. Denn dafür ist es schlicht und ergreifend noch immer nicht heiß genug.

Die Prognose der globalen Temperaturanomalie

Auf die Differenz zwischen Szenario und Prognose bin ich hier bereits ausführlich eingegangen. Ein Szenario ist nicht deswegen gut, weil es eine hohe Eintrittswahrscheinlichkeit hätte. Vielmehr werden Szenarien und Projektionen genau nicht unter der Berücksichtigung von Wahrscheinlichkeiten erstellt. Ein Szenario ist genau dann sinnvoll, wenn es grundsätzlich möglich und in sich widerspruchsfrei (konsistent) ist.  Das IPCC wird aus meiner Sicht genau deswegen zu Recht kritisiert, weil es aus all den denkbaren Szenarien für die Zukunft unserer klimatischen Bedingungen nur eine Teilmenge auswählt und damit eine bestimmte Richtung der Berichterstattung forciert. In der dann die feine, aber wichtige Unterscheidung zwischen Projektion („projection“) und Prognose („prediction“) genau nicht mehr vorgenommen wird.

Bild 1: Langzeittrend und Prognose

Eine Vorhersage, die ohne zusätzliche Annahmen der Veränderung von Einflußfaktoren auskommt, besteht immer in der Fortschreibung eines als stabil erkannten Trends. Und wenn man sich die Entwicklung der mittleren globalen Temperaturanomalie nach den Daten der NASA anschaut, so kann man einen solchen Trend tatsächlich ableiten. Er ist in erster Näherung linear und bedeutet einen Temperaturanstieg um etwa 0,6° pro Jahrhundert. Die Stabilität dieses Trends ergibt sich (neben den üblichen statistischen Tests) auch daraus, daß die Wissenschaftler in früheren Jahrzehnten ihn in ähnlicher Größenordnung hätten ableiten können (Bild 1).

Zur Klarstellung: Dieser Trend ist vereinbar mit der Annahme einer Erwärmung durch die anthropogenen Kohlendioxid-Emissionen. Aber „Vereinbarkeit“ bedeutet noch lange nicht „Beweis einer Kausalität“. Es sind vielmehr eine Menge Prozesse denkbar, die einen solchen Trend begründen können.   Und im Zusammenhang mit der aktuellen Debatte über das rekordverdächtig heiße Jahr 2010 ist außerdem zu beachten:

Wenn alles so weitergeht, wie bisher, wenn dieser Trend also weiterhin stabil bleibt, droht uns keine Klimakatastrophe. Sondern vielmehr eine weitere Erwärmung bis zum Ende des Jahrhunderts um lediglich etwa 0,5 Grad.

  • Die Größenordnung von Zehntelgraden, in der sich das Jahr 2010 global möglicherweise um einen Rekord mit anderen Jahren streitet, ist für den Trend belanglos. Die Prognose bleibt stabil, auch wenn 2010 „das global wärmste Jahr seit Beginn der Aufzeichnungen“ werden würde.

  • Der stabile Langzeittrend beinhaltet immer wärmere Jahre und immer neue Rekorde in den Messungen und Berechnungen der mittleren globalen Temperaturanomalie. Auch Aussagen wie „von den zehn wärmsten Jahren bisher lagen 8 in der letzten Dekade“ werden immer wieder möglich sein. Und sind genau kein Beleg für den unaufhaltsamen Schritt in den Abgrund.

    Im Gegenteil: Wenn alles so weitergeht wie bisher, ist dies eher ein Indiz für das Ausbleiben der Katastrophe. Weil die Erwärmungsrate schlicht nicht ausreicht, eine Prognose in Richtung extremer Klimaveränderungen bis zum Ende des Jahrhunderts zu rechtfertigen. Es ist zwar heiß in Deutschland, im Moment, und es mag warm sein auf der Welt im Durchschnitt, aber es ist immer noch nicht heiß genug.

    Die Latif-Prognose

    Mojib Latif sieht das anders. Und verwendet die Bild-Zeitung, um seine Botschaft möglichst weit zu streuen. Die ihn aus lauter Dankbarkeit für so viel Ehre auch gleich zu „Deutschlands bestem Klimaforscher“ ernennt. Und so lautet seine Prognose:

    „Was wir jetzt erleben, ist erst der Anfang. Bis zum Ende des Jahrhunderts werden die Temperaturen – wenn nichts geschieht – um fünf bis sechs Grad steigen.”  

    Er bezieht sich mit diesen Werten wohl auf die apokalyptischen Szenarien des IPCC. Um zu sehen, wie sich die Latif-Prognose im Verhältnis zum stabilen Langzeittrend verhält, ist in obiger Abbildung der Maßstab zu ändern. Und natürlich beinhalten die IPCC-Szenarien keinen linearen Anstieg. Aber zur Vereinfachung des Verständnisses ist ein solcher in der Zeichnung angesetzt. Zumal er der einfachste Weg ist, auf dem Latifs Prognose erreicht werden könnte. Jeder andere Verlauf würde Phasen mit einem noch höheren und schnelleren Temperaturanstieg erfordern (Bild 2).

    Bild 2: Der Langzeittrend und die Latifprognose

    Man erkennt, wie stark Latifs Prognose von dem Langzeittrend seit Beginn der Aufzeichnungen abweicht. Es gibt keine Datengrundlage, die eine solche Vorhersage rechtfertigen würde. Was Latif nicht  davon abhält, regional gleich noch aufzusatteln:

    „Dann reden wir im Sommer von Hitzewellen mit fast 50 Grad hier in Deutschland.“  

    Damit verläßt er dann auch noch den Boden der IPCC-Szenarien. Jedenfalls steht diese Prognose in einem gewissen Widerspruch zu den Botschaften des “regionalen Klimaatlas Deutschland“, der auf den auch durch das IPCC zitierten Modellrechnungen basiert. Und: Betrachtet man die dortigen Prognosen zu Themen wie “heiße Tage” und “tropische Nächte”, so scheint uns dieser Sommer tatsächlich einen Vorgeschmack darüber zu geben, was wir von der Klimakatastrophe bemerken werden: Nichts.

    Meine damalige Einschätzung einer höheren Zahl an “heißen Tagen” als “Risiko” muß ich jedenfalls nach den aktuellen Erfahrungen wieder zurücknehmen. Und komme zu dem Schluß: „Wenn nichts geschieht“ – Herr Latif – geschieht genau das: Nichts. Und wenn 2010 ein Rekordjahr wird – ob global, ob in Deutschland – ist eben immer noch nichts geschehen, was auf die Apokalypse hinweist.

    mit Dank an Peter Heller von Science Sceptical

    ÄHNLICHE BEITRÄGE (BETA):