Nach über 20 jähriger Forschung: IPCC kann Stillstand der globalen Erwärmung nicht erklären

Bild rechts: © Spiegel Online

Das IPCC beschlossen, den seit 1997 anhaltenden Stillstand als irrelevant einzustufen. Außerdem hat es die ursprünglich eingeräumte Aussage (in der Version vom 7. Juni) aus der Endfassung entfernt, wonach die Modelle es nicht vermocht haben, ‚die beobachtete Reduktion des Erwärmungstrends während der letzten 10 bis 15 Jahre zu reproduzieren’.

Nicht nur, dass das IPCC den anhaltenden Temperatur-Stillstand nicht vorhergesagt hat, sondern auch, dass seine Klimamodelle tatsächlich eine beschleunigte Erwärmung simuliert hatten infolge der zunehmenden CO2-Emissionen.

Anstatt empirische Fakten und wachsende Unsicherheiten einzuräumen, versucht das IPCC, die Aufmerksamkeit von diesen Dingen abzulenken, indem es von einer zunehmenden Sicherheit bzgl. der Verlässlichkeit der Klimamodelle und ihrer Ergebnisse spricht.

„Heute hat das IPCC ein gewaltiges Lotteriespiel begonnen, das schon bald darüber bestimmen wird, ob es immer noch zielführend ist. Sollten die Temperaturen auch während der nächsten Jahre nicht wieder zu steigen anfangen, wird das IPCC sehr wahrscheinlich existenziell an Glaubwürdigkeit einbüßen“, sagte Benny Peiser, Direktor der GWPF.

Link: http://wattsupwiththat.com/2013/09/27/ipcc-fails-to-come-clean-over-global-temperature-standstill/

Übersetzt von Chris Frey EIKE




Im AR 5 des IPCC werden die Forderungen an die Regierungen wiederholt, die Katze im Sack zu kaufen

Vier mal schon haben sie Regierungen und die Medien zum Narren gehalten [wobei diese sich offenbar nur zu gerne zum Narren gemacht haben, A. d. Übers.]. Und jetzt bieten sie diesbezüglich im Zustandsbericht Nr. 5 einen neuen Schub an, aber mit einer Gewissheit von 95% ist es keine Katze, sondern ein Schwein. Und dies trotz der Tatsache, dass die Katze bereits aus dem Sack herausgesprungen ist. Ihre Vorhersagen waren falsch. Seit 17 Jahren sind die globalen Temperaturen zurückgegangen, während der CO2-Gehalt gestiegen ist. Das Arktische Eis im Sommer, das vermeintlich im Jahre 2013 komplett verschwunden sein sollte, hat innerhalb nur eines Jahres um 60% zugelegt. Extremwetter hat nicht zugenommen. Schäden durch politische Maßnahmen sind bereits zuhauf eingetreten. Die Berichterstattung in den Medien hat dramatisch abgenommen, da die Menschen Probleme fühlen, selbst wenn sie sie nicht verstehen (Abbildung oben rechts). Die Abnahme begann nach der Spitze durch den Propagandafilm von Al Gore An Inconvenient Truth (AIT).

Anstatt den Fehler zuzugeben, (versucht) das IPCC zu verteidigen, was nicht zu verteidigen ist. Dies allein verlangt schon nach der Auflösung der Agentur.

Sie sind in die Ecke ihrer eigenen Entwicklung gedrängt. Sie fertigten den Sack durch eine Organisation, einen Prozess und Computermodelle, die ihre Behauptung stützen sollten. Jetzt wissen wir, dass er eine Katze enthielt. Noch ängstigender für sie ist, dass die Öffentlichkeit einschließlich Regierungen Fragen an sie stellt. Eine Zusammenstellung deutscher Wissenschaftler von 65 Klimamodellen zeigt, dass sie allesamt den Stillstand der Temperatur nicht simulieren konnten, was jetzt Regierungen in der EU und den USA dazu gebracht hat, Fragen zu stellen.

„Durchgesickerte Dokumente zeigen, dass Abgesandte der USA und der EU mehr Klarheit von den UN zur Verlangsamung der globalen Erwärmung verlangen, die Klimaskeptiker bereits als Grund angeführt haben, nicht in ‚Panik’ zu geraten über Umweltänderungen“.

Sollte das IPCC dies zugeben, würde ihr Betrug bloßgestellt. Darin enthalten sind das Ignorieren der wissenschaftlichen Methode, die Änderung der Terminologie mit dem Übergang vom Begriff globale Erwärmung zum Begriff Klimaänderung und das Fluten der Medien mit irreführenden Geschichten über Zusammenhänge zwischen natürlichen Ereignissen und ihrer Behauptungen. AR 5 zeigt, dass das IPCC beschlossen hat, ihre Täuschungen nicht zuzugeben. Man stelle sich vor, welches Problem sich da für Regierungen auftut hinsichtlich der Entscheidungen über Investitionen.

Würden Sie Zeit, Geld und politisches Kapital investieren, um Maßnahmen im globalen Maßstab durchzuführen, die auf 23 Jahre langen falschen Prognosen beruhen?

Würden Sie aktiv werden, wenn die wenigen Länder und Regionen, die die vorgeschlagenen Maßnahmen hinsichtlich grüner Jobs und alternativer Energie auch durchführen, beweisen, dass es nicht funktioniert?

Würden Sie überhaupt zuhören, wenn Sie erfahren:

● Die IPCC-Forschungen zur globalen Erwärmung/Klimaänderung wurden willkürlich per Definition darauf eingeengt, Gründe nur beim Menschen zu suchen.

● Man kann menschliche Ursachen nicht bestimmen, wenn man die natürlichen Ursachen nicht kennt oder nicht versteht.

● Die Forderungen nach politischen Maßnahmen basierten auf ungeprüften Hypothesen

● Die wissenschaftliche Standard-Methode und Austesten der Hypothese wurden ignoriert.

● Computermodelle wurden so programmiert, dass sie das gewünschte Ergebnis liefern

● Alle Vorhersagen für 23 Jahre im Voraus waren falsch.

● Nach fünf Jahren haben sie nicht mehr von Vorhersagen, sondern von Projektionen gesprochen.

● Projektionen wurden für niedrige, mittlere und hohe Szenarien [bzgl. CO2] erzeugt. Selbst die niedrigen Projektionen lagen immer noch viel höher als das, was tatsächlich eingetreten ist.

● Ihre Behauptungen über eine zunehmende Zahl von Extremwetterereignissen haben sich als falsch herausgestellt.

● Die Behauptungen bzgl. des Anstiegs des Meeresspiegels waren falsch.

● Die tatsächlichen Aufzeichnungen zeigen, dass die Temperatur seit 1998 gleich geblieben oder sogar etwas gefallen ist – trotz des Anstiegs des CO2-Gehaltes.

● Anstatt zuzugeben, dass ihre Hypothese falsch war und sie zu korrigieren oder zurückzuweisen, wie es der wissenschaftlichen Methode entspricht, haben sie die Bezeichnung globale Erwärmung durch die Bezeichnung Klimaänderung ersetzt.

● Anstatt zuzugeben, dass die Behauptung einer Sicherheit über 90% dafür, dass anthropogenes CO2 die Ursache war, falsch war, haben sie die Behauptung auf eine Sicherheit von 95% hochgeschraubt.

Würden Sie in einen Plan investieren, der nur aufgrund eines Berichtes erstellt worden ist, in dem aus freien Stücken tatsächliche Ergebnisse übertrieben und verzerrt werden? Ihre wissenschaftlichen Berichte räumen all die ernsten Grenzen ihres Wissens über Klima und Klimaänderung ein. Die ernsten Grenzen ihrer Klimamodelle wurden einzeln aufgelistet. Allerdings wissen sie ganz genau, dass die meisten Menschen das gar nicht lesen oder nicht verstehen. Nur für den Fall, dass sie das doch tun, veröffentlichen sie einen zusammen geschusterten Bericht mit der Bezeichnung Summary for Policymakers (SPM), und zwar Monate vor Veröffentlichung des eigentlichen Berichtes.

Der IPCC-Expertenbegutachter David Wojick erklärt:

…Was im SPM systematisch ausgelassen wird, ist die Benennung genau jener Unsicherheiten und positiven Gegenbeweise, die die Theorie des menschlichen Einflusses negieren könnten. Anstatt sich zu diesen Schwächen zu bekennen, nennt die Summary lediglich die Ergebnisse, die sie stützen. Kurz gesagt, das ist Interessenwerbung und keine Zustandsbeschreibung.

Das IPCC hat schon viermal die Katze im Sack verkauft, und zwar in den Jahren 1990, 1995, 2001 und 2007. Verzerrungen, Schwindeleien und freiwillig verfälschte Daten wurden verwendet. Das infamste Stück dieser Art war der „Hockeyschläger“, der buchstäblich die Klimahistorie umgeschrieben hat und im Bericht aus dem Jahr 2001 erschienen war. Korruption war in den Klimagate-E-Mails aus der Climate Research Unit (CRU) bekannt geworden, deren Mitarbeiter das IPCC dominiert haben.

Es ist geplant, die SPM des AR 5 auf einer Tagung in Stockholm Ende September zu genehmigen und kurz danach zu veröffentlichen. Wenn Sie in Versuchung sind zu kaufen, betrachten Sie den Kommentar des deutschen Physikers und Meteorologen Klaus-Eckart Puls, der die Katze im Sack des IPCC so kommentiert hat:

„Bis vor zehn Jahren habe auch ich ungeprüft nachgeplappert, was der Klimarat IPCC uns so erzählt. Irgendwann dann habe ich angefangen, die Behauptungen nachzuprüfen. Das Ergebnis: Es begann mit Zweifeln  und mündete dann in Entsetzen und in der Erkenntnis, dass ganz viel von dem, was das IPCC und die medien bezüglich des Klimawandels sagen, nicht stimmt und gar nicht durch naturwissenschaftliche Fakten gedeckt ist. Für das, was ich früher als Naturwissenschaftler ungeprüft auch in eigenen Vorträgen ‚nach-erzählt‘ habe, dafür schäme ich mich heute.“*

[*O-Ton Puls! Keine Rückübersetzung! Der Link zum vollständigen Interview mit Herrn Puls:  hier bei EIKE]

Es ist an der Zeit für globale Empörung und in die Verantwortung nehmen!

Link: http://wattsupwiththat.com/2013/09/13/ipcc-ar5-renews-demands-for-governments-buy-their-climate-change-pig-in-a-poke/#more-93778

Übersetzt von Chris Frey




Globale Folgen der Schiefergas-Revolution: „schielen um die Ecke”

Eines der auf der Sitzung angesprochenen Themen wird Schiefergas sein. Mr. Newton zufolge ist noch nicht klar, dass die „Schiefergas-Revolution“ in Nordamerika die globalen Erdgasmärkte durcheinander wirbeln wird.

 „Die Auswirkungen schielen, um ein Sprichwort zu gebrauchen, vielleicht schon um die Ecke”, witzelte er und fügte hinzu: „Mit Sicherheit wird Schiefergas sehr große Auswirkungen auf die amerikanischen Energiemärkte haben, obwohl wir jedoch während der letzten Monate, vielleicht ziemlich überraschend, den Unterschied [the differential] von 20 Dollar gesehen haben, den es während der letzten Jahre zwischen NYMEX und Brent gegeben hat, wobei sich zahlreiche Infrastruktur-Ereignisse in den USA ereignet haben, das heißt mehr Ölerzeugnisse verlassen die USA“.

Inzwischen, sagt er, bleibt der gewaltige Preisunterschied für Erdgas bestehen, und erklärt weiter: „Als ich das letzte Mal bei Henry Hub Wholesale schaute, zahlte man um die 3,50 Dollar /TCF [TCF = Thousand Cubic Feet?]. Das steht in starkem Kontrast zu Mitte 2008, als man dafür etwa 10,50 Dollar zahlen musste“.

Während er einräumt, dass die Öl- und Gaspreise zu jener Zeit rekordhoch waren, stellten diese Preise eine deutliche Wegmarke dar, wenn man Faktoren wie die Wettbewerbsfähigkeit der USA in Betracht zieht, vor allem hinsichtlich der Energie- und der Chemieindustrie.

Ihm zufolge könnte sich wirklich alles ändern, falls die USA mehr Lizenzen vergeben, um sein unkonventionelles Gas zu exportieren. Inzwischen dürften die niedrigen Erdgaspreise dort wahrscheinlich nicht so niedrig bleiben.

„Es ist keineswegs klar, ob es besonders ökonomisch ist, es für 3,50 Dollar aus dem Boden zu holen”, kommentiert er. „Das ist der Grund, warum wir in den letzten eineinhalb Jahren ein viel größeres Interesse an herkömmlichem Öl [tight oil] als an Schiefergas gesehen haben, welches einen starken Auftritt in der Ölerzeugung der USA hatte – Ich denke an 190000 Barrel pro Tag, das ist nicht alles tight oil, aber man kann erkennen, dass jene Ölreserven kommerziell zunehmend attraktiv aussehen, wenn der Preis auf diesem Niveau verharrt“.

Aber immer noch, sagt er, ist es unwahrscheinlich, dass die Preise auf  den niedrigen Stand wie vor einem Jahrzehnt fallen werden. Aber wie wahrscheinlich ist es Mr. Newton zufolge, dass sich die Schiefergas-Revolution in anderen Gebieten der Welt wiederholt?

„Technisch gesehen wartet das Zeug nicht einfach darauf, aus dem Boden geholt zu werden. Nach meinem Verständnis hat jedes Feld seine eigenen Charakteristika, und das bedeutet, dass eine Technologie, die auf einem Feld wunderbar funktioniert, auf einem anderen Feld stark überarbeitet werden muss, um dort ebenfalls zu funktionieren.

Zweitens, Amerika ist signifikant führend hinsichtlich der Erfahrungen mit Technologien, mit denen man unkonventionelles Gas und Öl extrahieren kann, und wahrscheinlich dauert es eine Weile, bis man in der restlichen Welt auch diese Erfahrungen gesammelt hat – es sei denn, sie können die amerikanische Technologie importieren“, fügt er hinzu.

Drittens unterstreicht er, dass dies nicht allein eine USA-Angelegenheit ist, sondern eine in ganz Nordamerika. „Schaut man sich Projektionen der Selbstversorgung bzgl. Energie an einem ‚Tag X’ an, scheint es so, als könnten die USA bis zum Jahr 2035 energie-unabhängig werden, aber für Nordamerika könnte es schon früher soweit sein, vor allem, wenn der mexikanische Präsident Enrique Peña Nieto damit Erfolg hat, im mexikanischen Energiemarkt eine signifikante Liberalisierung einzuführen und ausländische Investitionen ins Land zu holen. Dies wäre notwendig zur Ausbeutung der mexikanischen Schiefergasreserven. Schätzungen der EIA zufolge belaufen sich diese Reserven auf die sechstgrößte Menge weltweit; wenn man bedenkt, dass die kanadischen Reserven an 5. und die USA an 4. Stelle stehen, unterstreicht dies, dass das ganze Thema ein nordamerikanisches ist und nicht eines der USA allein“.

Während Mr. Newton es für realistisch hält, dass Nordamerika in der Lage sein wird, große Mengen unkonventionellen Gases in die ganze Welt zu exportieren, verweist er auf die politischen Hindernisse. „Einige Lobbyisten argumentieren, dass die USA das Gas für sich selbst behalten sollten, das Öl noch viel mehr. Man braucht eine Lizenz des US-Energieministeriums, um Öl und Gas zu exportieren, und von denen wurden während der letzten Jahre nicht allzu viele ausgestellt.

„Es gibt klare Anzeichen, dass sich die USA dem Export immer weiter nähern, und das erste Ziel wird meiner Einschätzung nach Japan sein: Schon jetzt gibt es Verträge über japanische Investitionen in Flüssiggas (LNG) mit dem Ziel, Gas dorthin zu verschiffen, und es wäre für mich überhaupt keine Überraschung, ein sauber ausgehandeltes Rahmenabkommen zwischen den USA und dem über wenig Energie verfügenden Japan zu sehen. Man zahlt dort derzeit Preise für Gas, die signifikant über dem Marktraten liegen“.

Er verweist auf die diplomatischen Bemühungen Japans, mit Russland ins Gespräch zu kommen, um die gegenwärtig fehlende Energiesicherheit in Japan zu stärken. Hier wirken sich die Schwierigkeiten aus, die japanischen Kernkraftwerke nach Fukushima wieder anzufahren.

Mittlerweile macht Mr. Newton die Entwicklung von Schiefergas in China geltend, was die Energieszene im Nahen Osten, wenn nicht in ganz Asien grundlegend verändern könnte. Er stellt fest: „Die EIA schätzt, dass China über die größten Schiefergas-Reserven der Welt verfügt: über 1000 BCF [= Milliarden Kubikfuß]. Bislang war man in China nicht sehr erfolgreich damit, das Zeug aus dem Boden zu holen, aber ich denke, wir sollten nicht die Fähigkeit Chinas unterschätzen, dieses Problem auf die eine oder andere Weise rasch zu lösen“.

Mr. Newton erinnert daran, dass er und einer seiner Kollegen im Jahr 2001 vorhergesagt hatten, dass Energiesicherheit in China oberste Priorität sei, zumindest für die folgende Dekade.

 „Wir haben nur teilweise recht gehabt”, räumt er ein, „weil wir einen etwas zu engen Blickwinkel hatten. Realität ist, dass die wirtschaftliche Sicherheit – damit meine ich Energie, Rohstoffe und Nahrungsmittel – Chinas oberste Priorität hinsichtlich seiner Außenpolitik ist. Aber Energiesicherheit ist unabdingbar notwendig, um Chinas Wachstums-Maschinerie zu füttern, und das wird auch so bleiben, auch wenn die Wirtschaft im Verlauf des nächsten Jahrzehnts deutlich weniger energieintensiv wird“.

Die heimische Energiegewinnung hat angesichts schwindender konventioneller Ölreserven sehr hohe Priorität für das Land, vor allem auch, weil man sich saubereren Energiequellen zuwenden möchte als Öl oder Kohle.

Mr. Newton sagt, dass er viel von dem Argument hält, wonach die rasante Zunahme von Erdgasreserven die weitere Verbreitung von Erneuerbaren verlangsamen wird. „Nichtsdestotrotz stecken wir derzeit noch in einer auf Kohlenstoff basierenden globalen Ökonomie, und da muss man akzeptieren, dass Gas sauberer ist als Öl oder Kohle“.

Gefragt nach dem Nachhall des Gefühls, dass Erdgas die sauberste Kohlenstoff-Energiequelle ist, erwidert er, dass das davon abhänge, mit wem man redet. „Es gab jüngst einen Artikel in der FT über die Haltung der britischen Regierung zu Schiefer. Aber er bewirkte nicht viel, erlaubte er es doch im Grunde der Anti-Schiefer-Bewegung, die Medien mit ihren Botschaften zu dominieren. Es wird immer irgendwelche Neinsager geben, und es ist Sache der anderen, diese zu neutralisieren“.

Hinsichtlich der geopolitischen Lage Europas sagt Mr. Newton, dass ihn die Zusammenhanglosigkeit hinsichtlich Energie immer wieder überrasche. Als Beispiel führt er Deutschland an. Lange Zeit stand das Land an vorderster Front der Befürwortung erneuerbarer Energie, aber nach dem Unfall in Fukushima hat sich die Regierung entschlossen, sich aus der Kernkraft zurückzuziehen. „Und es scheint, als ob Deutschland als Folge davon in absehbarer Zukunft immer abhängiger von Kohle werde. Außerdem, den Deutschen vorzuschlagen, etwas Dramatisches hinsichtlich ihrer Autoabgase zu unternehmen ist in etwa so, als würde man die Amerikaner auffordern, das Recht zum Tragen von Waffen aufzugeben“.

Genauso verworren ist die Politik des Kontinents hinsichtlich Schiefer. Frankreich und Belgien haben Fracking verboten, Polen und UK sind nach wie vor enthusiastisch. „Obwohl die Polen in technische Schwierigkeiten geraten sind“.

Aber wird Europa von den russischen Erdgasquellen abhängig bleiben, und falls nicht, wohin wird das Gas strömen?

„Das oberste Problem Russlands ist, dass es tatsächlich derzeit nicht sehr viel neues Gas aus dem Boden holt. Eine große Zahl existierender Gasfelder leert sich. Zweitens, derzeit fehlen Russland sehr viele Kapazitäten durch Pipelines in Richtung Osten; drittens, bei allem Respekt der Bemühungen von Japans Premierminister Shinzo Abe, die Option offenzuhalten, von Russland Gas zu kaufen, lautet die Lektion der vergangenen Jahre, dass Russland als Versorger nicht so zuverlässig ist wie zu Sowjetzeiten, als die Gashähne praktisch niemals zugedreht worden waren. Es gibt also immer Fragezeichen“.

Inzwischen war China eifrig damit beschäftigt, starke Beziehungen mit anderen Gasversorgern in Mittelasien zu knüpfen. Beispielhaft hierfür stehen die aus Turkmenistan herausführenden Pipelines.

„Das nützt mit Sicherheit auch den mittelasiatischen Republiken, die nicht komplett von Russland als Transitkorridor abhängig sein wollen“, sagt Newton zum Schluss. Viel wahrscheinlicher sei es, dass nichtrussische Gasquellen in Ost- und Südostasien in den Brennpunkt rücken.

Link: http://www.naturalgaseurope.com/shale-gas-revolution-still-in-the-pipeline

Übersetzt von Chris Frey EIKE




Die ‚unbequeme Wahrheit’ für das IPCC – Stillstand der globalen Erwärmung seit über 15 Jahren

Hier folgen die wesentlichen von mir in dem Op-Ed angesprochenen Punkte:

Die Veröffentlichung des 4. Zustandsberichtes des IPCC wurde international mit Beifall aufgenommen. Der vielgerühmte IPCC-Prozess – eine Heerschar von Experten aus über 100 Ländern hat vier Jahre lang daran gearbeitet, tausende in Journalen veröffentlichte Artikel untersucht, mit hunderten von Experten-Begutachtern – hat die Autorität des IPCC auf fast biblische Höhen gehoben. Journalisten sprangen auf den Zug auf, und selbst Öl- und Gas-Unternehmen standen dicht vor der Kapitulation. Die Verehrung gipfelte im Friedensnobelpreis, der dem IPCC zusammen mit Al Gore verliehen worden ist. Zu jener Zeit bin auch ich dem Konsens beigetreten, dieses Dokument als richtungweisend zu unterstützen: ich bin dem Motto gefolgt: „Vertraue nicht dem, was ein einzelner Wissenschaftler sagt; sondern vertraue vielmehr dem einen Konsens bildenden Prozess der IPCC-Experten“.

Sechseinhalb Jahre später und eine Woche vor Veröffentlichung des 5. Zustandsberichtes (AR 5) wurde substantielle Kritik an durchgesickerten Versionen des Berichtes geübt, ebenso wie am IPCC-Prozess selbst. IPCC-Insider beklagen den Verlust ihres wissenschaftlichen und politischen Einflusses. Was war geschehen?

Das IPCC war ernsthaft angeschlagen nach der unautorisierten Veröffentlichung von E-Mails von der University of East Anglia im November 2009, bekannt unter der Bezeichnung Klimagate. In diesen E-Mails wurde der ‚Schacher’ im Konsens bildenden IPCC-Prozess enthüllt, einschließlich der Verhinderung, die Daten Personen zugänglich zu machen, die die Verarbeitung der Daten und die wissenschaftlichen Ergebnisse überprüfen wollten; Einmischung in den Begutachtungsprozess, um den Einfluss skeptischer Kritiken zu minimieren sowie Manipulation der Medien. Dem Klimagate-Skandal folgte rasch die Identifizierung eines ungeheuerlichen Fehlers hinsichtlich des Abschmelzens der Himalaya-Gletscher. Die Auswirkungen dieser Enthüllungen wurden noch erheblich verschlimmert durch die tatsächliche Reaktion des IPCC auf diese Dinge. Dann gab es Geraune über das Verhalten von IPCC-Chef Rajendra Pachauri und durch Untersuchungen der Infiltration durch grüne Aktivistengruppen in das IPCC. All das geschah vor dem Hintergrund der expliziten Befürwortung und des Aktivismus seitens der IPCC-Führer hinsichtlich politischer Maßnahmen zur Abschwächung des CO2-Einflusses.

Das IPCC scheint die kumulativen Auswirkungen dieser Ereignisse nicht zu verstehen, und zwar hinsichtlich des Vertrauensverlustes in die Klimawissenschaftler und des IPCC-Prozesses selbst. Der einen Konsens bildende IPCC-Prozess hängt sehr stark von der Beurteilung durch Experten ab; wenn die Öffentlichkeit und die Politik diesen besonderen Experten nicht mehr vertraut, kann man von einem sehr unterschiedlichen Echo bei der Veröffentlichung von AR5 verglichen mit dem AR 4 ausgehen.

Aber das IPCC steht auch noch vor einem anderen, noch ärgerlicheren Dilemma. Seit der Veröffentlichung des AR 4 hat die Natur das IPCC vorgeführt – es gab keine signifikante Zunahme der globalen Mitteltemperatur seit über 15 Jahren.

Basierend auf frühen Versionen des AR 5 scheint das IPCC darauf vorbereitet, den Stillstand der Erwärmung als irrelevantes ‚Rauschen’ in Verbindung mit der natürlichen Variabilität abzutun. Unter Druck räumt das IPCC den Stillstand jetzt ein und gibt zu, dass die Klimamodelle diesen nicht vorhergesagt haben. Das IPCC konnte nicht überzeugend den Stillstand erklären hinsichtlich externer Strahlungsantriebe durch Treibhausgase, Aerosole, solare oder vulkanische Antriebe; und das bedeutet, dass die natürliche innere Variabilität als der vorherrschende Anwärter zur Erklärung des Stillstands übrig bleibt. Falls das IPCC den Stillstand der inneren natürlichen Variabilität zuschreibt, wirft es die Frage auf, bis zu welchem Ausmaß die Erwärmung von 1975 bis 2000 ebenfalls durch die interne natürliche Variabilität erklärt werden kann. Nicht zu erwähnen, drängender werdende Fragen über das Vertrauen zu stellen, dass wir den IPCC-Projektionen der zukünftigen Klimaentwicklung entgegen bringen sollten.

Nichtsdestotrotz scheint das IPCC zu dem Ergebnis zu kommen, dass die Erwärmung in naher Zukunft wieder einsetzen wird in Übereinstimmung mit den Vorhersagen der Klimamodelle.

Warum sehe ich die Auswirkungen des Stillstands hinsichtlich der Zuordnung der Erwärmung zum Ende des 20. Jahrhunderts und deren Implikationen für die zukünftige Erwärmung so ganz anders als das IPCC? Diese unterschiedliche Bewertung erwächst aus der unterschiedlichen Einschätzung und der Wichtigkeit bestimmter Klassen von Beweisen ebenso wie der Einbindung dieser Beweise in das gesamte Rahmenwerk – meine Begründung fußt sehr stark auf beobachteten Beweisen und dem Verständnis der inneren natürlichen Variabilität des Klimasystems, während das IPCC seine Aussagen sehr stark auf Klimamodell-Simulationen und externer Antriebe der Klimaänderung stützt.

Wissenschaftler müssen keinen Konsens erreichen, um geachtet zu werden. Die Achtung beruht auf der Glaubwürdigkeit der Argumente, die eine explizite Darstellung der Unsicherheiten und der Mehrdeutigkeiten enthalten muss ebenso wie mehr Offenheit gegenüber Andersdenkenden. Ich habe verlangt, dass der nach Konsens strebende wissenschaftliche Prozess aufgegeben wird zugunsten einer traditionelleren Begutachtung, die Argumente für und wider präsentiert, die Unsicherheiten diskutiert und auf Spekulationen über die bekannten und unbekannten Unbekannten eingeht. [the unkown unknowns]

Die wachsenden Implikationen des vertrackten Problems der Klimaänderung werden immer offensichtlicher. Lassen Sie uns das Streben nach einem wissenschaftlichen Konsens aufgeben und durch offene Debatten und Diskussionen einer großen Bandbreite politischer Optionen ersetzen, die lokale und regionale Lösungen hinsichtlich des vielschichtigen und miteinander in Verbindung stehenden Dinge der Klimaänderung enthält.

Link: http://judithcurry.com/2013/09/20/the-ipccs-inconvenient-truth/

Übersetzt von Chris Frey EIKE




LNT – Panikmache im wissenschaftlichen Gewand Atomangst – der lange Schatten eines Diktators

Zu den entscheidenden Befürchtungen, welche die Atomkraftgegner in der Bevölkerung ständig schüren, gehören die Angst vor Krebs sowie vor Erbschäden beim Nachwuchs. Das liegt auch daran, dass Infektionskrankheiten heute ihren Schrecken weitgehend verloren haben. Sie sind einerseits zumeist recht gut heilbar und man kann Ansteckungsgefahren durch Hygiene, gesunde Lebensweise und die Vermeidung bestimmter Risiken deutlich verringern. Für Krebs trifft dies jedoch nur eingeschränkt zu. Krebs ist ein heimtückisches und oft tödliches Leiden, das meist ohne Vorwarnung zuschlägt und oft nicht oder nur mit begrenztem Erfolg behandelbar ist. Indem die Gegner der Kernkraft im Bewusstsein der Bevölkerung Radioaktivität zur wesentlichen Ursache von Krebsgefahren hochstilisieren, haben sie leichtes Spiel damit, die auf diese Art ausgelösten Urängste für ihre Zwecke zu instrumentalisieren. Dazu trägt auch bei, dass die meisten Menschen die entsprechenden Zusammenhänge nur unvollständig kennen. Zumeist ist lediglich bekannt, dass Krebs durch eine genetische Entartung körpereigenen Gewebes entsteht, die ihre Ursache in einer Schädigung des Erbguts einer vorher gesunden Körperzelle hat. Da radioaktive Strahlen solche Schäden herbeiführen können und – rein vom Prinzip her – schon ein einziges Strahlungsquant ausreichen kann, um Krebs auszulösen, glauben die meisten Zeitgenossen, dass man Krebsrisiken am besten dadurch minimiert, indem man das Auftreten von radioaktiver Strahlung im eigenen Umfeld möglichst auf null reduziert. Also, so die scheinbar logische Überlegung, braucht man nur alles, was Kernkraft, Endlager etc. angeht, weit genug vom eigenen Umfeld zu verbannen, um beruhigt und sicher leben zu können.

Bild 1. Kernkraftwerke werden von den meisten Menschen als Bedrohung ihrer Gesundheit empfunden (Symbolbild)

Eine der gröβten radioaktiven Gefahren sind wir selbst

Dabei ist dies ein Trugschluss, denn eine der gefährlichsten Strahlungsquellen, denen die Mehrheit von uns überhaupt ausgesetzt ist, ist unser eigener Körper. Niemand kann uns vor den rund 7.000 bis über 9000 Becquerel schützen, mit denen der durchschnittliche Europäer belastet ist [BECQ]. Anders ausgedrückt stecken in unserem eigenen Körper so viele radioaktive Elemente, dass in jeder Sekunde bis zu 9.000 Atomkerne zerfallen und dabei radioaktive Strahlung freisetzen. Noch dazu hat gerade diese Strahlung das – aus medizinischer Sicht – höchste Gefährdungspotenzial, weil sie direkt innerhalb unserer Körperzellen und ihres genetischen Materials wirkt. Hier verursacht selbst die auβerhalb des Körpers eher harmlosen Alpha- und Beta-Strahlung unweigerlich massive Schäden. Dieses ständige Bombardement unserer Zellen lässt sich weder verhindern noch wesentlich verringern, weil wir die entsprechenden Elemente über unsere Nahrung zwangsläufig Tag für Tag aufnehmen [APFE]. Selbst Babys erhalten bereits mit der Muttermilch sowie über Babynahrung ihre tägliche Dosis Radioaktivität [BAB1, BAB2]. Unsere ganze Umgebung, Erde, Steine und sogar die Luft strahlen und versorgen uns ständig mit radioaktiven Elementen, die unser Körper als natürliche Bestandteile des Nahrungskreislaufs einstuft und in den Zellen einbaut. Das reicht vom Kalium 40K über das radioaktive Kohlenstoffisotop 14C, das wir mit jedem Bissen Nahrung zu uns nehmen, über Uran und Thorium bis zum Edelgas Radon, das vom Erdboden aus ständig in unsere Gebäude einsickert und eingeatmet wird. In manchen Regionen Deutschlands liegt die natürliche Radioaktivität der Umgebung sogar viermal höher als der zulässige Grenzwert für Mitarbeiter in kerntechnischen Anlagen [HUET]. In anderen Weltgegenden ist die Belastung sogar noch viel höher, so in der iranischen Stadt Ramsar, wo bis zu 260 mSv/ Jahr erreicht werden. Weitere Strahlungsquellen sind das Hautkrebs auslösende UV-Licht der Sonne sowie kosmische Strahlung aus dem Weltall.

Kampferprobtes Erbgut

Allerdings ist die Vorstellung, dass die Chromosomen in unseren Zellen weitgehend vor Beschädigungen geschützt seien und höchstens ab und zu mal durch einen verirrten Strahlungsimpuls beschädigt würden, ebenso verbreitet wie völlig falsch. Unser Erbgut – die DNA-Doppelspiralen, welche die gesamten Baupläne unseres Körpers enthalten – liegt nicht etwa gut geschützt in einer Art Tresor, sondern muss einen ununterbrochenen Dauerkrieg um seine Erhaltung führen. In unseren Zellen werden die DNA-Stränge ständig chemisch aufgespalten, in Teilbereichen kopiert und wieder zusammengefügt, da sie die Baupläne und Betriebsanleitungen für nahezu alle in der Zelle ablaufenden Vorgänge enthalten. Was da abläuft, gleicht einer Hochleistungs- Chemiefabrik in aggressiver Umgebung. Auch die Schädigungsrate durch die natürliche Hintergrundstrahlung kann man heute recht genau bestimmen. Sie liegt bei ungefähr 0,005 DNA-Fehlern pro Zelle und Tag. Andersherum ausgedrückt wird jede einzelne Zelle unseres Körpers alle 200 Tage durch die natürliche Radioaktivität nachhaltig geschädigt. Dabei ist Radioaktivität nur ein Randaspekt verglichen mit anderen, viel gröβeren Gefahren, denen die Chromosomen ständig ausgesetzt sind. Eine wichtige Rolle spielen kleinere oder gröβere Fehlfunktionen in den unglaublich komplexen chemischen Reaktionen, die in der Zelle ständig ablaufen. Hinzu kommen Attacken durch Viren, Bakterien, Gifte oder auch Temperatureinflüsse. Die Zahl der Chromosomenfehler, die hierbei täglich auftreten, geht in die Milliarden – in jeder einzelnen Zelle, wohlgemerkt [HUMP]. Wenn also schon ein einzelner Fehler unausweichlich Krebs auslösen würde, wäre längst jedes Leben ausgestorben. Von Anbeginn seiner Entwicklung an musste sich das Leben diesen Bedingungen stellen und ist deshalb durchaus kampferprobt. Lebendes Gewebe verfügt hierfür über ausgeklügelte Anpassungs- sowie Reparaturmechanismen. Selbst groβe Schäden wie DNA-Doppelbrüche sind nur in einem von 500 Fällen nicht reparierbar, und auch für solche Vorkommnisse hält die Natur Notbremsen wie das Eiweiß p53 bereit. Seine primäre Aufgabe ist die Hilfe bei der Reparatur defekter Zellen. Ist der Schaden jedoch zu groß, schickt p53 die betroffene Zelle ohne Umschweife in den Tod [ZELL]. Über 99 % der irreparabel mutierten Zellen sterben daher durch Selbstvernichtung ab und werden durch gesunde Nachbarzellen ersetzt. Vor diesem Hintergrund ist es leicht einzusehen, warum die Frage, ob ein einzelnes Strahlungsquant aus einer externen Quelle in einer Zelle einen Treffer erzielt hat oder nicht, für die realistische Beurteilung von Krebsgefahren kaum von Bedeutung ist.

Das Zusammenspiel von Schädigung durch radioaktive Strahlung und den eingebauten Selbstheilungskräften der Biologie erklärt auch, warum eine einmalige Exposition mit einer extremen Überdosis zum Tode führt: Die in kurzer Zeit auftretenden Schäden sind so massiv, dass die Selbstheilungskräfte überfordert sind und das Gewebe abstirbt. Darunter gibt es einen Dosisbereich, in dem der Organismus zwar überlebt, der Umfang schwerer Chromosomenschäden jedoch immer noch so hoch liegt, dass auch hier die Selbstheilung nur teilweise funktioniert. Deshalb erkrankt ein bestimmter Prozentsatz dieser Überlebenden später an Krebs. Diese Zusammenhänge sind gut untersucht und statistisch gesichert.

LNT – die Angst vor kleinsten Strahlungsmengen

Mit diesem Hintergrundwissen kann man die sogenannte LNT-Theorie in gewisser Weise mit Gedankenmodellen vergleichen, wie sie beispielsweise in der Homöopathie Anwendung finden. Ausgangspunkt sind in beiden Fällen nachgewiesene Zusammenhänge bei hohen Dosierungen. Beide Lehren gehen von der Annahme aus, dass diese Zusammenhänge linear bis herab zu kleinsten Mengen herunter gelten würden. Die Homöopathie betreibt die als „Potenzierung“ bezeichnete Verdünnung der Wirkstoffe so extrem, dass die Ausgangsstoffe im Heilmittel nicht mehr nachweisbar sind. Bei der LNT-Methode (LNT=Linear No Threshold) wird behauptet, dass die von hohen Strahlungsdosen her bekannten Zusammenhänge selbst dann gelten, wenn die Menge der radioaktiven Substanz so gering ist, dass ihre Strahlungsanteile im „Hintergrundrauschen“ der natürlichen Strahlung völlig untergehen.

Bild 2. Experimente an Laborratten zeigten, dass die Sterberaten bei Bestrahlung mit geringeren Dosen wesentlich schneller zurückgingen als nach der LNT-Hypothese (gestrichelte Linie) zu erwarten [HUET]

Die Nuklearmedizin hat jedoch bereits in zahlreichen Untersuchungen bewiesen, dass diese Annahme nicht stimmt. Wenn der Körper in gewissen Abständen vergleichsweise geringen Mengen radioaktiver Bestrahlung ausgesetzt ist, dann kann die Natur damit umgehen. Eingehende Untersuchungen zeigen sogar, dass solche geringen Bestrahlungen eine Art Abhärtungseffekt bewirken, der Hormesis genannt wird [HORM]. Dies ist die Erklärung dafür, warum Menschen mit wiederkehrenden geringen Strahlungsexpositionen – z.B. Mitarbeiter kerntechnischer Anlagen – im statistischen Mittel sogar weniger häufig an Krebs erkranken als Vergleichsgruppen.

Somit steht die LNT-Methode klar im Widerspruch zu den Erkenntnissen der modernen Nuklearmedizin. Diese Zusammenhänge wurden durch umfassende Studien bestätigt [GEGN, LNT1, LNT2]. Die LNT-Anhänger schätzen diese Theorie jedoch gerade deshalb, weil man damit so schön einfach rechnen kann. Vor allem jedoch eignet sie sich hervorragend dafür, Strahlung selbst bei geringsten Dosen als gefährlich darzustellen und somit Ängste zu schüren. Deshalb gehört diese Methode zum bevorzugten Rüstzeug von Kernkraftgegnern, Öko-Instituten und auch mancher öffentlicher Stellen, um unter dem Vorwand des Strahlenschutzes immer mehr und immer teurere Schutzmaβnahmen zu fordern oder die Kernenergie gleich ganz zu verbieten. Doch warum konnte eine derart umstrittene Theorie überhaupt derartige Verbreitung und Anerkennung finden?

Das Erbe von Stalin und Lyssenko

Ihren heutigen Status als offiziell anerkannte Wissenschaft verdankt die LNT-Methode nicht zuletzt einer Person: Dem Diktator Josef Stalin. Ähnlich wie Kirchenfürsten im Mittelalter schätzte Stalin Ideologie höher ein als Wissenschaft und tolerierte Widerspruch von Wissenschaftlern ebenso wenig wie in anderen gesellschaftlichen Bereichen. Wer dagegen Positionen vertrat, die ihm ideologisch genehm waren, wurde gefördert. Bekanntestes Beispiel war der Aufstieg von Trofim Lyssenko, einem Scharlatan auf dem Gebiet der Genetik und der Agrarwissenschaften, der mit seinen völlig antiwissenschaftlichen Thesen zu höchsten Ehren aufstieg. Lyssenko behauptete, es gebe gar keine Gene und man könne beispielsweise verschiedene Getreidesorten durch geeignete Kulturbedingungen ineinander umwandeln. Eng verknüpft mit Lyssenkos Aufstieg war ein Feldzug gegen die „faschistische“ und „bourgeoise“ Genetik sowie gegen jene Wissenschaftler, die sich mit dieser Disziplin befassten.

Seinem Land hinterlieβ Stalin bei seinem Tod 1953 eine zutiefst gespaltene und verunsicherte Wissenschaftlergemeinde, in der vielfach Apparatschiks, Jasager und Denunzianten das Sagen hatten. In diesem Umfeld gedieh auch die Befürwortung der LNT-Theorie. Als gröβter Coup ihrer Anhänger kann gelten, dass das United Nations Scientific Committee on the Effects of Atomic Radiation (UNSCEAR) 1958 – insbesondere auf Betreiben der Sowjetunion – für die LNT-Methode votierte. Da man in entsprechenden internationalen Gremien ungern der UNO widerspricht, wurde ein Jahr später das LNT-Modell dann auch von der International Commission on Radiation Protection (ICRP) übernommen [HUMP]. Seither trägt die LNT-Methode sozusagen das amtliche Gütesiegel einer UNO-zertifizierten Wissenschaft.

Bild 3. In diesem Abklingbecken für Reaktor-Brennelemente genügen wenige Meter Wasser, um die radioaktive Strahlung effektiv abzuschirmen (Symbolbild)

Die Selbstaufgabe des Westens

Rückblickend könnte man sagen, dass es der Sowjetunion damals gelungen ist, einen Gegner, dem sie weder militärisch noch wissenschaftlich oder technisch gewachsen war, durch ein geschicktes Manöver ideologisch entscheidend zu schwächen. Von der Wirkung her kann man das Ganze fast schon mit dem Durchschleusen des Revolutionärs Lenin 1917 nach Russland durch den deutschen Geheimdienst vergleichen. Die Folgen waren eine Vergiftung und Selbstzerstörung des Gegners von innen heraus. Im Westen gelang es geschickten (und häufig dem sozialistisch-kommunistischen Lager nahestehenden) Ideologen unter Ausnutzung der LNT-Thesen, die Mehrheit der Bürger derart mit einer geradezu panischen Angst vor dem „Atom“ zu impfen, dass die Kernenergie inzwischen in vielen Ländern weitgehend geächtet ist. Wie weit entfernt von jeglicher Rationalität solche emotional gesteuerten Entscheidungen sind, zeigt sich beispielsweise beim Vergleich mit dem Automobil, Bild 4.

Bild 4. Seit 1950 hat der Straβenverkehr in Deutschland bereits mehr als 670.000 Menschenleben gefordert

Diese Technologie hat seit 1950 mehr als 670.000 Menschen das Leben gekostet. Mehrere Millionen weitere erlitten Verletzungen, und der volkswirtschaftliche Schaden dürfte die Billion € inzwischen weit überschritten haben. Dennoch wird dieses Transportmittel allgemein als gesellschaftlich notwendig eingestuft und die damit verbundenen Risiken werden als unumgängliches Lebensrisiko akzeptiert. Dagegen haben sich in produzierenden Kernkraftwerken der Bundesrepublik Deutschland bis heute keine Unfälle ereignet, bei denen es zu Todesfällen durch Verstrahlung gekommen wäre. Die deutsche Kernenergie hat sich somit als eine der bisher sichersten Groβtechnologien überhaupt erwiesen, viel sicherer als Stahlwerke, Chemieanlagen oder Kohlekraftwerke. Doch ungeachtet dieser Tatsache ist ihr Auslaufen innerhalb der nächsten neun Jahre beschlossene Sache. Die Mehrheit will es so, und das ist in einer Demokratie zu respektieren. Es muss jedoch erlaubt sein, an der Weisheit dieser Entscheidung zu zweifeln.

Deutschlands Entscheidung wird noch teuer

Für diese Entscheidung wird Deutschland in Zukunft noch einen hohen Preis bezahlen müssen. Die sogenannte Energiewende ist bereits jetzt gescheitert. Das Land manövriert sich gerade mit erheblichem Schwung in eine Energiesackgasse. Grund ist die Untauglichkeit von Solar- und Windenergie zur zuverlässigen Bereitstellung des von einer modernen Industrienation benötigten Stroms. Mit dem Zusammenbrechen des Energiewende-Experiments wird man feststellen, dass aufgrund der jahrelang vernachlässigten Planung neuer Kraftwerke die Energieversorgung auf wackligen Füssen steht. Mit dem Abschalten der letzten Kernkraftwerke bis 2022 fallen weitere entscheidende Kapazitäten weg, für die in der Kürze der Zeit wohl kaum rechtzeitig ausreichender Ersatz bereitgestellt werden kann, denn Kraftwerke sind komplexe Groβprojekte, für deren Realisierung Zeiträume von 12-15 Jahren anzusetzen sind. Und haben wir dann endlich die erforderlichen Kohlekraftwerke gebaut, so wird sich herausstellen, dass das dicke bzw. teure Ende erst so richtig auf uns zukommt. Wie Bild 5 zeigt, wurde Kesselkohle am Weltmarkt seit etwa 10 Jahren rasant teurer.

Bild 5. Preise für Kohle in Europa seit 1987 und Projektion der möglichen weiteren Preisentwicklung bis 2017 [WIKI]

Die anhaltende Kohlenachfrage vor allem aus Asien dürfte dafür sorgen, dass dieser Trend auch in Zukunft weiter anhält. Deutschland wird für den Import von Kraftwerkskohle mehr und mehr Devisen hinblättern müssen. Irgendwann, wenn das Land in vielleicht 10 bis 20 Jahren feststellt, dass es bezüglich „erneuerbarer Energie“ und der Vorstellung kernkraftfreier Stromproduktion Illusionen aufgesessen ist, wird man feststellen, dass man für die Produktion der essentiellen Ressource Strom für lange Zeiträume möglichweise doppelt so hohe Preise zahlen muss wie in Nachbarländern mit Kernkraft.

Fred F. Mueller

Quellen:

[APFE] http://www.eike-klima-energie.eu/energie-anzeige/moegen-sie-aepfel-mit-erhoehter-radioaktivitaet/

[BAB1] http://marktcheck.greenpeace.at/9008.html  abgerufen am 3.8.2013

[BAB2] http://www.sueddeutsche.de/wissen/bayerische-behoerde-bestaetigt-mineralwasser-radioaktiv-belastet-1.912566  abgerufen am 3.8.2013

[BECQ] http://www.wasser-wissen.de/abwasserlexikon/b/becquerel.htm  abgerufen am 3.8.2013

[GEGN] http://www.ncbi.nlm.nih.gov/pmc/articles/PMC3526330/?report=classic  abgerufen am 16.7.2013

[HORM] http://de.wikipedia.org/wiki/Hormesis  12.7.2013

[HUET] http://www.eike-klima-energie.eu/lesezeichen-anzeige/zur-radioaktivitaet-und-strahlen-einige-fakten/

[HUMP] http://www.eike-klima-energie.eu/news-cache/strahlungswirkung-eine-falsche-theorie-bestimmt-die-atom-politik/  abgerufen am 12.7.2013

[LNT1] Bürger für Technik Tagung 24.-26.5.13 Berlin Kurzbericht per Mail   erhalten am 16.6.2013

[LNT2] http://radiology.rsna.org/content/251/1/13.full   abgerufen am 7.5.2013

[WIKI] http://de.wikipedia.org/wiki/Kohle/Tabellen_und_Grafiken  abgerufen am 9.8.2013

[ZELL] http://www.spiegel.de/wissenschaft/medizin/krebstherapie-forscher-wollen-p53-wieder-anschalten-a-915112.html  abgerufen am 15.8.2013