Umweltbundesamt und IPCC heizen den „Klimakrieg“ kräftig an!

Den Vogel schoss dabei das Umweltbundesamt (UBA) in Berlin ab, einer Bundesoberbehörde, die dem Bundesumweltministerium untersteht. Sie warf eine Broschüre in den Markt, die allen Treibhauskritikern, gerne als „Klimawandelleugner“ diffamiert, ein-für-alle-mal den Mund stopfen sollte. Daher auch der trotzige Titel: „Und sie erwärmt sich doch“! Man will sich damit auf die Stufe von Galileo Galilei (1564-1642) stellen, der vor dem Inquisitions-Tribunal 1632 gesagt haben soll „Und sie bewegt sich doch“ (Eppur si muove). Man verkündet eine „Wahrheit“, deklariert sie für „sakrosankt“ und stellt alle „Nichtgläubigen“ an den Pranger. Dies machen nur Ideologen! Das Gehabe erinnert an die Totentanz-Malereien des 15. und 16. Jahrhunderts, wo der Tod befahl: „Ihr tanzt nach meiner Pfeife!“ Oder kam dem UBA diese Erleuchtung beim Anblick des Holzschnitts „Der Sternenseher“ von Hans Holbein der Jüngere (1497-1543) vom Jahre 1525?
Dabei schießt das UBA gleich mit der 1. Frage „Was ist eigentlich Klima?“ ein grandioses Eigentor. Es antwortet dem nicht selbständig denken sollenden Leser auf die selbst gestellte Frage: „Klima ist der mittlere Zustand der Atmosphäre an einem bestimmten Ort oder in einem bestimmten Gebiet über einen längeren Zeitraum“, den die Weltorganisation für Meteorologie (WMO) mit mindestens 30 Jahre angibt. Damit ist eigentlich alles gesagt. Da es keinen 30jährigen „mittleren Zustand der Atmosphäre“ an einem Ort gibt, gibt es auch kein „Klima“, keine „Klimakatastrophe“, keinen „Klimaschutz“. Das besagt die Definition! Und wenn man im UBA logisch und nicht ideologisch denken würde, dann folgt aus der Definition, dass man zuerst den Wetterschutz angehen müsse, wenn man einen Klimawert konstant halten will. Doch wie will der Mensch, die Menschheit das Wetter schützen? Und welches?
Natürlich kann die „Klimatologie“ aus den langjährig erhobenen meteorologischen Messdaten Mittelwerte errechnen und in „Klimakarten“ Linien gleichen mittleren Druckes (Isobaren) oder gleicher mittlerer Temperatur (Isothermen) einzeichnen, aber das so errechnete „Azorenhoch“ oder „Islandtief“ ist ein stationäres weil statistisches Konstrukt und hat im Gegensatz zum Wetter kein Eigenleben. Sie bewegen sich nicht, verändern sich nicht. Das Wetter dagegen ist ein höchst lebendiges „Wesen“, das völlig eigenständig agiert. Es erzeugt Wirbelstürme und Tornados wie jüngst in Oklahoma (USA), ohne „Rücksicht“ auf den Menschen. Das gibt auch das UBA zu: „Das Klima wird durch statistische Eigenschaften der Atmosphäre charakterisiert, wie Mittelwerte“. Aber auch das ist bei exakter Interpretation falsch, denn die Atmosphäre hat keine „statistischen Eigenschaften“. Es ist der Mensch, der die in der Atmosphäre gemessenen Einzeldaten statistisch bearbeitet und Mittelwerte berechnet. Aber von einer politisch finanzierten „Klimawissenschaft“ darf man solch eine Exaktheit nicht einfordern, oder doch?
Entsprechend des Gesetzes der Fehlerfortpflanzung geht vom UBA inszenierte Frage-Antwort-Spiel, das als Aufklärungsinitiative deklariert ist, durch die gesamte Broschüre. So etwas können sich nur staatliche Institutionen leisten, die Wissenschaftsfreiheit als staatlich dienliche Narrenfreiheit interpretieren und sich vor staatsanwaltlichen Ermittlungen sicher wähnen dürfen. Jedenfalls sollte mal der Bundesrechnungshof prüfen, warum für solch eine Erklärung wie „Klimaänderungen haben verschiedene Ursachen“ wie die „interne Klimavariabilität“ Geld rausgeschmissen wird. Jedenfalls, der Schnellschuss der UBA-Diffamierungs-Aktion zur Diskriminierung der „Klimaskeptiker“, die man als inkompetent bis blöd an den Pranger stellte, ging nach hinten los und verärgerte sogar das ZDF. Thorsten Koch, Professor für Öffentliches Recht an der Universität Osnabrück, kommentiert am 23. Mai 2013 in der WELT: „Staatspropaganda – Das Umweltbundesamt missachtet die Regeln der Neutralität!“

Klimaforscher James Hansen verlässt seinen Posten bei der NASA

Für James Hansen gilt die Aussage, dass keineswegs immer „Mehrheiten“, sondern „Männer“ Geschichte machen. Es war Hansen, seit 1981 Leiter des „Goddard Institute for Space Studies“ der  NASA, der die NASA bei einer Anhörung vor dem US-Kongress in arge Verlegenheit brachte, als er eigenmächtig den heißen Sommer 1988 den Abgeordneten als „Beweis“ für die unaufhaltsame „globale Erwärmung“ präsentierte. Hansen hatte seine Anhörung bewusst auf Ende Juli legen lassen in der Hoffnung auf schweißtreibende Temperaturen. Das Pokerspiel ging auf. Amerika ächzte gerade unter einer Hitzewelle, so dass die Aussage von Hansen ein riesiges Medienecho hervorrief und viele Politiker umstimmte, die ihre Meinung an der Medienmeinung ausrichten.
Nun ist James Hansen im Alter von 72 Jahren in den Ruhestand gegangen, um sich ganz dem Kampf gegen die Emissionen von Treibhausgasen zu widmen. Noch im Dienst hatte er 2008 gar einen  „Runaway Greenhouse Effect“ propagiert, einen sich verselbständigenden Treibhauseffekt mit gigantischer Erwärmung wie auf der Venus (Venus-Syndrom). Die Venustemperaturen von über 400° C liegen einzig und allein an der Tatsache, dass die Venus in 100 Millionen km Entfernung die Sonne umkreist und nicht wie die Erde in 150 Millionen km. Jeder kennt das R2-Gesetz, das besagt, dass die Strahlungsintensität pro Flächeneinheit mit dem Quadrat der Entfernung zu- oder abnimmt. Was macht Hansen nun im Ruhestand? Er bekennt: „Die essentielle Voraussetzung, um die Klimakatastrophe abzuwenden, ist CO2 freie Elektrizität. Zur Zeit gibt es zwei grundsätzliche Alternativen für die Grundversorgung mit Elektrizität: Fossile Brennstoffe und Kernkraftwerke. Jeder Erfolg der Anti-Atom-Bewegung, das heißt die Abschaltung eines AKW, gefährdet die Zukunft unserer Kinder.“
Wie man James Hansen auch bewertet, er ist nicht „alternativlos“! Mit seiner Pro-Kernkraft-Haltung wird er nur wenige „Freunde“ in der deutschen politischen Szene haben, am wenigsten beim Bündnis90/Die Grünen. Der Mohr hat seine Schuldigkeit getan. Seinem Abgang wird keine Träne nachgeweint werden. Er hat sich unheilbar wie bei einer eingebildeten Krankheit in die Wahnsinnsidee einer treibhausbedingten globalen „Klimakatastrophe“ verrannt, aber er bleibt sich  wenigstens selbst treu.

DWD – Globaltemperatur wird trotz gegenwärtiger Stagnation langfristig steigen

Hatte James Hansen die Latte bei einem Wert von 350 ppm CO2 angelegt, bei dem unweigerlich die „Klimakatastrophe“ über die Welt hereinbricht, so hob der UNO-Weltklimarat diesen Wert auf 450 ppm an, nachdem am 9. Mai 2013 der „historische Rekordwert“ von 400 ppm überschritten war, aber die „Erderwärmung“ schon seit 1998 Richtung Abkühlung tendiert. In den Medien erregte die Diskrepanz zwischen dem steigenden CO2-Wert und der abnehmenden globalen Erwärmung Aufmerksamkeit. Die Baseler Zeitung vom 18. Mai 2013 sprach von einer „Klimapause“. Keiner fragte nach der „Wetterpause“, doch plötzlich befanden sich die Klimaexperten mitsamt ihren Klimamodellen in der Defensive.
Dem Eindruck, dass keine Kausalbeziehung zwischen dem CO2-Wert und dem Globaltemperatur bestehe, musste massiv propagandistisch entgegengewirkt werden. So überschrieb die Mainzer Allgemeine Zeitung am 21. Mai 2013 eine dpa-Meldung mit „Studie: Erde erwärmt sich langsamer. Internationale Wissenschaftler erwarten dennoch katastrophale Folgen“. Ausgelöst wurde die Debatte von einem Forscher-Team um Alexander Otto an der Universität Oxford, um den lästigen Abkühlungsparolen Paroli zu bieten. Nach dem Klimaforscher Reto Knutti von der ETH Zürich lägen vorübergehend sinkende Temperaturen in der Natur der Sache: „Es gab im 20. Jahrhundert immer wieder Perioden der Stagnation.“ Doch was als Rechtfertigung gedacht war, provozierte noch intensiver die Frage nach der Qualität der Klimamodelle. Deren Fehlerhaftigkeit schob man flugs auf das „Schwächeln der Sonne“, obgleich deren Einfluss kategorisch verneint worden war.
Die Klimamodelle selbst sind der eigentliche Schwachpunkt. Sie werden immer wieder vor aller Öffentlichkeit als extrem komplex hingestellt, in Wirklichkeit sind sie von beispielloser Primitivität. Sie bauen einzig auf der Annahme einer Monokausalität auf zwischen CO2-Gehalt und Temperatur.  Man inszeniert drehbuchartig Szenarien-Spiele und verkauft die Ergebnisse immer wieder bewusst verfälschend als „Klimaprognosen“. Der Trick ist, dass man der „Treibhausgasen“ eine fiktive „Strahlungskraft“ (radiative forcing) andichtet. Erhöht man die deren Konzentration, erhöht sich automatisch die Temperatur, dank der Annahme einer fiktiven „Gegenstrahlung“. Dies wird sogar offen bekannt in der Annahme, dass die Medien den Satz, „Grundlage für ihre Berechnungen ist der Kohlendioxidgehalt in der Atmosphäre“ nicht verstehen und damit hinterfragen. Im Klartext heißt das: Nichts anderes als das CO2 geht in die Berechnungen ein! Es ist also ein numerischer Automatismus, der in die Modelle einprogrammiert hat. Damit kann man nach Gutdünken je nach politischer Großwetterlage die Erderwärmung beschleunigen oder verlangsamen. Im Moment scheint die Verlangsamung opportun! Auch der Direktor des Max-Planck-Institut für Meteorologie in Hamburg, Jochen Marotzke blies in das Horn und wiegelte ab: „Es sei wichtig, Veränderungen innerhalb eines Jahrzehnts nicht über zu bewerten.“ Dann hätte dies auch für das Jahrzehnt 1988-1998 gelten müssen, als die Wärmerekorde nur so purzelten. Man biegt sich jede „Wahrheit“ so zurecht, wie man sie gerade benötigt!
Bei dieser Lage musste sich auch der Deutsche Wetterdienst (DWD), der sich bei seiner ureigensten Aufgabe, der kurzfristigen Wettervorhersage, sehr schwer tut, auch zu Wort melden, um nicht ganz dem UBA die öffentliche Bühne zu überlassen. Er lud zur „Klima-Pressekonferenz 2013“ nach Berlin ein. Vizepräsident Paul Becker gab zu, dass die „Erdmitteltemperatur“ seit 15 Jahren stagniere, um ablenkend hinzuzufügen, dass man dennoch „die Geschichte des Klimawandels nicht neu schreiben müsse“. Das Klima unterliege „vielen Einflüssen“ und diese „maskieren gewissermaßen den vom Menschen verursachten Klimawandel – an dem kein Zweifel besteht.“ Aber die Klimamodelle rechnen eben nicht mit vielen Einflüssen, sondern wie zugegeben allein nur mit dem CO2-Einfluss!
Doch der DWD, der „Wetter und Klima aus einer Hand“ anbietet, ist um Distanz zum UBA wie Originalität bemüht und geht in seiner Presseerklärung einen Schritt weiter. Er fordert, „es müsste auch der künftige gesellschaftliche Wandel berücksichtigt werden. So führe zum Beispiel das Zusammenspiel von Klimawandel und demographischer Entwicklung zur Verschärfung der Hitzeproblematik. … Der DWD hat deshalb sein Hitzewarnsystem um die Vorhersage der nächtlichen Innenraumtemperaturen erweitert.“ Das ist schon Satire von der feinsten Art! Soll das Temperament der alternden Bevölkerung so herunter gekühlt und das Raum- wie Bettklima so reguliert werden, um im Zusammenspiel zwischen Mensch und Klima eine harmonische, aber nicht reproduktive, die demographische Entwicklung nicht störende Symbiose herzustellen? Will der DWD dem Klimaservice der Autowerkstätten oder der Heizungs- und Klimatechnik Konkurrenz machen oder zuarbeiten? Es ist schon grandios, was sich bei der Behörde DWD abspielt. Dabei erwartet der Bürger vom Wetterdienst nichts anderes als bessere und zuverlässigere Vorhersagen des Wetters.

Globale Erwärmung und die angebliche „Klimapause“

Die schon erwähnte Studie der Universität Oxford spaltete das öffentliche Meinungsklima. Titelte die FAZ am 21. Mai 2013 „Forscher zweifeln an Klimawandel“, so schrieb am gleichen Tag Spiegel Online „Studie entschärft extremste Klimaszenarien“. Was war geschehen? Man hat die gängigen Computermodelle „überprüft“ und mit modifizierten Modellen neue Berechnungen angestellt. Die ergaben, dass bei einer „Verdopplung der CO2-Konzentration“ der Temperaturanstieg nicht mehr 2,2 bis 4,7 Grad betrage, sondern nur noch 1,2 bis 3,9 Grad. Die Universität argumentierte: „Die Reaktionen des Klimasystems auf steigende Treibhausgas-Konzentrationen stimmen mit den herkömmlichen Schätzungen der langfristigen Klimaempfindlichkeit überein.“ Weiter hieß es: „Otto und seine Kollegen haben lediglich festgestellt, dass die extremsten der bisherigen Temperaturszenarien mit geringerer Wahrscheinlichkeit eintreffen. Die wirklich wichtigen Vorhersagen aber – jene, welche die Temperaturen der kommenden 50 bis 100 Jahre betreffen – liegen im Bereich der aktuellen Klimamodelle.“
Alles nur ein Sturm im Wasserglas? Wann merken die Journalisten und mit ihr die Öffentlichkeit, dass hier „viel Lärm um nichts“ erzeugt und ein geschicktes Täuschungsmanöver veranstaltet wurde? Man hat keine besseren Klimamodelle und will an den alten Simulationen festhalten, um an der Erwärmungsspirale nach Belieben weiterdrehen zu können. doch je nach Situation werden diese als „Szenarien“ oder als „Vorhersagen“ verkauft, wobei die „wirklich wichtigen Vorhersagen“ die „kommenden 50 bis 100 Jahre betreffen“. Das ist genauso wie wenn ein Meteorologe sagen würde: bei der 3-Tage-Wettervorhersage bin ich mir nicht sicher, aber bei der wichtigeren 300-Tage-Vorhersage bin ich mir sicher.
So argumentiert auch der ETH-Zürich-Wissenschaftler Reto Knutti aus dem Oxford-Team. Zur gegenwärtigen „Klimapause“ meint er abwiegelnd: „Eine Beurteilung von Trends über weniger als 20 Jahre sei heikel.“ Heikel war damit auch der Projektionstrend  der „Wärmerekorde der 80er Jahre“. Die kurzfristigen Schwankungen des Wetters seien „für den langfristigen Klimawandel global vernachlässigbar, aber lokal beträchtlich“. Natürlich, ein „lokaler“ Tornado ist „global“ vernachlässigbar, aber jeder „Klimawert“ beruht auf örtlichen Messungen, wie die Definition der WMO eindeutig sagt! Dann erläutert er den schillernden Begriff der „Klimasensitivität“, der  „Klimafühligkeit“ bedeutet. Doch wie will man eine Mitteltemperatur fühlen, eine Mittelwind spüren? Klima kann man nicht fühlen, wohl aber Wetter, daher gibt es auch eine Wetterfühligkeit, die von Mensch zu Mensch unterschiedlich ausgeprägt ist. Manche leiden unter Föhn, andere nicht.  Der hochtrabende und nebulöse Begriff „Klimasensitivität“ umschreibt die Reaktion eines Klimamodells auf die von den Klima-Programmierern eingegebenen CO2-Werte. Reto Knutti: Mit „Sensitivität“ ist „definitionsgemäß die durchschnittliche globale Erwärmung“ gemeint, „mit der das Klimasystem auf eine Verdopplung der CO2-Konzentration in der Atmosphäre reagiert. Als Ausgangspunkt nehmen die Forscher die Verhältnisse der vorindustriellen Zeit vor rund 200 Jahren, als der CO2-Gehalt 280 ppm betrug.“
Die Ausgangsbasis der „früheren Modelle“ lag also bei 560 ppm CO2. Diese habe man nun, die Emissionen eilen weltweit von Rekord zu Rekord, angepasst. Reto Knutti: „Für die zukünftigen möglichen Trends“ ging man „von Emissions-Szenarien aus, die zu Treibhausgas-Konzentrationen zwischen knapp 500 und gut 1400 ppm führen.“ Dennoch soll der Temperaturanstieg geringer sein? Dieses Bekenntnis besagt im Klartext: Der Manipulationsspielraum bei der Festlegung der „Strahlungskraft“ der „Treibhausgase“ wie der Programmierung von Klimamodellen ist gigantisch. Welch Außenstehender kann da noch hinter die Kulissen schauen?
Verfolgt man seit 30 Jahren die Unzahl an Klimaszenarien, so verdichtet sich die Meinung, dass die modernen multimedialen Computertechniken von den Klimaexperten dazu benutzt werden,  um mit politisch erwünschten Weltuntergangszenarien ein „Klima der Angst“ zu erzeugen, das für wirtschaftliche, soziale wie parteipolitische Veränderungen dienlich erscheint.  Illusionen werden in Simulationen verwandelt und ständig neue Welten produziert. Wie in der Filmindustrie wird die Realität zur Virtualität umgeformt und die potentielle Virtualität zur künftigen Realität erklärt. Der einzelne Mensch befindet sich in einer schier hoffnungslosen Lage: Soll er den Verheißungen einer „schönen neuen Klimawelt“ entsagen? Kann er das überhaupt bei dem Druck des „Zeitgeistes“?
Hat der Bürger noch eine freie Wahl? Ja er hat die Pflicht dazu, solange der „Fußabdruck“ noch nicht gesetzlich vorgeschrieben ist. Es bedarf nur des Mutes, sich nach Immanuel Kant seines eigenen Verstandes zu bedienen.
Für den Fall, dass es noch einen „heißen Sommer“ geben sollte, die Schuhindustrie hat vorgesorgt und bietet „Klimaanlagen“ für die Füße an: „Klimaporen-Slipper“ für ein garantiert frisches Fuß-Klima! Die Chancen stehen „gut“, denn laut Meldung des Deutschen Wetterdienstes vom 24. Mai 2013 liege aktuell der Temperatur-Mittelwert für den Mai in Hessen bei 8,3 Grad. Statistisch gesehen sei es nicht zu kalt oder nass in Hessen. Das ist nur ein winziges Minus von 5,4 Grad gegenüber dem Mai-Mittel von 13,7°C in Frankfurt. Und im Vergleich zu Darmstadt, Fulda, Giesen, Marburg, Kassel, Wiesbaden? Hoch lebe die Statistik!
Oppenheim, im Mai 2013 ; Dipl.-Met. Dr. phil. Wolfgang Thüne 




Betrugsfall des IPCC läuft heiß, nicht das Erdklima

Von Christopher Monckton of Brenchley (20.5.2013)
Vor zwei Wochen habe ich den Hauptfehler im 2007er Vierten Zustandsbericht (AR4) an das Sekretariat des IPCC gemeldet. Nachdem die Wissenschaftler ihren Schlußentwurf übergegeben hatten, haben die Bürokraten und die Politiker den HadCRUt3 Graphen der globalen gemessenen Temperaturen seit 1850 „nachbehandelt“ und vier Trend-Linien der Anomalie-Kurve hinzugefügt, von deren relativen Steigungen die ungerechtfertigte und statistisch unhaltbare Schlussfolgerung gezogen wurde – gleich zweimal im Bericht -, dass die Erderwärmung „sich beschleunige“ und dass wir für die „Beschleunigung“ verantwortlich wären.
Die Erderwärmung beschleunigt sich nicht. Die Erde wird nicht heiß. Seit 17 Jahren gibt es keine Erwärmung mehr, nirgendwo – selbst der IPCC-Klimatologie-Vorsitzende gibt es inzwischen zu. Das betrifft auch die Hadley/CRU Daten. Den RSS-Satelliten-Daten zufolge gibt es seit 23 Jahren keine Erwärmung.
Die zentrale Vorhersage des IPCC für die Erwärmung seit 2005 (hellrot), aus dem demnächst herauskommenden Fünften Zustandsbericht (Fifth Assessment Report) weicht deutlich sichtbar ab vom linearen Regressionstrend (hellblau) der aktuellen Version (HadCRUt4) der Kurve der monatlichen globalen Mitteltemperatur-Anomalie (dunkelblau):

Auf meine Meldung über die falsche IPCC-Schlussfolgerung von der „sich beschleunigenden“ Erderwärmung erhielt ich keine Antwort. Also habe ich dem IPCC wieder geschrieben:

“Ich bin Fachgutachter für den Fünften Zustandsbericht [Fifth Assessment Report] des Intergovernmental Panel on Climate Change. Vor zwei Wochen habe ich Sie angeschrieben, um einen schwerwiegenden Fehler im Vierten Zustandsbericht [Fourth Assessment Report] zu melden. Bis heute habe ich keine Antwort. Mein Brief von vor zwei Wochen ist beigefügt, zusammen mit einem Brief, den ich an den Inter-Academy Council gerichtet habe mit der Bitte, sich bei Ihnen für eine Antwort an mich einzusetzen. Ich habe auch einen Brief an die Genfer Polizei geschickt – derzeit nur zur Information – dass hier womöglich ein Betrug vom IPCC begangen würde.
In meinem Brief an die Genfer Polizei habe ich geschrieben: – eine Kopie ging auch an das Büro zur Verfolgung schweren Betrugs in London und an das Büro des Leitenden Oberstaatsanwalts des U.S. Bundesstaates Virginia (Serious Fraud Office in London and the Office of the Attorney General of the Commonwealth of Virginia) –
Die beigefügten Schriften begründen einen Betrugsverdacht, begangen vom IPCC. Dessen Sekretariat hat meine Meldung über einen Fehler in dessen viertem Zustandsbericht [Fourth Assessment Report] nicht beantwortet. Der Fehler ist schwerwiegend. Ich kann beweisen, dass er vorsätzlich begangen wurde. Der Fehler ist so konstruiert, dass mit einer Täuschung vorgespiegelt wird, die Erde erwärme sich sogar noch schneller, als auf uns zurückgeführt werden kann. Dies ist ein Betrug aus einer Folge von geschickten und zusammenhängenden Betrügereien, die Einigen Wenigen große Profite zu Lasten von Vielen verschafft haben.
Die Betrügereien sind vorsätzliche Täuschungen, die darauf abzielen, Verluste bei Steuerzahlern zu verursachen, indem wissenschaftliche Daten und Ergebnisse so verfälscht werden, dass die Rate der Erderwärmung und damit auch der Folgen übertrieben wird.
Wissenschaftliche Auseinandersetzung ist legitim: nicht aber die einseitige Verzerrung der objektiven wissenschaftlichen Erkenntnis aus Profitgründen.
Dieser Brief soll Sie zunächst nur in Kenntnis setzen. Wenn ich nach einer weiteren Woche vom IPCC (es erhält eine Kopie dieses Briefs) entgegen dessen Regularien keine Antwort erhalten habe, möchte ich Sie bitten, Ermittlungen zu eröffnen über diesen Betrug und weitere damit zusammenhängende Betrügereien, bei denen es um große Summen in noch nie dagewesener Höhe geht.”

Diesmal beeilte sich das IPCC mit einer Antwort:

“Wir bestätigen den Eingang Ihrer Mitteilung, wie unten abgedruckt, und Ihres Briefes vom 4.3.2013, den wir früher erhalten haben, als Anlage zu jener Mitteilung. Ihre Email von heute mit Anlagen ist die erste von Ihnen im IPCC Sekretariat eingegangende Mitteilung in dieser Angelegenheit.
“Wir möchte Sie in Kenntnis setzen, dass der Fehler, auf den Sie hinweisen und den Sie melden, nun wie vorgesehen im IPCC Protocol for Addressing Errors in IPCC Assessment Reports, Synthesis Reports, Special Reports or Methodology Reports behandelt wird, zugänglich auf der IPCC Website. Die Schritte 1 und 2 des Protokolls sind jetzt abgeschlossen; die IPCC Working Group I wird sich mit den nächsten Schritten wie vorgesehen befassen. Wie im Protokoll vorgesehen, wird Sie das IPCC Sekretariat über die Ergebnisse aus dieser Vorgehensweise informieren.”

Ich habe dem IPCC für die Weiterleitung meines Berichts über seinen Irrtum im Vierten Zustandsbericht (Fourth Assessment Report) gedankt und der Polizei mitgeteilt, dass das IPCC nun geantwortet hätte. Es ergibt sich aus der Antwort des IPCC Sekretariats, dass Dr. Pachauri, den ich schon 2009 schriftlich und persönlich über diesen Fehler in Kenntnis gesetzt habe, die Meldung über den Fehler nicht an das Sekretariat weitergegeben hat, wozu er verpflichtet gewesen wäre. Zweifelsohne wird es jetzt eine interne Untersuchung zur  Aufklärung geben, warum er nicht weitergeleitet hat.
Nach Abschluss der Untersuchung und der Rückmeldung des IPCC darüber werde ich Sie über das Ergebnis informieren – und die Strafverfolgungsbehörden der drei Staaten.
Original hier auf WATTSUPWITHTHAT
Übersetzung: Helmut Jäger, EIKE




Einladung zum 1. Hamburger Klima- und Energiegespräch

Denn internationale Wissenschaftler sollen Daten manipuliert und die Öffentlichkeit fehlgeleitet haben. Bekannt geworden als "Climategate" Skandal?
Und stimmt es, dass in den letzten 15 Jahren, die globale Mittel-Temperatur nicht mehr gestiegen ist?  
Sehr wichtig: Was kostet, aber vor allem, wem nützt die Energiewende wirklich?  Oder ist die Energiewende schon gescheitert ?
Zur Beantwortung  dieser für unser Land existentiellen Fragen  laden wir Sie für den 14. Juni 2013 zum 6. EIKE-Klima- und Energiegespräch nach Hamburg ein. Dort können Sie sich über die tatsächliche Bedrohung durch CO2, den Klimawandel und die Energiewende informieren. 
Das Programm:

1. Hamburger Klima- und Energiegespräch
Maritim Hotel Reichshof, Hamburg, 14. Juni 2013

                       
12.00 Uhr Registrierung
13.00 Uhr Begrüßung
Wolfgang Müller
Generalsekretär, Europäisches Institut für Klima und Energie (EIKE)
13.15 Uhr CO2 am Pranger – Gift oder Lebenselixier?
Klaus-Eckart Puls
Dipl. Meteorologe, ehemaliger Leiter der Wetterämter Essen und Leipzig
14.00 Uhr Warum regnet es nach Finsternissen am stärksten? Nachweis eines solar-galaktischen Signals
Prof. Dr. Walter Fett
Freie Universität Berlin
15.00 Uhr Pause
15.30 Uhr Energiewende: Wie sicher ist unsere Stromversorgung noch?
Dr. Bernd Benser
CBO Chief Business Officer Lab GridLab GmbH,
Europäisches Trainings- und Forschungszentrum für die Sicherheit der Elektrizitätsnetze an der BTU Cottbus 
16.15 Uhr Energiewende zwischen Wunsch und Wirklichkeit 

Prof. Dr. Helmut Alt
FH Aachen
17.15 Uhr Pause
17.45 Uhr Kann die Energiewende das Klima schützen & Ressourcen schonen?
Michael Limburg
Vizepräsident, Europäisches Institut für Klima und Energie (EIKE)
18.30 Uhr Shale Gas – Die „alternative“ Energiequelle?
Klaus Angerer
General Manager, BNK Deutschland GmbH
19.15 Uhr – 19.30 Uhr Schlussbemerkung
Dr. Holger Thuss
Präsident, Europäisches Institut für Klima und Energie (EIKE)
20.00 Uhr Gemeinsames Abendessen mit Tischrede: Und ewig droht der Weltuntergang
Vera Lengsfeld
Autorin und Bürgerrechtlerin 
anschließend Ende der Veranstaltung
Veranstaltungsort: Maritim Hotel Reichshof, Kirchenallee 34, 20099 Hamburg
Die Veranstalter behalten sich jederzeit das Recht auf Änderungen des Programms vor.
Tagungsgebühren 
60 € Privatpersonen, 110 € Firmenvertreter
Die Tagungsgebühren beinhalten Nachmittagskaffee sowie das Abendessen.

Anmeldung hier oder 

mit vollem Namen, Anschrift und Institution via Email oder Fax an:
Europäisches Institut für Klima und Energie (EIKE)
Formlos oder mit dem Formular auf der Website hier: Email: info@eike-klima-energie.eu
Fax: 03641 – 3279 8589     Brief: EIKE Registrierung, Postfach 110111, 07722 Jena
Zahlung des Teilnehmerbeitrags an:
EIKE e.V., Volksbank Saaletal Rudolstadt Konto Nr.: 42 42 92 01, BLZ: 830 944 54
IBAN: DE34 8309 4454 0042 4292 01      BIC: GENODEF1RUJ   oder via Paypal auf der EIKE Website
Aufgrund der begrenzten Plätze entscheiden Eingang von Anmeldung und Beitragszahlung über die Teilnahme an der Veranstaltung.
Das Programm kann auch als pdf im Anhang herunter geladen werden.

Related Files




Kernenergie: 100 Gründe und 100 gute Antworten. Fortsetzung #42 bis #45

Die Erfindung des nuklearen Abfallproblems fußt auf 3 Geboten, die für die ökoreligiöse Bewegung unantastbar sind.
– Nuklearer Abfall ist unglaublich gefährlich und unvorstellbar giftig, jenseits aller bekannter Stoffe, die uns umgeben.
– Es gibt keinen Ort auf der Welt, an dem dieser Abfall dauerhaft gelagert werden könnte.
– Es gibt auch keine technische Möglichkeit, diesen Abfall unschädlich zu machen.
In der realen Welt ist jede einzelne dieser Prämissen falsch, denn die Toxizität endzulagernder nuklearer Abfälle ist eher moderat, die Mengen lächerlich gering, mit der zusätzlichen angenehmen Eigenschaft, sich von selbst aufzulösen. Auch Methoden der Entschärfung waren von Anfang an bekannt. In der phantastischen Welt von Ursula und Michael Sladek und ihren Elektrizitätswerken Schönau (EWS), Kumulationspunkt allen ökologistischen Irrsinns, wird hingegen alles getan, diese Mythen aufrecht zu erhalten – für die Ökoreligion würde sonst ein Weltbild zusammenbrechen.
Die Atommüll-Gebote müssen um jeden Preis verteidigt werden. Ähnlich den ausufernden Institutionen der katholischen Kirche im Mittelalter gibt es dafür inzwischen spezialisierte inquisitorische Einrichtungen wie das „Öko-Institut e.V.” oder das IPPNW, die zu jedem wissenschaftlichen Beleg ein pseudowissenschaftliches Gegenargument konstruieren. Solange der Laie (und inzwischen sogar der ein oder andere fachverwandte Experte) dies nicht unterscheiden kann, stimmt die Balance, und die Gelder fließen zugunsten der Ökoreligion.
Der mittellose Verein KRITIKALITÄT versucht, dieser in Jahrzehnten hauptsächlich durch die Ökoreligion vorangetriebenen und perfektionierten Imitation wissenschaftlicher Methoden durch klare, überprüfbare sowie offen diskutierbare Aussagen entgegenzuwirken. Die gut entlohnten öffentlich-rechtlichen Medien, sowie Bildungseinrichtungen und Politik können oder wollen dies offensichtlich nicht leisten.
An Originalität mangelt es den Ökologisten hierbei nicht. Der im Jahre 2008 kreierte „Asse-Skandal” ist dabei zweifelsohne die beste Erfindung. Sie wurde nur dadurch möglich, dass das Bundesamt für Strahlenschutz, ehemals eine neutrale Aufsichtsbehörde, inzwischen von einem grünen Atomkraftgegner geleitet wird. Andere amtliche Einrichtungen wie die Bundesanstalt für Geowissenschaften und Rohstoffe (BGR) oder die Physikalisch-Technische Bundesanstalt (PTB) konnten sich gegen derartige Politisierungen bisher erfolgreich wehren und sind den Ökologisten folglich ein Dorn im Auge. Dies führt sogar dazu, dass ehemaligen verdienten Mitarbeitern von den Grünideologen Worte in den Mund gelegt werden, die sie heute vehement abstreiten.
Alles beginnt aber mit der eigentlichen „Abfall”-Menge, die in der Antwort zu Grund #42 in eine anschauliche Relation gesetzt wird. Bereits hier wird klar, dass es das „Atommüllproblem” eigentlich gar nicht gibt. Zur Aufrechterhaltung des bösen Images der „Atomlobby” gehört natürlich auch, dass diese sich angeblich um die Endlagerung drückt (#43). Auch Ursachenforschung ist nicht gerade eine Spezialität der EWS, denn von Endlagerkonzepten nimmt man immer häufiger Abstand, nicht weil sie „technisch ungelöst” sind (#44), sondern weil sie immer überflüssiger werden. Dies alles wird natürlich wieder begleitet von Übertreibungen, die so grob sind, dass man sie nur noch als Falschaussagen bezeichnen kann (#45).
Nun zu Hundert gute Antworten #42 – #45, die bisherigen Antworten finden Sie in den EIKE-News (Energie) vom 29.3.2013, 3.4.2013, 7.4.2013, 10.4.2013, 16.4.2013, 19.4.2013, 26.4.2013, 3.5.2013, 9.5.2013, 18.5.2013.
Hundert gute Antworten #42 – #45

#42: Atommüllberge

Behauptung: Atomkraft erzeugt jede Menge Atommüll.

Die EWS behaupten

Rund 12.500 Tonnen hochradioaktive abgebrannte Brennelemente sind in den deutschen Atomkraftwerken bisher angefallen. Jedes Jahr kommen rund 500 Tonnen hinzu. Plus Tausende Kubikmeter schwach- und mittelaktiven Mülls. Plus alles, was in Luft und Wasser landet. Plus die Abfälle aus der Wiederaufarbeitung. Plus die Abfallhalden des Uranbergbaus. Plus das abgereicherte Uran aus der Anreicherungsanlage. Plus die Atomanlagen selbst, denn auch die müssen irgendwann »entsorgt« werden.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

12.500 Tonnen Abfall – pro Bundesbürger sind das gerade 160 Gramm. Keine Industrie erzeugt so wenig und so gut handhabbaren Abfall.
2,6 Millionen Tonnen chemischer Sondermüll lagern hingegen allein in Herfa-Neurode, der größten Gifmülldeponie der Welt – das ist die 200-fache Menge des gesamten produzierten hochradioaktiven „Atommülls”, der weitaus harmloser ist und außerdem mit der Zeit immer ungiftiger wird.
Im Gegensatz zu nuklearen Endlagern schert man sich um die Lagerung des weitaus giftigeren und in viel größeren Mengen produzierten chemischen Sondermülls herzlich wenig. So wurde Herfa-Neurode damals von Joschka Fischer (Bündnis 90/Grüne) kurzerhand genehmigt, während der Streit um Gorleben noch heute läuft.
Dabei könnte man die ohnehin äußerst geringen nuklearen Abfallmengen praktisch komplett verschwinden lassen. Die dafür nötige Technik, zum Beispiel den „Schnellen Brüter” SNR-300, hatte man schon in den 80er Jahren fertig gebaut. Ausgerechnet dieser extrem umweltfreundliche Reaktor, der aus den „Abfällen” auch noch Energie gewonnen hätte, wurde von der Antiatom-Bewegung noch vor der Inbetriebnahme abgerissen. Nun steht dort ein Vergnügungspark.
Die heute üblichen, radiologisch relevanten genutzten Bauteile eines Kernkraftwerks strahlen wesentlich schwächer als frühere Materialien, sodass der größte Teil nur wenige Jahre bis Jahrzehnte während der Rückbauphase abklingen muss – ohne Zwischen- oder Endlagerung. Lediglich etwa ein Drittel des Reaktordruckbehälters, was zusammengerechnet gerade einmal einem Sechstel des anfallenden hochaktiven „Abfalls“ entspricht, muss länger gelagert werden. Dieses Material strahlt nun aber schwächer als Natururan und muss nicht über geologische Zeiträume endgelagert werden. Alles andere kann konventionell entsorgt oder verwendet werden.
Das abgereicherte Uran (über 99% U-238 mit einer Halbwertszeit von 4,5 Mrd. Jahren) ist nun weniger als schwach radioaktiv und somit alles andere als gefährlicher Müll. Es kann problemlos wie Blei gehandhabt werden.
Quellen von KRITIKALITÄT


#43: Entsorgungslüge

Behauptung: Noch kein einziges Gramm Atommüll ist schadlos entsorgt.

Die EWS behaupten

»Zur Frischhaltung von Lebensmitteln« würde er dienen – mit solchen Versprechen wischten Experten Mitte der 1950er Jahre kritische Fragen nach der Entsorgung von Atommüll beiseite. Ohne sich um das Entsorgungsproblem zu kümmern, bauten sie einen Reaktor nach dem anderen. Von den vielen Millionen Tonnen strahlenden Abfalls ist bis heute noch kein Gramm schadlos entsorgt.
Rechtlich gesehen darf in Deutschland überhaupt kein Atomkraftwerk betrieben werden, solange die Entsorgung des Atommülls nicht gesichert ist. Als ›Entsorgungsvorsorgenachweis‹ dienten wahlweise die undichte und einsturzgefährdete Atommüllkippe Asse II, die Erkundungsarbeiten im Salzstock Gorleben, der Bau der Wiederaufarbeitungsanlage (WAA) Wackersdorf, die Atommüll-Transporte ins Ausland sowie aktuell die ›geordnete Zwischenlagerung‹ der abgebrannten Brennelemente in Castor-Behältern in oberirdischen Hallen.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Tausende von Tonnen schwach- und mittelaktiven Abfalls sind in der Asse bereits schadlos entsorgt – deutlich mehr als „kein Gramm”. Die Asse ist in Bezug auf die eingelagerten Stoffe auch keineswegs „undicht”, wie zahlreiche Gutachten klar belegen. Der Bau selbst ist so eingesturzgefährdet wie jedes andere alte Bergwerk, mit der Sicherheit der bereits eingelagerten Stoffe hat dies jedoch überhaupt nichts zu tun.
Bereits 1959, lange vor Inbetriebnahme der ersten deutschen Leistungsreaktoren, empfiehlt die Bundesanstalt für Bodenforschung die Einlagerung radioaktiver Abfälle in Salzformationen. Sechs Jahre und mehrere Studien später wird die Asse als Forschungsbergwerk gekauft. Dieser kurze Abriss plus die enormen Rücklagen der Energieversorger zeigt bereits, wie unsinnig die Behauptung ist, man hätte Fragen nach der Entsorgung „beiseite gewischt”. Sie war vielmehr von Anfang an Teil des Gesamtkonzepts.
Wiederaufarbeitungsanlagen hätten die ohnehin sehr geringe Abfallmenge nochmals deutlich reduzieren können. Deren Bau wurde aber aus rein politischen Motiven verhindert; Transporte ins Ausland waren die Folge. Ebenso verhindert wurde der „Schnelle Brüter”, der die Abfallmenge um einen Faktor 100 (!) reduziert hätte. Auch das Endlager Gorleben, obwohl durch zahlreiche Gutachten und Erkundungen immer wieder als sicher eingestuft, wurde durch die Suche nach dem „Haar in der Suppe” seitens der Antiatombewegung massiv verzögert. Bis dahin lagert der Abfall eben oberirdisch in Castoren – so wollen es anscheinend die Kernkraftgegner.
Übrigens: Die Bestrahlung von Lebensmitteln gehört zu den ältesten, etabliertesten und effektivsten Methoden der Konservierung.
Quellen von KRITIKALITÄT


#44: Technisch ungelöst

Behauptung: Die Endlagerung ist noch nicht einmal technisch gelöst.

Die EWS behaupten

70 Jahre nach Entdeckung der Kernspaltung ist noch nicht einmal klar, wie man den hochradioaktiven Abfall lagern müsste, damit er nicht zur Gefahr für Mensch und Umwelt wird – geschweige denn, wo.
Anders als die Atomlobby glauben machen will, sind viele Sicherheitsfragen in puncto Endlager weiterhin völlig ungeklärt. So nahmen die USA wegen schwerwiegender Gefahren für Mensch und Umwelt unlängst Abstand von ihrem Endlager-Projekt in den Yucca Mountains. Das schwedische Konzept der Endlagerung in Granit-Urgestein steht ebenfalls vor dem Aus (siehe auch # 61). Und was den Salzstock in Gorleben angeht: Der ist in weiten Teilen von Grundwasser überströmt. Nach den Erfahrungen mit den Wassereinbrüchen in der Atommüllkippe Asse II sollten sich weitere Diskussionen über die ›Eignung‹ Gorlebens als Endlager eigentlich erübrigt haben.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Wer behauptet, die Lagerung hochradioaktiven Abfalls sei ungelöst, stellt die Ergebnisse von Jahrzehnten radiochemischer und geologischer Forschung mit hunderten von begutachteten Publikationen in Frage. Bereits auf der Genfer UN-Konferenz zur friedlichen Nutzung der Kernenergie im Jahre 1955 wurden Salzformationen als Enlagerstätten, die Millionen Jahre sicher sind, vorgeschlagen – dies wurde durch unzählige Gutachten immer wieder bestätigt.
Von der Antiatombewegung wird das Eindringen kleiner Wassermengen in einen Salzstock wie in Asse immer wieder als grundlegendes Sicherheitsproblem dargestellt. Dabei wurde dies von Anfang an in sämtlichen Gutachten berücksichtigt und als irrelevant eingestuft. Daran ändert auch das Überströmen durch Grundwasser nichts.
Dass über Jahrzehnte aufgrund von Erkenntnisgewinn oder veränderten ökonomischen Umständen eine Endlageroption zugunsten einer anderen aufgegeben wird, hat mit der geologischen Eignung nicht das geringste zu tun. Die Beendigung des Endlager-Projekt in den Yucca Mountains beispielsweise hatte keine sicherheitstechnischen, sondern infrastrukturelle und konzeptionelle Gründe, wie das amerikanische Energieministerium ausdrücklich betont. Hier ist in den letzten Jahren vor allem die Weiterverwendung der „Abfälle” in Brutreaktoren vorgesehen, wie sie in Deutschland von der Antiatombewegung boykottiert wurde. Diese Technik macht eine Endlagerung ohnehin überflüssig.
Das schwedische Konzept steht mitnichten „vor dem Aus”. Vielmehr passt man sich auch hier dem internationalen Trend einer Abkehr von Endlagerkonzepten hin zur Rückholbarkeit für Brutreaktoren an. Schade, dass diese Entwicklung an Deutschland vorüber geht, war es doch einst mit dem „Schnellen Brüter” führend.
Bei ASSE II ist objektiv kein radiologisch relevantes Problem vorhanden, siehe auch die Antwort zu #46.
Quellen von KRITIKALITÄT


#45: 1.000.000 Jahre

Behauptung: Atommüll ist eine Million Jahre lang eine strahlende Gefahr.

Die EWS behaupten

Bis die Strahlung der radioaktiven Abfallstoffe aus den Atomkraftwerken einigermaßen abgeklungen ist, dauert es ungefähr eine Million Jahre. So lange muss der Atommüll von Mensch und Biosphäre ferngehalten werden.
Hätten die Neandertaler vor 30.000 Jahren Atomkraftwerke betrieben und ihren Atommüll irgendwo vergraben, so würde er heute noch tödlich strahlen – und wir müssten wissen, wo wir unter keinen Umständen graben dürften.
„Weiterführende Informationen” der EWS und „Quellen” der EWS

Richtig ist …

Das Abklingen dauert nicht eine Million, sondern gut 100.000 Jahre. Und dies auch nur wegen des Plutoniums, welches aber keinesfalls Müll, sondern wertvoller Brennstoff für Schnellspalt-Reaktoren ist. Deren Inbetriebnahme hat die Anti-Atombewegung in der 80er Jahren allerdings erfolgreich zu verhindern gewusst (Kalkar).
Da die Beseitigung und gleichzeitige Nutzung von Plutonium technisch längst gelöst ist bleiben nur die Spaltprodukte als tatsächliches Abfallproblem. Hier ist die Lagerzeit nur noch einige 100 Jahre. Die Abfallmenge ist dabei extrem gering: Ein Mensch, der sein ganzes Leben lang seinen Strom ausschließlich aus Kernenergie bezieht, hinterlässt dabei gerade einmal 100 Gramm. Und die strahlen mit 1 TBq so schwach, dass man sie sich sogar, geschirmt mit einigen Zentimetern Blei, unters Bett legen könnte.
Die in etwa 1 Millionen Jahren dominierenden, wenigen beweglichen Spaltprodukte, die dann vollständig in die Biosphäre übertreten könnten, erhöhen die Belastung um maximal 50% der natürlichen Belastung, wenn sie komplett in die Menschen verteilt gelangen würden – dies ist ungefährlich. Da dies aber eine Überschreitung von radiobiologisch unbegründbaren, politisch motiverten Grenzwerten bedeuten könnte, gibt man mehrere Milliarden Euro für unnötige Endlagersuchen aus und wirft den Energieversorgern auch noch vor, dass sie dafür nicht aufkommen wollen.
Quellen von KRITIKALITÄT





Bewertung der IPCC-Erwärmungsprognosen

Ziel ist es, die IPCC-Projektionen mit den beobachteten Temperaturänderungen auf einen Blick vergleichen zu können.
Das Intervall der IPCC-Temperaturprojektionen aus dem Jahr 2005 wurde dem Spaghetti-Graph im AR 5 entnommen. Es basiert auf 34 Modellläufen für anthropogen angetriebene Szenarien.

Komischerweise liegen die rückwärtigen Projektionen der Periode von 2005 bis 2013 nicht um die Messungen (schwarze Linie) gleichmäßig verteilt, sondern sie liegen deutlich über den Beobachtungen. Nichtsdestotrotz bin ich dem IPCC gefolgt und habe die angenäherten oberen und unteren Grenzen seiner Spaghetti-Graphik übernommen.
Die zentrale Projektion der 34 Modellläufe (unten in gelb) zeigt, dass die Erwärmung von 2005 bis 2050 mit einer Rate äquivalent zu etwa 2,3°C pro Jahrhundert erfolgen sollte. Dies liegt unterhalb der seit Langem etablierten IPCC-Vorhersage von 3°C im Jahrhundert, weil die Modelle eine Beschleunigung der Erwärmung nach 2050 erwarten. Die Projektionen der oberen bzw. unteren Grenze sind äquivalent zu 1,1 bzw. 3,6°C pro Jahrhundert.

Auf der Temperaturskala links ist die beobachtete Temperaturanomalie im Januar 2005 als Nullpunkt angegeben. Von diesem Punkt ausgehende Linien bestimmen die Neigung der Modellprojektionen.
Und hier ist der resultierende Graph. Die IPCC-Projektionen erscheinen blassblau.

Die monatlichen von UAH beobachteten Temperaturanomalien der unteren Troposphäre (vortex.nsstc.uah.edu/data/msu/t2lt/uahncdc.lt) wurden geplottet vom Beginn dieses Jahrtausends am 1. Januar 2001 bis zum letzten verfügbaren Monat (derzeit April 2013).
Die Satelliten-Aufzeichnungen werden bevorzugt, weil sie viel weniger empfindlich auf den UHI reagieren als terrestrische Thermometer, und weil die Wahrscheinlichkeit, dass die Daten frisiert werden, deutlich geringer ist.
Der Januar 2001 wurde als Startpunkt gewählt, weil er zeitlich genügend weit von dem großen El Niño-Ereignis des Jahres 1998 entfernt liegt. Verzerrungen durch diese bemerkenswerte Wärmespitze werden dadurch verhindert.
Da die Messungenauigkeit von 0,05°C selbst in den vom Satelliten gemessenen Temperaturanomalien substantiell ist, wird ein einfacher kleinste-Quadrate-Regressionstrend gegenüber einer polynomischen Anpassung höherer Ordnung bevorzugt.
Der einfachste Test hinsichtlich statistischer Signifikanz in dem Trend wird übernommen. Ist der Erwärmungs- oder Abkühlungstrend während dieser Periode größer als der Messfehler im Datensatz? Auf dieser Basis wird der Bereich der Nicht-Signifikanz rosa gekennzeichnet. Derzeit liegt der Trend an der oberen Grenze dieser Zone und ist daher folglich kaum signifikant.
Die gesamte Trendlinie liegt unter dem Intervall der IPCC-Projektionen. Obwohl dieses Ergebnis zum Teil ein Artefakt der unorthodoxen Trainingsperiode [?] des IPCC ist, ist die Neigung des linearen Trends mit lediglich 0,5°C pro Jahrhundert während der letzten 148 Monate sichtlich weniger als halb so groß wie die niedrigste Schätzung des IPCC von 1,1°C pro Jahrhundert bis zum Jahr 2050.
Das wesentliche Ergebnis, gezeigt in der Tafel oben links in der Graphik, lautet, dass die beobachtete Erwärmungsrate der letzten 12 Jahre und 4 Monate mit einem Äquivalent von 0,5°C pro Jahrhundert weniger als ein Viertel der derzeitigen IPCC-Projektion von 2,3°C pro Jahrhundert bis zum Jahr 2050 beträgt.
Der einzige Zeitpunkt, zu dem die Temperaturanomalie den Wert der zentralen IPCC-Schätzung erreicht hatte, war zur Spitze des substantiellen El Niño-Ereignisses im Jahr 2010.
Der RSS-Datensatz, für den die April-Anomalie noch nicht verfügbar war, zeigt eine statistisch signifikante Abkühlung seit Januar 2001 mit einer Rate äquivalent zu 0,6°C pro Jahrhundert.
Die Kombination beider Satelliten-Datensätze in Gestalt ihres arithmetischen Mittels ist legitim, da ihre räumliche Abdeckung ähnlich ist. Insgesamt ergibt sich dabei eine statistisch nicht signifikante Abkühlung äquivalent zu 0,1°C pro Jahrhundert in diesem Millenium.
Die Diskrepanz zwischen den Modellprojektionen und der beobachteten Wirklichkeit ist verblüffend. Da die lange Periode ohne eine statistisch signifikante Erwärmung (mindestens 17 Jahre in allen Datensätzen, 23 Jahre laut den RSS-Daten) weiter geht, wird selbst ein weiteres großes El Niño-Ereignis wenig ausrichten, die multidekadische Erwärmungsrate auf das Niveau der IPCC-Projektion zu heben, die da äquivalent zu 1,1°C pro Jahrhundert bis zum Jahr 2050 ist.
Tatsächlich liegt die maximale globale Erwärmungsrate seit mehr als einem Jahrzehnt in allen instrumentellen Aufzeichnungen – äquivalent zu 1,7°C pro Jahrhundert – noch deutlich unter der mittleren, vom IPCC projizierten Erwärmungsrate von 2,3°C pro Jahrhundert bis zum Jahr 2050.
Diese Diskrepanz wirft hinsichtlich der Zuverlässigkeit der Modellprojektionen ernste Fragen auf. Da die Theorie eine gewisse anthropogene Erwärmung erwarten lässt, zeigt deren Fehlen, dass die Modelle natürliche Einflüsse wie etwa der Sonne unterbewertet, deren Aktivität derzeit nach dem Beinahe-Grand-Maximum um das Jahr 1960 rapide abnimmt.
Die Modelle sind auch unfähig, die sich auf natürliche Weise ändernde Wolkenbedeckung vorherzusagen, die einer aktuellen Studie zufolge, die sich auf eine meiner vor drei Jahren veröffentlichten Studien bezieht, für viereinhalb mal so viel Erwärmung von 1976 bis 2001 verantwortlich sein könnte als alle anderen Einflüsse einschließlich des Menschen.
Auch können die Modelle – oder irgendjemand sonst – El Niño-Ereignisse nicht mehr als ein paar Monate im Voraus vorhersagen. Es gibt Beweise, dass das Verhältnis von El Niño zu La Niña-Ereignissen, deren Oszillation kürzlich abgenommen hat, ein signifikanter Treiber von mittelfristigen Temperaturvariationen ist.

Es ist auch möglich, dass die Modelle inhärent zu empfindlich hinsichtlich Änderungen des Strahlungsantriebs sind und nicht ausreichend den Abkühlungseffekt nicht-radiativer Flüsse berücksichtigen.
Außerdem verlassen sich die Modelle mit der Multiplikation der direkten Antriebe um den Faktor 3 hinsichtlich vermuteter gesamt-positiver Temperatur-Rückkopplungen zu stark auf eine Gleichung, die auf die Prozesssteuerung elektronischer Verstärker anzuwenden ist, für die sie entwickelt wurde, und die für das reale Klima keine physikalische Bedeutung hat.
Ohne die Bode-Gleichung könnten die Gesamt-Rückkopplungen sehr gut kaum von Null unterscheidbar sein, in welchem Falle die Erwärmung als Folge einer CO2-Verdoppelung, die etwa die gleiche ist wie die Jahrhundert-Erwärmung, äquivalent sein wird zu der jüngst vom IPCC vorhergesagten minimalen Erwärmungsrate äquivalent zu 1,1°C pro Jahrhundert.
Sei dem, wie es sei, wie die oben stehende Graphik aus dem Entwurf des AR 5 zeigt, haben die Modelle in jedem der vier vorherigen IPCC-Zustandsberichte die Erwärmungsrate wild übertrieben, verglichen mit dem gemessenen Ergebnis; und wie der neuerliche Graph der Ergebnisse zeigt, ist das im 5. Zustandsbericht wieder der Fall.
Ich wäre interessiert an Reaktionen der Leser hinsichtlich Methode und Ergebnis. Würden Sie gerne irgendwelche Änderungen in der monatlichen Graphik sehen? Und wäre es ein monatlich aktualisierter Graph wert, in breitem Umfang an die Nachrichten-Medien verteilt  zu werden als eine Antwort auf ihre dämliche Frage „warum glauben Sie nicht an die globale Erwärmung?“
Weil es bislang in diesem Millenium keine erwähnenswerte Erwärmung gegeben hat, darum! Die Bemühungen vieler Medien, diese Tatsache zu verschleiern, sind beschämend. Diese eine, einfache monatliche Graphik, wenn sie weithin verteilt werden würde, würde es für diese Medien viel schwieriger machen so zu tun, als beschleunige sich die Rate der globalen Erwärmung und dass wir dafür verantwortlich sind; oder dass der „Konsens“, den sie aus Faulheit akzeptiert haben, vertrauenswürdig ist.
Die Klimahysterie hat nur deswegen so lange gedauert, weil die Tatsachen, dass die Modelle gescheitert sind und die Welt sich kaum erwärmt hat, sorgfältig verschleiert worden sind. Lassen wir diese Verschleierung zu einem Ende kommen.
Christopher Monckton of Brenchley
Link: http://wattsupwiththat.com/2013/05/05/benchmarking-ipccs-warming-predictions/
Übersetzt von Chris Frey EIKE