Fukushima Gedenken: hochgespielter Super-Gau!

Es sind für viele Mitteleuropäer erstaunliche Aussagen, die Wolfgang Weiss vor kurzem machte. Weiss ist Vorsitzender des Uno-Wissenschaftskomitees zu den Auswirkungen atomarer Strahlung (UNSCEAR). Gemäss den heute zur Verfügung stehenden Informationen seien die gesundheitlichen Auswirkungen der Atomkatastrophe von Fukushima wohl gering, sagte Weiss. Vor allem wegen der zügigen Evakuation seien die Radioaktivitätsdosen, die die Bevölkerung abbekommen habe, «sehr tief». Einige wenige Arbeiter im havarierten Werk hätten zwar hohe Dosen abbekommen. Es seien bis jetzt aber keine gesundheitlichen Probleme bei ihnen zu beobachten – insbesondere auch keine Strahlenkrankheiten, wie sie bei vielen Arbeitern nach der Atomkatastrophe 1986 in Tschernobyl auftraten.

Weiss’ Aussagen kontrastieren mit dem Bild, das man sich in der Schweiz und in Deutschland von «Fukushima» macht. Das Unglück gilt als «eine der grössten Technik­katastrophen aller Zeiten» (Bild der Wissenschaft). Zum Jahrestag sprechen die Medien von der «Strahlen­hölle» (Tages-Anzeiger), suggerieren verhee­rende Auswirkungen auf die Gesundheit der Bevölkerung und betonen unablässig, dass die Evakuierten wohl nie mehr in ihre Heimat zurückkehren könnten. Dass der Tsunami, der die Havarie auslöste, etwa 20.000 Menschen ­tötete, fast eine halbe Million Häuser zerstörte und etwa 500 Quadratkilometer Land verwüstete, trat in der hiesigen Berichterstattung rasch in den Hintergrund. Das Atomunglück war auch der Grund, dass die Schweiz und Deutschland kopfüber den Ausstieg aus der Atomenergie beschlossen. Wer sich hingegen auf Fakten stützt, muss zum Schluss kommen, dass Wolfgang Weiss richtig liegt. «Fukushima» war, verglichen mit anderen Katastrophen, nur ein Ereignis mittlerer Bedeutung. Das zeigen Recherchen der Weltwoche.

Nach der Atomkraftwerk-Havarie in Fukushima am 11. März letzten Jahres gelangte an radio­aktivem Material grob geschätzt etwa ein Zehntel dessen in die Umwelt wie nach der Katastrophe in Tschernobyl 1986. Ein grosser Teil davon wurde Richtung Pazifik weggetragen und hat darum kaum Schaden angerichtet. Trotz düsterer Medienberichte waren freigesetztes Strontium und Plutonium nie ein Problem. Von Bedeutung bei den ausgestossenen radioaktiven Substanzen waren Iod, das mit einer Halbwertszeit von acht Tagen aber nur einige Wochen lang relevant war, und Cäsium. Mit ­einer Halbwertszeit von dreissig Jahren ist Cäsium hauptverantwortlich für die heute noch vorhandenen Belastungen um das AKW Fukushima.

Wegen der Radioaktivität infolge des Atom­unglücks ist bis heute kein einziger Mensch ums Leben gekommen. Und die Chancen stehen gut, dass es auch in Zukunft kaum Opfer geben wird. Die meisten Arbeiter, die nach der Havarie im AKW im Einsatz waren, haben eine Dosis unter 100 Millisievert (mSv) erhalten. Es gibt keine wissenschaftlichen Belege dafür, dass einmalige Radioaktivitätsdosen bis zu diesem Wert schädlich sind. Allerdings ist auch das Gegenteil nicht bewiesen. Darum ­gehen Präventivmediziner davon aus, dass es ­keine untere Schwelle der Schädlichkeit gibt. Sie rechnen die negativen gesundheitlichen Folgen, die man bei hohen Dosen beobachtet, linear auf tiefe Dosen herunter. Auch unter diesen Annahmen hat sich aber das Risiko, im Alter an Krebs zu erkranken, bei den Arbeitern mit einer Dosis bis 100 mSv um maximal ein halbes Prozent erhöht. Es gibt jedoch 110 Arbeiter, die stärker bestrahlt wurden, sechs davon mit mehr als 250 mSv (Spitzenwert 678 mSv). Ihr Risiko für Krebs in späteren Jahrzehnten ist aber gegenüber nichtbestrahlten Menschen höchstens um wenige Pro­zent gestiegen.

Dank der zügigen Evakuationen unmittelbar nach dem Unglück wurde die Bevölkerung gesundheitlich kaum beeinträchtigt. Etwa 100.000 Bewohner im Umfeld des AKW Fuku­shima müssen (auf die ganze Lebenszeit hochgerechnet) mit einer zusätzlichen Dosis von bis zu 50 mSv rechnen. Das ist wenig im Vergleich zur natürlichen Strahlung, die im weltweiten Schnitt für eine Lebensdosis von etwa 150 mSv sorgt. In einigen Gebieten der Welt ­beträgt die Belastung durch natürliche Radioaktivität sogar das Zwei-, Drei- bis Zehnfache dieses Durchschnittswerts. Dazu zählen viele Orte in den Alpen. Bis heute konnten an solchen Orten aber nie negative Auswirkungen der Strahlung auf die Gesundheit nachgewiesen werden. Doch selbst wenn man annimmt, dass auch tiefe Dosen schädlich sind, sind die Auswirkungen in Fukushima für die Bevöl­kerung gering. Die statistische Lebenszeit­verkürzung bei einer zusätzlichen Dosis von 10 mSv beträgt etwa zweieinhalb Tage, bei 50 mSv knapp zwei Wochen. Im Vergleich zu anderen Lebensrisiken ist das fast vernach­lässigbar.

Wie eine Zigarette alle acht Jahre

Auch die Belastung durch verstrahlte Lebensmittel kann als unbedeutend angenommen werden. In Japan wurde und wird die Bevölkerung konsequent vor belasteter Nahrung geschützt. Während im Mai noch bei fünf Prozent aller Lebensmittelproben die Grenzwerte überschritten wurden, waren es im Juli noch drei Prozent und im August weniger als zwei. Zudem stellt die Überschreitung eines Grenzwertes noch längst keine Gesundheitsgefahr dar. In der Regel liegen die Grenzwerte (in ­Japan und bei uns) um das Tausendfache unter den Dosen, die medizinisch relevant sind. Die Schweizer Medien bauschen die Gefahren aber auf. So berichtete der Gesundheitstipp im letzten Oktober von angeblich verstrahltem Tee aus Japan in Schweizer Läden. Die maximal gemessene radioaktive Verstrahlung betrug dabei 6,1 Becquerel pro Kilogramm. Greenpeace warnte düster vor dem Konsum des Tees. In Wahrheit entspricht das Risiko – selbst wenn man dauerhaft täglich sechs Tassen dieses Tees trinken würde – lediglich dem Risiko ­einer Zigarette alle acht Jahre. Das zeigen Berechnungen der Weltwoche.

Viele Schlagzeilen erzeugte das Wasser, das in Fukushima zur Kühlung eingesetzt wurde und darum radioaktiv belastet war. Als im letzten April ein Teil dieses Wassers infolge von Lecks ins Meer floss, wurde in den Medien eine Verseuchung des Pazifiks suggeriert. Meerwasser ist aber ganz natürlich ebenfalls radioaktiv. Ein Kubikkilometer Wasser enthält im weltweiten Schnitt zum Beispiel drei Tonnen Uran. Die zusätzliche Radioaktivität, die ins Meer gelangte, entspricht der natürlich vorhandenen Radioaktivität einiger hundert Kubikkilometer Meerwasser. Das tönt nach viel, ist es aber nicht: Man kann davon ausgehen, dass das Kühlwasser innert kurzer Zeit stark verdünnt wurde und die Kontamination der entsprechenden Wasserschichten schon bald vernachlässigbar klein war. Ein Teil des radioaktiven Materials setzte sich zwar in Meeres­sedimenten fest, was jedoch höchstens lokal von Bedeutung ist: Nimmt man an, dass etwa zehn Prozent des radioaktiven Materials in den Meerboden sickerte, und vergleicht man diese Menge mit der natürlichen Radioaktivität von Böden (oberster Meter), entspricht die zusätzliche Belastung derjenigen, die etwa hundert Quadratkilometer Meerboden ganz natürlich aufweisen – ein eher geringer Betrag.

Auch das Kühlwasser, das sich im Untergrund der Reaktoren gesammelt hat, stellt kein Problem mehr dar: Dessen maximale ­radioaktive Belastung entsprach im vergangenen Februar lediglich der von gewöhnlichem Regenwasser, wie Messungen zeigen. In manchen Gebieten der Welt ist Regenwasser sogar mehr als hundertfach höher belastet. Denn ­Regen wäscht natürlich vorhandene radioaktive Substanzen in der Luft aus.

Doch was ist mit den etwa 100.000 Menschen, die noch immer nicht in ihre Häuser zurückkehren können? Ist die Errichtung grossflächiger Sperrzonen von unbestimmter Dauer nicht der Beweis, dass die Produktion von Atomenergie unverantwortlich ist? Zum Jahrestag des Reaktorunglücks sind die Medien voll von berührenden Berichten über Menschen, die noch immer in Notunterkünften leben und alle Perspektiven verloren haben.

Eine Evakuation unbestimmter Dauer ist tatsächlich eine gewaltige Belastung. Allerdings scheint es, dass statt der radioaktiven Strahlung vielmehr die übertriebene Angst vor ihr für solches Leid verantwortlich ist. «Weil Evakuierte Haus und Heimat, meist auch ihre Jobs und Zukunftsperspektiven verlieren, können Stress und Angst ihre Gesundheit viel stärker gefährden als niedrige Strahlendosen», sagte Maria Blettner von der deutschen Strahlenschutzkommission, deren Mitglieder vom Bundesumweltministerium berufen werden. Angesichts der Tatsache, dass die zu erwartende (zusätzliche) Lebensdosis in weiten Teilen der Sperr­zone in Fukushima nicht höher liegt als in bekannten Kurorten der Welt, muss man sich fragen, ob eine Rückkehr nicht angezeigt ist. Bezüglich der Atomkatastrophe von Tschernobyl, die viel gravierender war, kam ein breit abgestütztes Wissenschaftsgremium unter Leitung der Uno zum Schluss, dass nicht die Strahlung, sondern die Beeinträchtigung der Psyche infolge von Stress und Angst das grösste Gesundheitsproblem war.

Eine Million Kubikmeter Giftschlamm

Tatsächlich können in Japan viele Evakuierte mit einer Rückkehr in ihre Häuser rechnen, denn die Entgiftung der belasteten Gebiete schreitet voran. Die Regierung hat ­diese Gebiete in drei Zonen eingeteilt. Für ­etwa 300 km2, in denen die Belastung unter 20?mSv pro Jahr liegt, soll die Rückkehr der Bevölkerung in einigen Monaten beginnen und bis März 2014 abgeschlossen sein. Weitere ­zirka 600 km2, wo die Belastung heute zwischen 20 und 50 mSv beträgt, sollen so weit dekontaminiert werden, dass eine Rückkehr ebenfalls bis März 2014 möglich ist. Nur etwa 150 km2, wo die Belastung über 50 mSv pro Jahr liegt, ­bleiben für die nächsten fünf Jahre evakuiert.

Eher geringfügig sind die Auswirkungen von «Fukushima» auch dann, wenn man mit anderen Umweltkatastrophen vergleicht. Im Ok­tober 2010 brach im ungarischen Kolontár ein Rückhaltebecken zur Lagerung von Rotschlamm, der bei der Aluminiumproduktion anfällt. Etwa eine Million Kubikmeter Giftschlamm ergossen sich über 40 km2 Fläche. Zehn Menschen starben. Der Schlamm enthielt unter anderem ungefähr fünfzig Tonnen hochgiftiges Arsen. Die ausgestossene Menge an Gift, gemessen in potenziell tödlichen Dosen, war beim Schlammunglück in Ungarn etwa zehnmal grösser als beim Reaktorunglück in Fukushima. All das zeigt, dass der Bruch des Rückhaltebeckens viel gravierendere Auswirkungen für Mensch und Umwelt hatte als das AKW-Unglück in Japan. Während aber nach der Atomhavarie der Ausstieg aus der Kernenergie sofort zum Thema wurde, verlangte nach dem Unglück in Ungarn niemand den Verzicht auf die Produktion von Aluminium.

(Axel Reichmuth – WELTWOCHE 10/12) mit freundlicher Genehmigung

Siehe auch:

» Zettels Raum: ein sehr lesenswerten Artikel um Thema finden Sie hier

» WELT: Die deutsche Atomhysterie ist welt weit verpufft

» Kritischer Hörer beim WDR 5-Tagesgespräch zu Fukushima (9.3.)




Offener Brief an Jochem Marotzke – Direktor des MPI für Meteorologie in Hamburg

Herrn Prof. Dr. Jochem Marotzke

DKK Konsortium Max-Planck-Institut für Meteorologie

20146 Hamburg

Sehr geehrter Herr Marotzke,

Sie kommentierten Rezensionen zu meinem Buch „Die Lüge der Klimakatastrophe“ oder  ließen dies durchführen und erwarteten somit möglicherweise Antwort von mir. Sie taten Gleiches, sogar  mit gleichem Text, mit dem Buch  „Die Kalte Sonne“ Ihres Professoren-Kollegen, Herrn Vahrenhold. Beiden Büchern ist gemein, dass sie gegen die von organisierter Wissenschaft und Medien verkaufte Ideologie von einer Mensch-gemachten Klimakatastrophe argumentieren.

Vor vielen Jahren wurde als wissenschaftliches Ergebnis entdeckt, fixiert und gelehrt, dass auf Erden kein menschliches, tierisches oder pflanzliches Leben ohne CO2 möglich ist. Derzeit wird von Ihnen und Ihren Kollegen, den sich epidemisch vermehrenden so genannten Klimawissenschaftlern, wider besseres Wissen (teilweise bereits zwangsweise: Schulen), die Lüge verbreitet, dass CO2 ein Umweltgift sei. Entweder ist CO2 ein Lebenselixier, ohne das es kein Leben auf Erden gibt, was die Wissenschaft reproduzierbar bewies, oder es ist ein Umweltgift, was sie bislang nie bewies. Eines geht nur.

Herr Marotzke, sämtliche Institute oder Einrichtungen, die sich mit dem Thema Klima befassen, sind in der Hand des Staates. Bis auf eine winzige Ausnahme. Die nennt sich EIKE. Einverstanden? Alle Angestellten des Staates verrichten die Arbeit für ihren Arbeitgeber, so wie der Arbeitgeber dies verlangt, und wofür er auch bezahlt. Einverstanden? Das, was der Staat von seinen Beamten und Arbeitnehmern verlangt, ist Aus- und Durchführung seines Dienstplanes, genannt „Political correctness“. Einverstanden? Ich gehe davon aus, dass Sie als Mensch mit einem geschulten und funktionierenden Gehirn das Geschäft von der Ente mit der Mensch-gemachten Klimakatastrophe und dem bedauernswerten missbrauchten CO2 nicht glauben. Vom Nichtglauben bis zur Verkündung dieses Nichtglaubens, ist ein langer komplizierter Weg, an dessen Ende möglicherweise Verlust von Ansehen und Arbeitsplatz steht. Dies mussten viele Menschen im 3. Reich erfahren. Vahrenholt nahm dies in Kauf. Ihm gebührt die Ehre für Verweigerung der Käuflichkeit seiner Ansicht.

Da ich schon viel von Ihnen hörte, mehr jedoch las, hauptsächlich über den Unsinn mit der Schädlichkeit von CO2 fürs Klima, kenne ich Sie schon ganz gut. Auch Ihr Alter. Alter ist immer wichtig. Damit sind Rückschlüsse darauf möglich, wie derjenige tickt, mit dem man sich gerade befasst. Mein Ticken beurteilten Sie für die Öffentlichkeit so:  „… da fragt man sich ganz allgemein, ob einige „Experten“ älteren Semesters überhaupt noch wissen, wo sich die moderne Klimaforschung heute bereits befindet!“

Herr Marotzke, Ihr Ticken – entsprechend Ihrem Alter – beurteile ich so:  Na ja, der Arme saß ja, als die wichtigen Entschlüsse in den USA gefasst wurden, CO2 + Klima mittels der (bezahlten) Hilfen von Wissenschaft und Medien  zu nutzen, um ein „gigantisches, lang andauerndes, weltweites“ Geschäft zu entwickeln, noch auf der Uni. Entsprechend seiner (Marotzkes) Jugend, so dachte ich mir, wäre es fair, als wesentlich Älterer, dem mit WISSEN nicht ausreichend Bedachten Jüngeren, etwas Nachhilfe zu erteilen, wie, warum und von wem ein IPCC, eine später zum Weltklimarat sich selbst befördernde Institution ins Leben gerufen wurde. Steigen wir ein in medias res und machen eine kleine Reise in die Vergangenheit, in die USA.

Wir befinden uns im Jahre 1986. Die USA werden regiert von Ronald Reagan. Ein bekannter und wichtiger Abgeordneter im Repräsentantenhaus ist Al Gore (AG). Er vertritt den Bundesstaat Tennessee. AG verfügte über außerordentliche Beziehungen zu Wirtschaft und Finanzen. Sonst wäre er auch nicht Senator der USA geworden. Seine Zukunft (zum Geldmachen) sah er in aktiver Beteiligung am modernen Umweltschutz. Am 11. August 1986 schickte Rudolf Augstein (RA) sein international bekanntes Magazin DER SPIEGEL auf die Weltreise. Titelbild und Bericht über den Untergang des Kölner Doms im Nordseewasser beinhalteten den Schocker über die anstehende „Klimakatastrophe“. Am 11. September 1986 telefonierte ich mit RA. Das Gespräch beinhaltete: Ich: „ Was hast Du Dir denn dabei gedacht?“ Augstein: „Aufwecken, munter machen.“ Ich: „Und Angst machen“. Augstein: „Ohne Angst der Massen, keine Bewegung der Massen.“

Gores Bestrebungen gingen dahin, ein politisches Instrument zu schaffen, um mehr staatlich unterfütterten Einfluss zur Bekämpfung der fiktiven Klimakatastrophe zu erlangen. Ein solches Arrangement sollte über seine Beziehungen ein Instrument werden, das ihm Einkommen entsprechender Größenordung für lange Zeit gewährt. Dazu musste das Thema Umwelt-Klima nationalisiert werden. Ablauf: Gore inspirierte James Hansen (JH), Direktor des „Goddard Institute for Space Studies“ (GISS) in New York und Freund von ihm, seinen Einfluss als DER Klimaexperte der USA geltend zu machen. Plan: Eine Anhörung vor dem Kongress zur Frage „Hat die Klimasituation Einfluss auf die Entwicklung der USA?“ Colorados Senator Tim Wirth (TW), Freund von James Hansen, nimmt die Angelegenheit in die Hand.

Zur Anhörung vor dem Senat in Washington, die mir rechtzeitig annonciert wurde, fliege ich mit einem Freund von Fort Lauderdale am 22. Juni 88 nach Washington National Airport. Am nächsten Tage soll das „Open Hearing“, die Anhörung von Hansen, sein. Das Meeting selbst, vor den Senatoren der USA, ist keine Sensation. Gore und TW sind anwesend. Der Sitzungssaal ist stickig und unglaublich warm und keine AC funktioniert. Es sind die extra ausgesucht heißesten Tage des Jahres. Entsprechend lethargisch ist die Beteiligung und Befragung von Hansen. Hansen spult seinen Vortrag ab. Wie ich später von meinem Freund T.C. (Chefpilot der AIR FORCE ONE) erfahre, wurde vor dem Hearing zwischen Al Gore und TW vereinbart und angeordnet, alle ACs abzuschalten. Dies, damit die Anwesenden möglichst keinen Appetit auf Sitzungsverlängerung durch unangenehme Fragen entwickeln und Hansen ins Stottern geraten würde.

T.C. und ich, wir flogen am Wochenende nach Nassau zum Motorbootrennen. Dort erfuhr ich von ihm, der vorher AG und JH nach New York zurück flog, über die Hintergründe der „funktionsunfähigen“ Lüftungsanlage im Sitzungssaal. Als Ergebnis des Hearings wird von der Regierung angeordnet, die derzeitigen und künftigen Forschungsergebnisse zum Klima bei UNEP zu konzentrieren. UNEP ist der Umweltarm der UNO und wurde damals von den Rockefellers und ihrem Intimus und Finanz-Genie Maurice Strong, der wiederum bestens befreundet mit Al Gore war und meines Wissens noch heute Vorstand der Rockefeller Stiftung ist, geleitet. Es wird beschlossen, eine seitwärts der UNEP agierende neue Organisation, das spätere IPCC, zu schaffen. Die Organisation erhält, von Al Gore und Maurice Strong erarbeitet, zwei politische Aufgaben:

Festzustellen, dass die Erde einer Klimakatastrophe entgegengeht und, 
dass die Klimakatastrophe Mensch-gemacht ist.

Bert Bolin, ein Vetter von mir, wird 1. Präsident des IPCC. IPCC liefert in unregelmäßigen Abständen seine Weltklimaberichte. Diese setzen sich wiederum aus statistischen Unterlagen zusammensetzen, die von 4 internationalen Instituten geliefert werden und mit fabrizierten Temperaturskalen und Zubehör gefüttert sind: Dem Giss (J. Hansen), dem CRU (Teil der Universität Ostengland unter Phil Jones) und dem ESSC (Michael E. Mann), Director Earth System Science Center der University of Pennsylvania, sowie einem Wachhund der UNEP und des IPCC für Deutschland, dem in Kassel errichteten Klimainstitut (Center for Environmental Systems Research University of Kassel), mit seinem Chef Prof. Joseph Alcamo. Langjähriger Mitarbeiter bei UNEP und IPCC, bester Freund von Maurice Strong und Al Gore. Da der letzte (1997) fertige und unterzeichnete Weltklimabericht vom IPCC eine Reihe von Hinweisen darauf enthielt, dass Passagen, die ausdrücklich einen vom Menschen verursachten Klimawandel verneint hätten, wurden diese Kapitel von Ben Santer entfernt. Der somit im Sinne der Klimahierarchie des IPCC und der Länder gefälschte Weltklimabericht, ging damit als letzter Zustandsbericht des IPCC den Delegationen der Industrienationen, anlässlich der Weltklimakonferenz in Kyoto im Dez. 1997, zu. Da dieser Bericht gefälscht und somit keine Unterschriften hatte, ordnete Alcamo aus Kassel per e-mail an seine Domestiken in Kyoto das Folgende an: 


„The media is going to say „1000 scientists signed“ or „150 signed“. No one is going to check if it is 600 with PhDs versus 2000 without. They will mention the prominent ones, but that is a different story. Conclusion − Forget the screening, forget asking them about their last publication (most will ignore you.) Get those names!”

So wurden die Unterschriften von 100en von Menschen erbeten und verwendet, die gerade erreichbar waren. Tellerwäscher aus den Nachbarlokalen, Schuhputzer von nebenan etc. Dieses inszenierten Ihre Kollegen, Herr Marotzke. Publiziert wurde dies natürlich nicht; genau wie das Desaster mit den Entdeckungen der Fälschungen für den Hockeystick, die Dokumentierung des Inhaltes von über 1.000 e-mails des CRU, voll von Klimadatenfälschungen. Überall, wo man bei der Kombination von Klima und CO2 hinfasst, Lüge und Betrug. Und alles wird vertuscht. Unter den Tisch. In Gemeinsamkeit beider Institutionen, Medien und Wissenschaft. Wie sagte Popper vor langer Zeit?: Sei ein Experte in Deinem Fach. Dann werden die anderen Dich schützen. Du musst sie dann natürlich auch schützen.

Übrigens: Al Gore wurde der erste Karbon-Milliardär*. Von jedem CO2-Zertifikat bekam und bekommt er über den Emissionsrechtehandel seine Provision. Bei jeder Bewegung, egal ob vor oder zurück, muss auf Umwegen mit dem Nobelpreisträger abgerechnet werden. Klever, nicht wahr? Klima – CO2? Um was es geht es? Nur um gigantische Geschäfte. Was meinen Sie, wann und von wem es arrangiert und speditiert wurde, dass Griechenland in die EU kam und den EURO nutzen dürfte? Wenn Sie erfolgreich schnüffeln, kommen Sie zu den gleichen Figuren, die das IPCC, die UNEP, die Öl- und Baumwoll- und Kupferpreise etc. kontrollieren.

Jede Menge Energie steht den Winzlingen, den Menschen auf der Erde zur Verfügung. Gerade in Rumänien, im Schwarzen Meer, in Polen im Schiefergebirge, in Mozambique, vor Israel, Vietnam etc. gefunden und annonciert. Weswegen 40.000 oder mehr hässliche Windmühlen? Schleswig-Holstein, Land der Horizonte. Weswegen eine wirtschaftlich total abwegige Solarnutzung? Geld, Geld, Geld. Sir Nikolas Stern, früherer Chefvolkswirt bei der Weltbank und Mitaufbereiter von Geschäften ums Klima + CO2, deswegen auch von der Britischen Königin geadelt, forderte 2006 noch 5 Billionen € Subventionen (des Bürgers) zur Reparatur des Klimas. Connie Hedegaard, Klimakommissarin der EU, erhöhte vor wenigen Monaten auf 11 Billionen. Man sieht: Das Geschäft funktioniert. Am besten in Deutschland, denn: Kein Volk der Welt teilt die künstlich inszenierte CO2-Angst so, wie der Michel.

Machen Sie weiter mit? Beim Geldscheffeln für den Staat? Mittels CO2? Für jeden fürs Klima unnötig rausgeschmissenen Euro 19% MWST. Nettoooooooo. Auch nach Kenntnisnahme dessen, wie und wozu IPCC geschaffen wurde? Besser wäre es, Sie eiferten Vahrenhold nach.

Wenn die Bearbeitung der Bevölkerung zur Akzeptanz eines Diktums komplett in der Hand des Staates liegt, muss in jedem Gehirn die Alarmglocke klingeln. Erstens deswegen, weil ein Staat, dessen hierarchische Strukturen das Gemeinwesen dermaßen verschuldeten, wie geschehen, zum Überleben dieser Strukturen in praxi jeden Euro benötigen, der sich auftreiben lässt. Zweitens, weil in einer solchen Situation – zum Geldkassieren – gelogen wird, dass sich die Balken biegen.  Das Instrument, das generell allen verschuldeten so genannten entwickelten Staaten,  via UNO – UNEP – IPCC – Abkommen von Kyoto –   überreicht wurde, nennt sich „Bekämpfung von AGW = Menschgemachte Klimaerwärmung.

Mit der Vermutung, dass Sie das einzige Buch, was inhaltlich hinter die Kulissen der Geburt der Weltklimakatastrophe und deren Kommerzialisierung schaute und von dort berichtete, gar nicht kennen, stehe ich nicht allein da. Ich vermute, dass Sie das Buch nicht lasen. Sie finden dort die Beantwortung aller Fragen zu: Wer beauftragte wie und wo und für wen einen Weltklimarat, ein IPCC zu installieren? Sie sollten es doch einmal komplett lesen, das Buch. Hier der Titel zur Erinnerung: „Die Lüge der Klimakatastrophe – und wie der Staat uns damit ausbeutet“.

Ein langer Brief heute. Kürzer ging nicht, um Sie zu bewegen, vom Saulus zum Paulus zu werden.

Mit Freundlichen Grüßen von

Hartmut Bachmann

Der Brief an Prof. Marotzke word auch hier veröffentlicht

* Anmerkung der Redaktion. Hier irrt H. Bachmann. Das war wohl das hochgesteckt Ziel des A. Gore, jedoch schaffte er es nur zum zigfachen Millionär, weil die von ihm initiierten CO2 Emissionsbörsen, bis auf den Londoner Ableger nicht erfolgreich waren. Er konnte seinen Anteil aber rechtzeitig gewinnbringend an eine der Banken veräußern.




Postmoderne Wissenschaft und die wissenschaftliche Legitimität des Entwurfs der Arbeitsgruppe 1 zum 5. Zustandsbericht des IPCC

Das IPCC vermutet, dass die anthropogene globale Erwärmung (AGW) stattfindet und dass sie durch die Akkumulation menschlichen CO2-Ausstoßes verursacht wird. Bis heute jedoch wurden kein handfester wissenschaftlicher Beweis, ja nicht einmal starke empirische Hinweise für diesen Effekt präsentiert, weshalb dieser Effekt ein Objekt der Spekulation bleibt. Dennoch haben Reaktionen gebildeter Gesellschaften und von Regierungsagenturen auf die IPCC-Berichte bisher die Meinung weit verbreitet, dass diese globale Erwärmung gefährlich (DAGW) sein könnte und dass Maßnahmen ergriffen werden sollten, den Eintrag menschlichen CO2 in die Atmosphäre zu begrenzen.

Dieses Arbeitspapier analysiert vor allem die politischen Maßnahmen, die Verfahren und die Philosophie der Wissenschaftler und der Regierungsfunktionäre des IPCC im Licht der traditionellen wissenschaftlichen Prinzipien.

Es konzentriert sich auf:

  • die generelle Darbietung der IPCC-Berichte mit ihrer Terminologie zur Wahrscheinlichkeit, selbsternanntes Expertenwissen und die Nichtbeachtung alternativer, unabhängiger Standpunkte
  • – aktuelle fragwürdige Praktiken der Klimamodellierung
  • – vernachlässigte (fast vergessene) Einsichten aus der klassischen Klimatologie
  • – die fehlende Aufmerksamkeit wichtiger neuer Ergebnisse der Naturwissenschaften, die in der Klimaforschung anzuwenden erwartet wird, wie z. B. die Komplexitätstheorie
  • – die fragwürdige Qualität gegenwärtiger Studien der Literatur.

Es wird gefordert, dass Studien der Zustandsberichte durch individuelle Nationen durchgeführt werden, weitgehend unabhängig vom IPCC, wie Indien es bereits angekündigt hat. Diese Begutachtungen werden am Besten von erfahrenen und etablierten Wissenschaftlern durchgeführt, deren Reputation in traditionellen Disziplinen zur Untermauerung der Klimawissenschaft liegt, besonders Physik, Chemie, Geologie, Astronomie, Sonnenphysik und Meteorologie. Die Verfahren sollten strikt den traditionellen Prinzipien der Wissenschaft folgen und sich auf die wissenschaftliche Methodik und empirische Beweise hinsichtlich der hypothetischen DAGW konzentrieren.

Einführung

Viele hundert Leitautoren, beitragende Autoren und Begutachter haben am jüngsten Zustandsbericht der begutachteten Literatur zur Klimaänderung des IPCC mitgearbeitet. Der Entwurf für den 5. Zustandsbericht der Arbeitsgruppe 1 (WG 1 AR 5)ist eine eindrucksvolle Zusammenfassung und Aufstellung von in wissenschaftlichen Journalen veröffentlichten Studien bis 2011, einschließlich einiger, die auf Beobachtungen in der Realität basieren, zusammen mit einer Diskussion der möglichen Interpretationen dieser Literatur hinsichtlich der DAGW-Hypothese. Auf den ersten Blick kann man den Eindruck gewinnen, dass hier das ‚vollständige Werk’ der wissenschaftlichen Gemeinschaft weltweit sowie eine umfassende Zusammenfassung der gegenwärtigen Forschungsliteratur präsentiert wird. Jedoch:

  • Die vorherrschende Hypothese lautet, dass DAGW stattfindet. Diese Hypothese wird seit vielen Jahren durch zahlreiche unabhängige Wissenschaftler in Frage gestellt. Diese Wissenschaftler wurden nicht eingeladen, an der Vorbereitung des 5. Zustandsberichtes teilzunehmen.

  • Die zitierte wissenschaftliche Literatur im Entwurf des 5. Zustandsberichtes ist selektiv, und zwar zugunsten von Studien die die DAGW-Hypothese stützen, und selbst diese wurden selektiv analysiert, um zum gleichen Ergebnis zu kommen (3)

Diese beiden zugrunde liegenden Verzerrungen geben den Ton an, den die Autoren des AR 5 vermitteln möchten. Deren Botschaft lautet, dass die gegenwärtigen Manifestationen der Klimaänderung Vorboten einer bisher nicht da gewesenen und bedrohlichen globalen Erwärmung seien, hervorgerufen durch die anthropogenen Emissionen von CO2, das sich in der Atmosphäre ansammelt. Allerdings bleibt dies trotz der endlosen Wiederholungen seitens der Befürworter eine unbewiesene Hypothese, mit der viele Wissenschaftler aufgrund ihres Wissens um widersprechende empirische Beweise nicht übereinstimmen. Die DAGW-Hypothese basiert auf der unbestrittenen physikalischen Tatsache, dass CO2 infrarote Strahlung (IR) absorbiert und emittiert. Die meisten Kritiker der DAGW-Hypothese bezweifeln jedoch, ob die gemessenen und projizierten Änderungen der CO2-Konzentration signifikante Auswirkungen auf das komplexe Klimasystem haben, wie es die DAGW-Befürworter propagieren. In diesem Zusammenhang betonen die Kritiker eine Anzahl von Beobachtungen, die der AGW-Hypothese direkt widersprechen. Aber die Erwähnung dieser Phänomene fehlt auffallend in früheren Berichten der Arbeitsgruppe 1 (WG 1) und auch im Entwurf zu AR 5.

Viele Details wissenschaftlicher Beweise, die nicht mit der IPCC-Agenda konform gehen, sowie zahlreiche relevante Diskussionen finden sich in den Berichten des NIPCC ebenso wie auf zahlreichen wissenschaftlichen Blogs. Beispiele angezweifelter IPCC-Wissenschaft sind dessen Überinterpretation instrumentell gemessener Temperaturtrends, das Scheitern an Klimaänderungen in geologischen Zeiträumen, die Missachtung von Eisveränderungen im Verhältnis von Arktis und Antarktis (d. h. global im Gegensatz zur Betrachtung des arktischen Eises allein), das Scheitern des IPCC, auch nur ansatzweise einen Beweis für eine Beschleunigung des Meeresspiegelanstiegs zu erbringen sowie die überaus verengte und spekulative Interpretation der Veränderungen von Lebensräumen bestimmter Spezies durch die globale Erwärmung.

Im Anhang A werden diese Punkte noch etwas detaillierter erläutert, aber mehr noch als diese und andere Zweifel an der DAGW-Hypothese wieder aufzunehmen wird sich diese Studie stattdessen auf die wissenschaftliche Methodik konzentrieren und darauf, was essentiell im Entwurf des AR 5 fehlt sowie auf die bei der Vorbereitung angewandte Philosophie. Die Schlussfolgerung, die von der wissenschaftlichen Gemeinschaft im Ganzen ebenso wie von den politischen Entscheidungsträgern beachtet werden, müsste lauten, dass der Entwurf zum AR 5 des IPCC unzureichende Objektivität aufweist und dass die für die Basis politischer Entscheidungen unabdingbare ‚traditionelle’ wissenschaftliche Ausgewogenheit fehlt. Bedauerlicherweise enthält der Bericht viele Vorgehensweisen einer ‚postmodernen’ Annäherung an die Wissenschaft, wobei die Regeln der Logik nur im Zusammenhang mit den gewählten kulturellen Paradigmen einer vorgegebenen Denkschablone gelten.

Einige charakteristische Besonderheiten des IPCC-Entwurfs

CO2 als wesentlicher Treiber für steigende Temperatur

Alle vierzehn Kapitel des IPC-Berichtes gehen von der Annahme aus, dass das CO2 ein dominanter Treiber der globalen Temperatur ist. In manchen Kapiteln wird sogar behauptet, dass es inzwischen zunehmende Beweise für das CO2 als Ursache steigender Temperatur und anderer Symptome der Klimaänderung gibt. Allerdings finden sich in den relevanten Passagen und auch im gesamten Bericht an keiner Stelle Beschreibungen für solche Beweise.

Der ‚Beweis’, auf den sich das IPCC bezieht, ist nicht empirischer Natur, sondern basiert weitgehend auf schon vorher präsentierten Hypothesen zum Prozess des Strahlungstransportes innerhalb eines atmosphärischen Körpers.

Aber wie funktioniert dieser Prozess in der realen Atmosphäre weltweit? Um diese Frage zu beantworten, verwenden die Modellierer des IPCC deterministische allgemeine Zirkulationsmodelle (General Circulation Models GCMs). Diese Modelle, bei denen der klimatreibende Effekt des CO2 vorgegeben ist, werden auf Supercomputern gerechnet. Die DAGW-Befürworter argumentieren, dass die heutige beobachtete Klimaänderung nicht ohne einen menschlichen treibenden Effekt erklärt werden kann. Da die virtuelle Welt der Modelle sich sehr unterscheidet von der realen Welt, einschließlich einer Serie von ‚was wenn’-Experimenten, weisen Kritiker darauf hin, dass der hypothetische Einfluss des CO2 auf das globale Klimasystem spekulativ bleibt. Eine fundamentale Kritik der gegenwärtigen Generation von GCMs wird im nächsten Abschnitt geübt.

Neben solcher Kritik ist es jedoch augenscheinlich, dass Experimente mit GCM-Modellen einem starken und nützlichen heuristischen Ziel dienen. Ihr Gebrauch als ein heuristisches Werkzeug ist daher vollkommen angemessen. Es ist Aufgabe der GCMs zu zeigen, was das IPCC „Projektionen“ der zukünftigen Temperatur nennt, was jedoch dann unvermeidlich von der Presse, der Öffentlichkeit und von Politikern als „Vorhersage“ angesehen wird. Dies steht im Gegensatz zur bewährten wissenschaftlichen Praxis.

Der Vorhersagewert und andere Defizite der GCMs sowie die nicht perfekte Darstellung eines Modelles ist natürlich kein Beweis dafür, dass es komplett falsch liegt. Und in ähnlicher Weise kann das vermutete Fehlen eines starken CO2-Einflusses auf das Erdklima, wie es DAGW-Kritiker anführen, ebenfalls als spekulativ angesehen werden. Wie auch immer, derzeit erleben wir, dass die empirischen Daten zeigen, wie sehr früher präsentierte Projektionen in die Zukunft in Zusammenhang mit anthropogenem CO2 falsch waren.

Die Abweichung eines Modells von Beobachtungen ist ein wissenschaftliches Signal, das (mit der Haltung zu Nebengedanken, die Wissenschaftler anstreben) weitere gründliche und innovative Studien erfordert.

Wahrscheinlichkeitsterminologie

Ein anderer bemerkenswerter Prozess des IPCC ist die Anweisung an die Autoren, dass sie ihre Schlussfolgerungen in der Terminologie einer qualitativen (d. h. meinungsbasierten) Wahrscheinlichkeitsskala ausdrücken. Dieser Umstand wird aus der folgenden Tabelle ersichtlich, zu finden in der Guidance Note for Lead Authors für den 4. Zustandsbericht, ausgegeben 2005 4:

Tabelle 4: Wahrscheinlichkeitsskala

Dieses Prozedere führt zu einem Eintrag subjektiver Beurteilungen durch eine Gruppe Wissenschaftler, die im Endeffekt durch „Handzeichen“ zu ihrem Urteil kommen. Ein solches Prozedere gehört in die Bereiche soziale und politische Wissenschaft und sollte in einer echten Studie der etablierten Wissenschaft keine Rolle spielen (5).

Tatsächlich, die Anwendung dieser postmodernen Technik in den jüngsten IPCC-Berichten reicht aus, um diese als seriöse wissenschaftliche Dokumente zu disqualifizieren.

Selbsternannte Experten

Bedauerlicherweise wird der Gebrauch einer nicht objektiven Beurteilung nach Pseudo-Wahrscheinlichkeiten nicht mehr als eine ungewöhnliche Praxis in der Entwicklung von Wissenschaftspolitik in vielen wissenschaftlichen Institutionen angesehen. Ob eine daraus resultierende Befürwortung sinnvoll ist oder nicht, hängt von der Glaubwürdigkeit ab, mit der Wissenschaftsberater (und in der Folge politische Entscheidungsträger) dem Expertenwissen der an dem ‚Konsens‘ einer bestimmten Sache beteiligten Wissenschaftler Tribut zollen. Werden diese Wissenschaftler als glaubwürdig angesehen, werden die Politiker den ‚Führern‘ folgen, welche im Falle des IPCC die Leitautoren der Berichte sind.

Aber warum solche Leute als von vornherein glaubwürdig angesehen werden, kann und muss hinterfragt werden. Liegt es einfach an ihrem selbst verliehenen Expertenstatus oder weil sie einige außerordentliche Einsichten in sehr komplexe Zusammenhänge der Klimaänderung an den Tag gelegt haben? Hinsichtlich des IPCC ist Ersteres sicherlich zutreffend (weil bis jetzt keiner der vielen Alarmisten des IPCC widerlegt worden ist). Mehr noch, es gibt eine unglückliche Tendenz, auf extreme Wetterereignisse zu deuten, die zwar nicht spezifisch vorhergesagt worden waren, die aber als etwas hingestellt werden, was man von einer globalen Klimaänderung zu erwarten hätte.

Es fehlt die Achtung vor alternativen, unabhängigen Ansichten

Unabhängige Wissenschaftler reagieren besonders empfindlich auf die Arroganz und Intoleranz gegenüber alternativen Ansichten, die den selbsternannten Klimaexperten des IPCC unter die Augen kommen. Personen, die von sich behaupten, überragendes Wissen auf jedem Gebiet öffentlicher Politik zu haben, nicht nur hinsichtlich der globalen Erwärmung, und die aktiv an politischen Aktivitäten teilnehmen, und die verhindern sollen, dass ihre Ansichten unabhängig begutachtet werden (wie es die IPCC-Wissenschaftler immer getan haben), sollte man mit Argwohn betrachten. Das zur-Schau-stellen solcher Verhaltensweisen lässt signifikante Zweifel aufkommen über diejenigen, die dem Stall der IPCC-Berater angehören. Es muss jedoch anerkannt werden, dass solche Gefühle auf Gegenseitigkeit beruhen, und das viele Protagonisten der DAGW der Meinung sind, dass ihre Kritiker einfach ‚Leugner‘ dessen sind, was sie als etablierte Wissenschaft ansehen.

Dieses beiderseitige Fehlen von Respekt hat sich als ernstes Hindernis einer ‚normalen’ wissenschaftlichen Diskussion zwischen den Protagonisten und Antagonisten der DAGW in der Vergangenheit herausgestellt. Und bedauerlicherweise liefert der neue Entwurf des 5. Zustandsberichtes mit seinen unverblümten Statements darüber, was hinsichtlich der angenommenen gefährlichen Erwärmung wahrscheinlich ist oder nicht, keine Hinweise darauf, dass eine solche Diskussion demnächst in Gang kommt.

Der wichtigste Punkt einer Verhinderung dieser Diskussion lautet, dass der Stil des Entwurfs von AR5 diesen eher als ein politisches als ein wissenschaftliches Dokument kennzeichnet, weil er innerhalb des Rahmens eines speziellen kulturellen Paradigmas erstellt worden ist. Dies ist so trotz einer gründlichen und manchmal gut zusammengefassten Selektion der begutachteten Klimaliteratur. Demnach können die AR5-Berichte der Arbeitsgruppen 2 und 3, die den Erwartungen zufolge auf den Entwürfen der hier begutachteten Arbeitsgruppe 1 aufbauen, auch nicht als wohlüberlegte, ausgewogene, akkurate und leidenschaftliche Analysen der Klimawissenschaft und der erforderlichen sinnvollen Politik angesehen werden.

Modellieren der Klimaänderung

Modellieren ist zu einem bedeutenden Werkzeug in allen naturwissenschaftlichen Disziplinen geworden – und mit zunehmendem Erfolg und Wert wegen der großen Fortschritte, die die Programmierung und die Technologie von Computern gemacht haben. Modelle werden inzwischen routinemäßig benutzt, um komplexe Prozesse besser zu verstehen, vor allem solche, die nur durch unlösbare, nichtlineare Differentialgleichungen beschrieben werden können, und die daher einer modellbasierten Simulation bedürfen, um verstanden zu werden.

Der Erfolg von Modellierungen in den Bereichen Meteorologie, vor allem Wettervorhersage, hat sich stetig vergrößert. Aber gerade auch speziell in diesem Bereich hat sich eindeutig herausgestellt, dass die Vorhersagbarkeit wegen der chaotischen Natur des komplexen atmosphärischen Systems begrenzt ist. Vorhersagen lassen sich höchstens etwa eine Woche im Voraus machen. Nach diesem Zeitraum werden chaotische Variationen und wachsende Fehler die Erfolge kürzerfristiger Vorhersagen überkompensieren. Aufgrund theoretischer Überlegungen ist heute allgemein akzeptiert, dass die „eine-Woche-Grenze“ heutiger Vorhersagemodelle nicht mehr wesentlich ausgeweitet werden kann, zumindest nicht in den Klimazonen der gemäßigten Breiten mit ihrer hohen atmosphärischen Variabilität hinsichtlich von Hoch- und Tiefdruckgebieten.

Was also lässt die Klimawissenschaftler glauben, dass sie Klimavorhersagen für Jahrzehnte im Voraus machen können? Mit Hilfe von GCMs, die aus den gegenwärtig benutzten Modellen zur Wettervorhersage abgeleitet worden sind, nahmen die Modellierer an, dass die Mitte des 19. Jahrhunderts ein guter Startpunkt für das Studium künftiger Klimaänderungen ist, und dass ihre Algorithmen bei diesem Startpunkt akkurat das Mittel der globalen Klimaänderung berechnen können im Gegensatz zu der hoch variablen (und über eine Woche hinaus unbekannten) Entwicklung des Wetters. Mehr noch, jedem einzelnen Modell wird vorgegeben, dass ein signifikanter Teil der globalen Erwärmung auf einem Antriebseffekt durch CO2 beruht.

Diese Vorgehensweise ist naiv. Sie ist wahrscheinlich auch fundamental falsch.

In historischen und geologischen Zeiträumen sind Klimaänderungen als ein natürliches Phänomen etabliert. Klimaänderungen gibt es in allen Zeitbereichen bis zu einer Million Jahre, und es führt in die Irre, zu Analysezwecken eine einzige 150 Jahre lange Periode aus ihrem Zusammenhang zu reißen und zu isolieren (darunter solare Zyklen von 11, 22, 80, 200 und 1500 Jahren ebenso wie gut bekannte multidekadische Variationen vieler unterschiedlicher Oszillationen zwischen Ozean und Atmosphäre). Daher sollte man zuerst versuchen, Klimaänderungen in Relation zu diesen natürlichen Phänomenen zu modellieren. Stattdessen werden fast alle Klimazyklen von der gegenwärtigen Generation der GCMs zugunsten des CO2-Zusammenhangs außen vor gelassen.

Erst nach einer vernünftigen Analyse aller bekannten natürlichen Variationen der Vergangenheit könnte es möglich sein, die mögliche Bedeutung eines verstärkten CO2-Effektes zu erkennen.

Die natürliche Variation wird im nächsten Abschnitt detaillierter beschrieben.

Klassische Klimatologie

Das ‚Modellieren’ von der oben beschriebenen Art wurde auf einer breiteren Grundlage in qualitativer und beschreibender Weise von klassischen Klimatologen vor 1965 durchgeführt. Dabei fanden sie heraus, dass die historische Klimavariabilität zum großen Teil auf Verschiebungen der sechs großen Windsysteme des Planeten beruhen, Verschiebungen, die oft mit multidekadischen Klimaoszillationen zusammen hängen (6).

Wenn sich verändernde Strömungssysteme tatsächlich in historischen Zeiträumen der wesentliche Treiber globaler Klimaänderungen waren, muss jede Auswirkung von Änderungen der Zusammensetzung der Atmosphäre, z. B. durch die Zunahme von CO2, auf das Klima zuvor deren Auswirkung auf die Windzonen modelliert werden. Daran sollte sich die Suche nach den natürlichen Variablen anschließen, die diese Änderungen hervorgerufen haben könnten. Sollte diese Modellierung zufrieden stellende Ergebnisse und Erklärungen für die Veränderungen der Vergangenheit liefern, dann und erst dann ist es die Zusammensetzung der Atmosphäre, die untersucht werden kann.

Andere wichtige Erkenntnisse aus der klassischen Klimatologie, die durch jüngste Beobachtungen bestätigt worden sind, scheinen ebenfalls vom IPCC ignoriert zu werden. Zum Beispiel die Bedeutung der ungleichen Strahlungsverteilung durch die Sonne. Sie würde die Temperatur in der Äquatorzone bis fast 100°C steigen lassen, wenn es keine konvektive Umverteilung der Wärme über den Planeten durch Winde, die Meeresströmungen und – allgemeiner – die Wasserzyklen geben würde (7). Dieses Verständnis legt nahe, dass das mittlere globale Klima, falls ein solches Konzept überhaupt irgendeine Bedeutung hat, großenteils durch meteorologische und physikalische Prozesse um den Äquator und vor allem in den tropischen Ozeanen bestimmt wird.

Konvektion ist für den Wärmetransport genauso wichtig wie Strahlung

Anstatt detailliert den wichtigen Effekt der lokalen Überhitzung in den Tropen und deren Entschärfung durch den konvektiven Wärmetransport zu erwägen, ziehen die AGW-Befürworter des IPCC die Metapher vor, dass der Planet ohne das, was sie als Treibhauseffekt bezeichnen, ein Eisball wäre. Dieser Glaube basiert auf dem Gedanken eines allgemeinen planetarischen Energiebudgets, dessen Analyse darauf hindeutet, dass die gesamte Sonnenenergie, die die untere Atmosphäre (die Troposphäre) und die Erdoberfläche erreicht, nicht ausreicht, ein mittleres globales Temperaturniveau von 15°C zu halten, es sei denn, ein Wärmepuffer in der Troposphäre agiert als eine Art Decke. Die sich daraus ergebende Dämmung wird (der Öffentlichkeit) dann mit der Metapher eines Treibhauses erklärt. Diese Metapher führt erheblich in die Irre, weil sich ein Treibhaus gravierend von der freien Atmosphäre unterscheidet, wird doch in einem Treibhaus die Wärme durch Unterdrückung der Luftzirkulation (d. h. der Konvektion) zurück gehalten.

In Wirklichkeit stellen konvektive Prozesse einen der wichtigsten Einflüsse auf den Wärmehaushalt der Erde dar und spielen eine bestimmende Rolle bei der Regelung der Temperatur an der Erdoberfläche und in der Troposphäre. Nichtsdestotrotz ist auch aus der klassischen Klimatologie offensichtlich, dass die Atmosphäre Wärme aus Strahlung einfängt, sowohl die von der Sonne kommende als auch die (im thermischen Infrarot) ausgehende Strahlung von der Erdoberfläche. Das Ergebnis sind ein Druckgradient und ein Temperaturgefälle – letzteres mit einer Bandbreite von im Mittel 15°C an der Oberfläche bis -50°C in einer Höhe über 10 km. Das theoretisch berechnete Temperaturgefälle wird jedoch fortwährend ‚gestört’ durch lokale Wetterereignisse einschließlich der horizontalen Verlagerung von Hoch- und Tiefdruckgebieten. Die Oberfläche kann sich manchmal beim Fehlen solcher Bewegungen stark erwärmen (40°C), nur durch Dämmung.

Das Dämmungspotential der Troposphäre erklärt sich der AGW-Hypothese des IPCC zufolge fast ausschließlich durch Strahlungstransportprozesse, welche man in einer Luftsäule von Infrarot absorbierenden und emittierenden Molekülen erwartet. Andere (skeptische) Wissenschaftler erachten diese Beschreibung als viel zu eng und weisen darauf hin, dass andere meteorologische und physikalische Prozesse in aktuellen Klimatologie-Fachbüchern gut repräsentiert sind – von denen die meisten den erwarteten verstärkten ‚Treibhauseffekt’ viel reservierter sehen als das IPCC.

Es gibt zahlreiche Bücher und Artikel von ‚Skeptikern der globalen Erwärmung’, die die AGW-Hypothese aufgrund physikalischer und meteorologischer Gegebenheiten in Frage stellen. Zwar werden Nicht-Strahlungsmechanismen wie z. B. unterschiedliche Arten der Konvektion, vom IPCC nicht vollständig in Abrede gestellt, doch sind sie im Vergleich mit dem Verständnis von Klimaänderungen einer größeren wissenschaftlichen Gemeinschaft erheblich unterrepräsentiert. Der Disput konzentriert sich auf eine unterschiedliche Interpretation der gegenseitigen Ursache-Wirkung-Relation zwischen Luft- und Meeresströmungen auf dem Planeten und auf die optischen Eigenschaften der Atmosphäre, welche wiederum einen bestimmten Temperaturgradienten über Breite und Höhe vorgeben.

Es ist zu erwarten, dass positive und negative Rückkopplungen in den oben erwähnten Beziehungen eine Rolle spielen. Die meteorologische Umgebung versucht fortwährend, einen Gleichgewichtszustand zu erreichen, was aber ständig durch verändernde Kräfte unterbrochen wird. In einem dynamischen System ist zu erwarten, dass dies im globalen Maßstab zu komplexen Oszillationsprozessen und nicht zu einem festgelegten Gleichgewicht führt. Letzteres wird bei der DAGW-Hypothese empfohlen, indem man Modelle für unabhängige ‚Klimaantriebe’ nutzt, zum Beispiel die Variabilität der Sonne sowie Änderungen des Aerosols und der optischen Dichte der Atmosphäre.

Die Missachtung einer wichtigen Errungenschaft der Naturwissenschaften

Die endgültige veröffentlichte Version des Zustandsberichtes 5 des IPCC wird zweifellos mit ähnlichen Kritiken bedacht, die oben umrissen worden sind. Im Besonderen wird die Proklamation im Berichtsentwurf, dass es „zunehmende Beweise dafür gibt, dass CO2 der Grund für den globalen Temperaturanstieg und andere Indikationen für die Klimaänderung ist“, massiv unter Feuer geraten, weil diese Feststellung aufgrund der empirischen Daten einfach nicht gerechtfertigt ist.

Ziemlich unabhängig vom Erreichen eines intelligenteren Verständnisses des fortgesetzten Streits unter Wissenschaftlern mit unterschiedlichen Standpunkten zur Klimawissenschaft und DAGW muss dringend ein fundamentales Problem bei der Forschung zur Klimaänderung angesprochen werden.

Diese Notwendigkeit ist von praktischer Bedeutung für die Philosophie hinter einer Komplexitätstheorie, die früher unter der Bezeichnung Katastrophen- oder Chaostheorie bekannt war, welche sich schon im 19. Jahrhundert entwickelt hat. Die Komplexitätstheorie versucht, die Eigenarten dynamischer Prozesse zu interpretieren, die weit unabhängig von jedem thermodynamischen Gleichgewicht auftreten und die daher nur mit Hilfe nichtlinearer (d. h. nicht lösbarer) Differentialgleichungen beschrieben werden können. Computersimulationen, durch Fortschritte in der Informationstechnologie Mitte und Ende des 20. Jahrhunderts stark verbessert, wurden im Besonderen wichtig, um die Natur solcher Prozesse zu simulieren, wobei es wichtig ist darauf hinzuweisen, dass solche Simulationen NICHT tatsächliche Lösungen in der realen Welt zur Verfügung stellen. Stattdessen muss jede solche Simulation mit einem „was, wenn“-Experiment unter bestimmten Bedingungen in einer virtuell realen Welt behandelt werden.

Wegen seiner komplexen Natur ist die Klimaänderung zweifellos ein illustratives Beispiel eines Zweiges der Wissenschaft, in dem man ohne Verwendung solcher Computersimulationen kaum Fortschritte machen kann. Diese Vorgehensweise wurde schon Mitte des 20. Jahrhunderts von den Main Stream-Klimatologen aufgegriffen und erklärt. (8)

Die Kritik an den Schlussfolgerungen dieser früheren Simulationen bezog sich überwiegend auf Fragen, ob die eingehenden Variablen genügend aussagekräftig und ob die angewandten Algorithmen sowohl gültig als auch akkurat waren.

Diese Diskussion wird weitergehen und kann zu einer Verbesserung der Modelle führen. Aber viele wichtige Aspekte der Komplexitätstheorie wurden bisher überhaupt nicht in den Modellierungsprozess eingebracht. Am wichtigsten ist die fehlende Berücksichtigung von Oszillationsprozessen, für die Trajektorien beschrieben werden können, die durch ‚feste Punkte’ genannte Gleichgewichtszustände bestimmt werden können; der entwickelten Theorie zufolge sollten diese niemals auftreten. Dass dieser Aspekt der Komplexitätstheorie bei der gegenwärtigen Modellierung weitgehend ignoriert wird, kann man daran erkennen, dass zuvor keine Identifikation aller festen Punkte durchgeführt worden ist, die hier involviert sein können.

Ein erkannter wesentlicher Fixpunkt ist die globale Strahlungsenergiebilanz zwischen der einfallenden Sonnenstrahlung und der langwelligen Ausstrahlung an der Obergrenze der Atmosphäre. Ob alle Angaben im Modell von Kiehl und Trenberth (KT97) zur globalen Energiebilanz akkurat sind oder nicht, ist von relativ geringer Bedeutung (9). Die viel wichtigere philosophische und wissenschaftliche Frage lautet, ob das Modell KT97 einen Fixpunkt zu beschreiben versucht (hinsichtlich der Komplexitätstheorie ein Attraktor), der in keinem wirklichen Gleichgewichtszustand ist.

Ein zweiter, in KT97 nicht berücksichtigter, aber durch grundlegende Physik und meteorologische Beobachtungen gut belegter Fixpunkt ist die Maximumtemperatur von 29°C, der die tropischen Ozeane charakterisiert, kontrolliert durch die Umleitung der Energie durch starke lokale Dämmung hin zu Verdunstung. Viele weitere Fixpunkte (das heißt Attraktoren, die die Klimatrajektorien beeinflussen) müssen existieren, zum Beispiel an den Grenzen der Windsysteme und an der Obergrenze der Atmosphäre. Diese Attraktoren wurden bis jetzt noch nicht einmal identifiziert, geschweige denn in die GCMs eingebaut.

Man würde erwarten, dass eine Zustandsbeschreibung wie AR5 der WG 1 diesen und anderen Aspekten der Komplexitätstheorie volle Aufmerksamkeit gewidmet hätte, vielleicht sogar deren Behandlung in einem speziellen Kapitel. Obwohl jedoch die deterministisch-chaotische (komplexe) Natur des Klimasystems im Vorübergehen in früheren IPCC-Zustandsberichten erwähnt worden war, gab es niemals eine ausführliche Diskussion darüber, und auch im AR5 ist das nicht der Fall. Die unvermeidliche Schlussfolgerung daraus lautet, dass die IPCC-Experten der Computersimulation und andere Leitautoren mit den Grundprinzipien der Komplexitätstheorie nicht vertraut sind. Folglich fehlen Einsichten im Entwurf von AR 5, die von einer hoch entwickelten und wesentlichen mathematischen und wissenschaftlichen Institution nicht fehlen sollten und dürften.

Kommen wir zurück zu den wesentlichen Konsequenzen, die man hätte berücksichtigen müssen:

  1. Die Punkte in jedem Graphen sind nicht „normal“ um den Mittelwert verteilt (die Verteilung ist multimodal), und die Definition von Vertrauensintervallen, die auf der Standardabweichung um den Mittelwert abgeleitet sind, ist ein statistischer Fehler.

  2. Wie vorher schon erläutert ist die Mittelung der Kurven aus dem gleichen Grunde bedeutungslos.

  3. Es ist mathematisch nicht korrekt, Faktoren zu addieren/zu subtrahieren (eine lineare Operation), wie z. B. die Isolierung einer Trendlinie oder eines jahreszeitlichen Effektes, wenn das System nichtlinear ist, muss ein Querschnittsfaktor existieren.

Der Ursprung der ‚wahrscheinlich’ genannten ‚Unsicherheiten’ hätte durch Verwendung von Argumenten von Auditoren anderer Disziplinen verdeutlicht werden können, die mit dem manchmal unerwarteten Verhalten komplexer Systeme vertraut sind. Dies unterstreicht wieder einmal, dass der Entwurf vom AR 5 keine ‚komplette Arbeit’ einer weltumspannenden wissenschaftlichen Gemeinschaft ist. Es kann sein, dass der AR 5 des IPCC trotz (oder sogar gerade wegen) der Alarmrufe bzgl. der Erwärmung sich eher als ein Hindernis als eine Hilfe auf dem Weg zu den Erkenntnissen über die wahren Gründe der globalen Erwärmung und von Klimaänderungen erweist.

Abwägung der Beweise in Zustandsstudien

Der Entwurf zum AR 5 behauptet, die physikalischen Mechanismen der Klimaänderung zu erklären. Aber er spricht den Kern der Sache gar nicht adäquat an: nämlich die Frage nach den Gründen der natürlichen Klimavariabilität. Bei unserem gegenwärtigen Wissensstand, nämlich dass DAGW existiert, ist eine wissenschaftliche Zustandsstudie erforderlich, die die Beweise für und gegen die Hypothese abwägt. Dieser Zustandsbericht sollte nicht einfach die Leistung einer einzigen spekulativen DAGW-Hypothese proklamieren, wie es der Entwurf zum AR 5 tut.

Die meisten Kapitel im AR 5 behandeln nicht die CO2-Hypothese als solche, sondern lediglich die Signale, die auf die Klimavariabilität hinweisen. Dass diese Variabilität verbreitet auftritt überrascht niemanden, weshalb die geeignete Null-Hypothese lautet, dass die beobachtete Variabilität ein Ausdruck natürlicher Gründe ist, solange und bis kein anthropogener Grund und eine gefährliche Rate einer daraus resultierenden Änderung empirisch gezeigt werden kann.

Obwohl der IPCC-Bericht den Titel ‚The Scientific Basis’ trägt mit der starken Betonung auf und dem Vertrauen der Leitautoren in eine Auswahl DAGW-freundlicher begutachteter Literatur macht den Bericht eher zu einem politischen und nicht einem wissenschaftlichen  Zustandsbericht.

Zusammenfassend: Der Entwurf zum AR 5 bietet keine ausgewogene und leidenschaftslose Beschreibung der aktuellen Klimawissenschaft, die als Basis für politische Maßnahmen dienen kann. Obwohl einige erfahrene, unabhängige Wissenschaftler wahrscheinlich von dem Bericht in die Irre geführt werden, von denen einige auch schon ihr Unbehagen mit der IPCC-Arbeitsweise kundgetan haben, könnte das Dokument der WG 1 gefährlich werden, wenn Nichtexperten davon Gebrauch machen – vor allem Bürokraten und Politiker.

Die Notwendigkeit einer ausgewogenen wissenschaftlichen Zustandsbeschreibung

Eine einwandfreie wissenschaftliche Zustandsbeschreibung in Sachen globale Erwärmung sollte auf der kritischen Erwägung einer breiten Palette von Studien in wissenschaftlichen Journalen basieren, und nicht auf naivem und bedingungslosem Vertrauen in den Begutachtungsprozess ausgewählter wissenschaftlicher Journale, seien diese auch noch so angesehen (10). Diese Studien sollten kritisch von einer größeren Anzahl von Schiedsrichtern gelesen werden, mehr als die zwei oder drei bei dem Journal angestellten. Außerdem sollten in der Öffentlichkeit die Befürworter einer Hypothese, die Implikationen für teure politische Maßnahmen enthält, nicht ihre eigenen Begutachter oder ihre eigene Jury sein – wie es die IPCC-Leitautoren tatsächlich waren.

Die Kritiker des IPCC, und davon gibt es viele, haben seit Langem Zweifel daran geäußert, ob das Personal des IPCC ausreichend die Notwendigkeit für ordentliche und angemessen sorgfältige Zustandsberichte wie AR 4 und AR 5 wahrnimmt. Diese Zweifel wurden bestätigt, als die Korrespondenz zwischen einigen Leitautoren des IPCC durch Klimagate 1 im Jahr 2009 offen gelegt wurde. Dieses Leck, und ein zweites Leck Ende 2011 zeigten inter alia viele Beispiele wissenschaftlichen Fehlverhaltens, einschließlich im Besonderen einer herablassenden Haltung und emotionaler Reaktionen auf professionelle Kritik von außen.

Detaillierte Analysen der IPCC-Prozeduren und damit Zusammenhängendes von John McLean, Andrew Montford und jüngst durch Donna Laframboise (11) sowie die Analysen von Steve McIntyre auf seinem Blog ClimateAudit verdienen viel mehr Aufmerksamkeit seitens der Politiker als diese bisher dafür übrig hatten. Stattdessen fahren die Politiker fort, ein unterwürfiges Klammern an die politisch gefärbten Ratschläge des IPCC an den Tag zu legen, entweder weil sie es nicht besser wissen oder bevorzugen, die eindeutigen Unzulänglichkeiten und die fehlende Ausgewogenheit der wissenschaftlichen Zusammenfassungen des IPCC nicht zur Kenntnis zu nehmen.

Anfang 2007 hat das IPCC unter Druck von Kritikern die kritischen Kommentare der Begutachter veröffentlicht, die es zum AR 4 WG 1 gegeben hatte, zusammen mit den Antworten auf diese Kritiken von den Leitautoren. Ungefähr zur gleichen Zeit haben die Autoren der Zusammenfassung für Politiker von AR 4 (SPM) ihren Text fertig gestellt, der offenkundig die substantielle Kritik von außen am IPCC nicht enthielt. Und in einer anderen erstaunlichen Missachtung des Prozesses basierte die politisch motivierte SPM des AR 4 auf einem Entwurf der WG 1; weitere sechs Monate gingen ins Land, bevor die Schlussfolgerungen und Behauptungen der SPM in den endgültigen Bericht integriert wurden, auf den die SPM doch aufbauen sollte. Inzwischen haben Sprecher des IPCC bereits die alarmierende Botschaft der fortwährenden gefährlichen globalen Erwärmung in die Welt posaunt, basierend auf der zuvor veröffentlichten SPM.

Diese verschiedenen Umstände und Fakten machen klar, dass eine unabhängige wissenschaftliche Begutachtung des WG1 AR 5 des IPCC unabdingbar ist, sowie der Bericht veröffentlicht wird. Unabhängige Experten haben in der Tat bereits eine solche Begutachtung seit der Veröffentlichung von AR 3 2001 angemahnt, aber ihr Drängen wurde ignoriert.

Wichtig: Die wissenschaftlichen Auditoren müssen (i) ausschließlich von außerhalb des IPCC-Interessenkreises stammen; (ii) sie müssen kompetent genug sein, um ein unabhängiges Urteil über die relevanten Beobachtungen und deren Interpretation fällen zu können, und (iii) sie dürfen sich nicht einfach auf die pro-DAGW-Schlussfolgerungen verlassen, die von den Autoren der meisten Studien gezogen werden.

Frühere Begutachtungen der IPCC-Ratschläge

Viele nationale Wissenschaftsakademien haben zusammenfassende Broschüren zum DAGW-Problem veröffentlicht, veranlasst durch die Kritiken in der Folge der Veröffentlichung von AR 4 2007 (z. B. von der  Royal Society of London, der Australian Academy of Science und der US National Academy of Sciences). Diese individuellen Berichte führten etwas später zu einer Untersuchung ihrer übergeordneten Institution, das international Inter-Academy Council (IAC). Die Hauptschlussfolgerung dieser zahlreichen Dokumente – trotz Kritik seitens des IAC über die Unzulänglichkeiten einiger IPCC-Verfahrensweisen, enthüllt durch Klimagate – lautete, dass die wesentlichen Schlussfolgerungen des 4. Zustandsberichtes immer noch als gültig angesehen werden sollten.

Diese Behauptung durch das IAC und andere führte sofort dazu, dass sich die folgende Frage in unabhängigen wissenschaftlich kritischen Kreisen erhob: Welche Schlussfolgerungen?

Dass einige Signale einer moderaten Klimaänderung in der jüngeren Vergangenheit aufgetaucht sind? Aber diese Schlussfolgerung ist wissenschaftlich trivial und steht nicht im Mittelpunkt der DAGW-Frage, die da lautet zu beurteilen, bis zu welchem Grad menschliche CO2-Emissionen eine messbare oder gefährliche Erwärmung verursachen. Wie viel Zeit und Wissen hat das Komitee des IAC damit zugebracht, diese Frage zu beurteilen? Weder die vielen nationalen noch die IAC-Komitees scheinen diese zentrale Frage überhaupt angesprochen zu haben, was viele Wissenschaftler dazu gebracht hat, die Prognosen als politisch willfährige Operationen zur Weißwäsche anzusehen.

Unabhängige Wissenschaftlerkreise stellten sofort in Frage, was eigentlich das IAC so befürwortete. Dessen Schwerpunkt lag auf den Prozeduren und der administrativen Arbeit des IPCC, nicht auf der Integrität von dessen Schlussfolgerungen.

Begutachtungen im parlamentarischen Zusammenhang

Zusätzlich zu den akademischen Begutachtungen haben zahlreiche nationalen Parlamente seit 2007 Anhörungen zur DAGW-Frage organisiert. Im parlamentarischen Kontext hatten diese Anhörungen den sehr starken Vorzug, dass unabhängige angesehene Wissenschaftler involviert waren, zusammen mit den IPCC-Akolyten. Solche Anhörungen haben zumindest in den USA, in Schweden, Australien den Niederlanden und jüngst Kanada stattgefunden.

Trotz der sehr klaren wissenschaftlichen Informationen und Ratschläge dieser Anhörungen (für ein Beispiel siehe Anhang B), die speziell dem IPCC-Alarmismus widersprechen, war ihr nachfolgender Einfluss auf die Öffentlichkeit begrenzt; und zwar aus folgenden Gründen: (i) alle offiziellen Kanäle, über die die Öffentlichkeit über die globale Erwärmung informiert wird, werden durch Material vom IPCC dominiert und (ii) die Medien haben eine starke Aversion, Stories über die Klimaänderung zu verbreiten, die das vorherrschende, politisch korrekte und alarmistische Paradigma herausfordern.

Die Begutachtungen holländischer und französischer Akademien

Der 2007 veröffentlichte Bericht AR 4 wurde formalen Überprüfungen durch die nationalen Akademien Frankreichs und der Niederlande unterzogen. Die beiden Prozesse und die folgenden Berichte weisen bestimmte Ähnlichkeiten auf.

Jeder der beiden Untersuchungen waren informelle Treffen unter den Mitgliedern der Akademien vorausgegangen, woran auch einige geladene externe Wissenschaftler teilgenommen hatten (Niederlande, April 2010; Frankreich, September 2010). Diese anerkennenswerten Initiativen führten zu Audit-Berichten, die unabhängig von der IPCC-internen Begutachtungsprozedur waren.

Trotz der ursprünglich gut gemeinten Absichten, die unvermeidlich von einer begrenzten Anzahl von Autoren zusammengestellt worden sind, wurden in der Folge dafür kritisiert, nicht ausreichend die Nuancen der unterschiedlichen Meinungen der DAGW-Protagonisten und –Antagonisten gespiegelt zu haben, die in den voran gegangenen Besprechungsrunden zum Ausdruck kamen.

Diese Kritik gilt sehr stark vor allem dem Audit-Bericht der Royal Dutch Academy of Sciences (KNAW), veröffentlicht im Oktober 2012 (12). Der Bericht war erheblich in Richtung der IPCC-Doktrin verzerrt und erwähnte nicht die Kommentare der DAGW-Antagonisten während der Treffen. Außerdem hat sich die KNAW sehr beeilt, die Aufmerksamkeit des Ständigen Parlamentsausschusses für Infrastruktur und Umwelt auf ihren Bericht zu lenken, ohne vorher noch einmal die Teilnehmer des Treffens zu konsultieren. Dieses Vorgehen führte zu einem formalen Protest und der Forderung, den Bericht zurückzuziehen. Unterschrieben war er von 23 Professionellen mit wissenschaftlichem Hintergrund – nicht zuletzt, weil der Bericht ein Dutzend aussagestarker Feststellungen bzgl. DAGW enthielt, die wissenschaftlich als nicht gerechtfertigt angesehen waren. Die Forderung wurde ignoriert, und der verfälschte Bericht blieb in der ursprünglichen Fassung bestehen (Februar 2012).

Eine Untersuchung der Prozeduren durch die Autoren des holländischen Berichtes brachte ans Licht, dass eine kleine Zahl anonymer pro-DAGW-Begutachter den Ton im endgültigen Text vorgegeben hatte, was erneut das Ausmaß zeigt, mit dem IPCC-Insider mit politischen Mitteln den „wissenschaftlichen“ Rat an Politiker beeinflussen können. Trotz dieses ungehörigen und unangebrachten Einflusses präsentierte die Akademie den Bericht als eine autorisierte Feststellung einer ‚gebildeten’ Vereinigung. Offensichtlich hatte die Akademie so viel Vertrauen in einige ausgewählte akademische Autoren, dass sie sich nicht die Mühe gemacht hat, unabhängige auswärtige Wissenschaftler zu konsultieren, die ziemlich genau, tatsächlich wesentlich in die Begutachtung involviert waren.

Solche Aktionen gehen ganz klar nicht konform mit dem Motto der ältesten wissenschaftlichen Akademie der Welt, der Royal Society of London, das da lautet: ‚Nullius addictus iurare in verba magistri‘ (ich bin nicht verpflichtet, irgendeinem Herrn Gefolgschaft zu schwören).

Betrachtet man die Schlussfolgerungen der Debatte bei der französischen Akademie der Wissenschaften, berichteten die französischen medien, dass sie voll auf der Linie des WG 1 AR 4 lagen.

Diese Schlussfolgerung unterscheidet sich jedoch um Einiges vom verständnis einiger Mitglieder der Akademie, die an der Diskussion teilgenommen hatten. In seiner Analyse weist der Akademiker Vincent Courtillot darauf hin, dass die Akademie nicht in vollem Umfang das für und wider gegeneinander abgewogen hat, sondern einfach die verschiedenen – sich teilweise widersprechenden – Ansichten nebeneinander gestellt hat (13).

Trotz all der abweichenden Meinungen und gegenteiliger Aussagen in den französischen und holländischen Akademien scheinen die wesentlichen Schlussfolgerungen in ihren Berichten die Autorität des IPCC zu stützen. Zum Beispiel heißt es im Bericht der französischen Akademie:

Eine Anzahl unabhängiger Indikatoren weist auf eine Zunahme der globalen Erwärmungsrate von 1975 bis 2003 hin; diese Zunahme erfolgt hauptsächlich durch die zunehmende CO2-Konzentration in der Atmosphäre.

Und im holländischen Bericht heißt es:

Die gegenwärtigen Klimamodelle erklären zum größten Teil die Klimaänderungen im 20. Jahrhundert. Diesen Modellen zufolge kann der globale Temperaturanstieg im späten 20. Jahrhundert nicht erklärt werden, ohne die anthropogene Erzeugung von Treibhausgasen zu betrachten.

Eine Zusammenfassung der entgegen gesetzten Ansichten der DAGW-Antagonisten ist im Audit-Bericht von unabhängigen Wissenschaftlern an die australische Regierung enthalten. Siehe Anhang B mit einem Auszug und Referenz.

Was führt zu der Dominanz des IPCC-DAGW-Paradigmas?

Zweifellos ist das vom IPCC bevorzugte Paradigma der gefährlichen globalen Erwärmung durch menschliche CO2-Emissionen fest in den Köpfen der Öffentlichkeit, der Medien und der Politiker verankert. Die Schlüsselfrage lautet jedoch: „bis zu welchem Grad resultiert diese Dominanz aus der Aussagekraft der wissenschaftlichen Beweise, und bis zu welchem Grad aus der höchst aktiven öffentlichen und politischen Kommunikation durch das IPCC vor dem Hintergrund einer willfährigen, tatsächlich DAGW oft missionarisch vorantreibender Medien?“

Zweifellos ist die DAGW-Hypothese des IPCC oberflächlich plausibel. Die Hypothese macht auch wissenschaftlich detaillierter Sinn, solange man nur das zugrunde liegende Konzept des „Treibhauseffektes“ akzeptiert, dass man die Klimaänderung einteilen kann nach den verschiedenen separat einwirkenden Treibern, dass all diese Treiber bekannt sind und dass das Klima als deterministisches System erfolgreich analysiert werden kann.

Allerdings stellen viele kompetente Wissenschaftler einen, zwei, drei oder alle vier dieser Positionen in Frage, und zwar mit durch und durch vernünftigen und verantwortungsvollen Argumenten. Daher ist der Gebrauch all dieser überheblichen Vermutungen als Basis für die Propagierung der globalen Erwärmung, wie es das IPCC macht, so, als ob man Logik innerhalb eines subjektiven kulturellen Paradigmas anbringen wollte. Dies, nämlich die Verwendung einer Modellannahme innerhalb eines gegebenen und nicht hinterfragbaren Denksystems ist natürlich das Kennzeichen  der postmodernen wissenschaftlichen Vorgehensweise.

Aber wenn man diese Positionen verwirft – nicht zuletzt, weil diese prognostizierten Ergebnisse den Beobachtungen widersprechen – erscheint ein sehr unterschiedliches Bild der Klimavariabilität. Akzeptiert man eine alternative konzeptionelle Annäherung, könnte sich der Zusammenhang mit einem „Treibhauseffekt“ und einer Quantifizierung der angenommenen Klimatreiber als falsch herausstellen und eher ein Hindernis als eine Hilfe bei Fortschritten des Wissens sein.

Schlussbemerkungen

Es ist offensichtlich, dass Audits, die mehr auf Autorität als auf wirklicher wissenschaftlicher Expertise beruhen, hinsichtlich der grundlegenden Prinzipien wissenschaftlicher Untersuchungen fragwürdig bleiben.

Die Beschreibung der vermeintlichen DAGW-Bedrohung erfordert daher eine vollständig neue wissenschaftliche Begutachtung, die mit den IPCC-Argumenten und solider alternativer technischer Informationen gleichwertig ist, wie z. B. die Berichte des NIPCC. Eine solche ausgewogene Begutachtung wurde definitiv durch irgendeine wissenschaftliche Akademie bisher nicht durchgeführt, weil alle das betrügerische IPCC-Treibhausmodell vorbehaltlos akzeptiert haben (einschließlich der Gültigkeit des Konzeptes unabhängiger und schwierig zu definierender Antriebe, welche komplexe Prozesse sind), und weil alle die Notwendigkeit, sich der Klimaänderung durch die Komplexitätstheorie anzunähern, ignoriert haben.

Einige jüngere Wissenschaftler, die unter dem Einfluss postmoderner Wissenschaft studiert haben, könnten dies als altmodisch ansehen. Aber mein Appell lautet, dass wir weiterhin die Traditionen der Grundlagen- und angewandten Wissenschaft respektieren sollten, wie sie während der historischen Periode, die wir Aufklärung nennen, etabliert worden sind. Es war nämlich von größtem Vorteil für moderne Gesellschaften, dass wir seit vier Jahrhunderten die wissenschaftliche, experimentelle, empirische und theoretische Praxis übernommen haben, und zwar unter den wachsamen Augen von Universitäten und gebildeten Gesellschaften.

Nach dem, was wir das IPCC-„Abenteuer“ nennen können, ist es mein Appell an zeitgemäße politische und wissenschaftliche Administratoren, dass sie sich jetzt einmal kritisch überlegen, ob die nationalen Wissenschaftsakademien und –agenturen dem wissenschaftliche Prinzip, „Qualität ist der Eckpfeiler der Wissenschaften“, noch folgen. (14)

Danksagung

Die erste Version dieses Arbeitspapiers und die neun Entwürfe zuvor wurden von 15 Wissenschaftlern kommentiert. Was ich dankbar willkommen heiße. Und die mich zu ein paar Änderungen veranlasst haben. Anstatt ihre Namen zu nennen, lade ich diese Schiedsrichter ein, selbst zu benennen, bis zu welchem Grad sie meine Analyse unterstützen und meiner Forderung folgen wollen, dass Zustandsbeschreibungen durch individuelle Nationen vorgenommen werden sollten, weitgehend unabhängig vom IPCC. Diese Begutachtungen sollten am Besten durch erfahrene und etablierte Wissenschaftler durchgeführt werden, deren Reputation in traditionellen Disziplinen wurzelt, die die Klimawissenschaft bilden, speziell Physik, Chemie, Geologie, Astronomie, Sonnenphysik und Meteorologie. Die Audits sollten sich an den traditionellen Prinzipien der Wissenschaft orientieren und sich auf die wissenschaftliche Methodik und empirische Beweise stützen, die die hypothetische DAGW in Frage stellen.

Anhang A: Ausgewählte Punkte in verschiedenen, vom IPCC unabhängigen Begutachtungen und in den Berichten des NIPCC

1.

Wie aus den vom IPCC bevorzugten Temperaturaufzeichnungen von HadCRUT hervorgeht, hat es seit 1995 keine statistisch signifikante Erwärmung mehr gegeben, trotz einer Zunahme des atmosphärischen CO2-Gehaltes um 20% seit jenem Jahr (welches selbst 34% aller Emissionen in Verbindung mit Menschen seit dem Beginn der industriellen Revolution repräsentiert).

Dies ist an sich nicht so überraschend, wie es scheint. Noch einmal, es ist wissenschaftlich unumstritten, dass die Beziehung zwischen dem zunehmenden atmosphärischen Kohlendioxid und der atmosphärischen Erwärmung eine negativ logarithmische ist. Mit anderen Worten, jeder zusätzliche Eintrag verursacht eine geringere Folgeerwärmung.

2.

Gelogische Klimaaufzeichnungen zeigen, dass im richtigen Zusammenhang nichts Ungewöhnliches an der moderaten Erwärmung um ein paar Zehntelgrad ist, die es zum Ende des 20. Jahrhunderts gegeben hat. Gleiche oder höhere Temperaturen gab es viele Male in vielen Gebieten während des Holozäns (die letzten 10 000 Jahre) und während des Pleistozäns (vor 6 bis 3 Millionen Jahren), und man schätzt, dass es auf der Erde im Mittel in diesen Zeiten 2 bis 3 Grad Celsius wärmer war als heute; und keine Krise der Biodiversität ist erfolgt. Diese Art der Temperaturoszillationen ist charakteristisch während der gesamten Geologie und wurde verursacht durch solare und andere Gründe – die bei weitem noch nicht völlig verstanden sind.

3.

Betrachtet man das globale Eisvolumen, erkennt man, dass das jüngste Abschmelzen des arktischen Meereises (noch einmal, was es in früheren geologischen Zeiten schon oft gegeben hatte) durch ein Anwachsen des Meereises um die Antarktis kompensiert worden ist, d. h. die Gesamteisbedeckung hat sich kaum verändert. Außerdem ist das Schmelzen in der Arktis NICHT durch steigende atmosphärische Temperaturen verursacht worden, sondern durch viel komplexere Gründe, unter anderem Änderungen der Windsysteme (wobei Eis südwärts in wärmere Gewässer verfrachtet wird) und warme Meeresströmungen (welche beim Eintritt in den Arktischen Ozean das Eis direkt schmelzen).

4.

Die Analyse antarktischer Eisbohrkerne zeigt, dass das Niveau des Kohlendioxids und die Temperatur tatsächlich parallel variierten während der letzten vielen hunderttausend Jahre. Allerdings sind die beiden Verläufe nicht genau phasengleich, wobei Änderungen des CO2-Gehaltes den Temperaturänderungen um 800 bis 2000 Jahre hinterher hinken. Diese fundamentale Tatsache stellt die CO2-Temperatur-Annahme der DAGW-Hypothese schwer in Frage und ist konsistent mit den CO2 freisetzenden, sich erwärmenden Ozeanen.

5.

Die zahlreichen ökologischen und umweltlichen Änderungen, die der DAGW durch das IPCC zugeschrieben werden, sind genauso konsistent mit der Null-Hypothese wie die beobachteten Änderungen in der modernen natürlichen Welt, die in Übereinstimmung mit natürlichen und umweltlichen Änderungen stehen. Vögel, die früher oder später nisten, weniger oder mehr Eisbären, mehr oder weniger Regen, mehr oder stärkere Hurrikane – sollte irgendein Ereignis dieser Art stattfinden – sind durch die Bank zu erwartende Ereignisse im Zusammenhang mit der natürlichen Klimavariabilität der Erde.

Trotz gewaltiger Ausgaben für die damit verbundene Forschung ist es bisher noch keiner Studie gelungen, solche biotischen oder klimatischen Änderungen mit dem sich ansammelnden CO2 in der Atmosphäre in Zusammenhang zu bringen.

Anhang B: Das australische unabhängige Audit

Dieses Audit (Carter et al 2009) (15) der IPCC-Äußerungen, das dem australischen Parlament durch das Department of Climate Change übermittelt worden ist, wurde auf Anforderung von dem unabhängigen australischen Senator Stephen Fielding durchgeführt. Und zwar durch eine qualifizierte Gruppe erfahrener Wissenschaftler aus verschiedenen Disziplinen mit klimatologisch-meteorologischem Hintergrund, einem Hydrologen, einem Computermodellierer und einem Geologen.

Das Audit fand massive Defizite beim IPCC – bis zu einem Grad, dass Senator Fielding veranlasst hat, gegen die Gesetzgebung zum Emissionshandel zu stimmen – was zu dessen Ablehnung führte.

Die wesentlichen Schlussfolgerungen dieses australischen Audits waren Folgende:

(i) Die jüngste Zunahme der Treibhausgase spielt eine geringere radiative Rolle beim globalen Klima, es existiert kein stichhaltiger Beweis, dass menschliche CO2-Emissionen eine gefährliche globale Erwärmung verursachen oder in Zukunft verursachen werden, (ii) es ist eine unkluge Umweltpolitik der Regierung, auf einer monopolistischen Aussage zu basieren, vor allem, wenn dieses Monopol durch eine internationale politische (nicht wissenschaftliche) Agentur repräsentiert wird (d. h. das IPCC); (iii) Die Folgen der Gesetzgebung zum Emissionshandel werden so teuer, so besorglich regressiv, sozial spaltend und umweltlich ineffektiv sein, dass das Parlament die Überlegung zum CPRS (Emissionshandel) aussetzen sollte und eine vollständig unabhängige Kommission einsetzen sollte, um die Beweise für und gegen einen gefährlichen menschlichen Einfluss auf das Klima zu untersuchen. Hinsichtlich (iii) fügen wir hinzu, dass die wissenschaftliche Gemeinschaft inzwischen so polarisiert hinsichtlich dieses kontroversen Themas ist, dass die angemessene Sorgfalt hierbei nur erreicht werden kann, wenn kompetente wissenschaftliche Zeugen ins Kreuzverhör genommen werden, unter Eid und unter strikten Vorgaben von Beweisen.

Trotz dieser Forderungen und trotz des Scheiterns des Emissionshandels im Parlament wurde keine Kommission ins Leben gerufen, und die australische und internationale Presse hat nichts über dieses wissenschaftliche Audit berichtet.

 Arthur Rörsch

Über den Autor:

1 Dr. Arthur Rörsch hat einen Grad als Chemieingenieur der University of Delft (1957) und einen PhD der University von Leyden (1963). Er ist Ritter des Ordens Dutch Lion (1994). Seine wesentliche Tätigkeit war die Mitgliedschaft, zeitweise auch als Vizepräsident, des Managementboard der Netherlands Organisation for Applied Research, TNO, 1979 bis 1994) mit spezieller Verantwortung für die Forschungsgebiete öffentliche Gesundheit, Nahrung & Landwirtschaft sowie Umwelt. Als Student war er Sekretär des Departments ‚Delft’ der Netherlands Association for Meteorology and Astronomy.

Auf europäischer Ebene war er in Komitees involviert, die die Qualität von EU-Projekten und wissenschaftliche Institutionen bewerten sollte. Als Generalsekretär der European Molecular Biological Conference (einer politischen Institution mit seinerzeit 10 Mitgliedern) war er aktiv im Wechselspiel zwischen Wissenschaft und Regierungspolitik. Als Vorsitzender des National (Dutch) Council for Agricultural Research arbeitete er vier Jahre lang (1995 bis 1999) an der Entwicklung von Szenarien und Vorhersagen aus theoretischer und angewandter Sicht.

Als Mitglied des Beratungsgremiums des populären holländischen Wissenschaftsjournals ‚Natuur, Wetenschap and Techniek‘ (1970-2009) hatte er auch großes Interesse an der Qualität der Informationen, die der Öffentlichkeit von der wissenschaftlichen Gemeinschaft durch modernen Wissenschaftsjournalismus gegeben worden sind.

2 Traditionelle objektive Wissenschaft basiert auf der Interpretation von Beobachtungen und dem Formulieren einer Hypothese, gefolgt von der Interpretation und den logischen Implikationen dieser Hypothese sowie der ständigen Überprüfung. Nachmodernisten hinterfragen nicht die Rationalität, sondern ob sie eine reale Einsicht in die Welt darstellt. Regeln der Logik finden nur innerhalb eines gegebenen kulturellen Paradigmas oder Modells Anwendung, die auf einem gegebenen Denksystem beruhen.

http://en.wikipedia.org/wiki/Science_wars

http://www.spaceandmotion.com/Philosophy-Postmodernism.htm

3 Hunderte von Studien, die Daten oder Besprechungen enthalten, die nicht DAGW uunterstützen, wurden in den früheren Berichten des NIPCC unabhängig zusammengefasst und analysiert. Die Ausgaben der NIPCC-Berichte sind daher ein Muss, wenn es um Gegenliteratur zu den IPCC-Berichten geht, und zwar für diejenigen, die eine umfassende, ausgewogene Sicht des komplexen Themas DAGW und Klimaänderung erhalten wollen. http://www.nipccreport.org/reports/2011/pdf/FrontMatter.pdf

4 http://www.ipcc.ch/pdf/assessment-report/ar4/wg1/ar4-uncertaintyguidancenote.pdf

5 „Es gab eine Zeit, in der Päpste und Könige Astrologen um sich hatten, die ihnen helfen sollten, die Zukunft zu planen. Heutzutage haben Regierungsabteilungen Statistiker für den gleichen Zweck. (…) Aber für viel der statistischen Arbeit durch Regierungsabteilungen kann ich keine Entschuldigung finden“. M. J. Moroney in  ‘Facts from Figures’(Pelican 1957) in Kapitel 17 ‘Time series and Fortune Telling’

6 und 7 Für den aktuellen Stand der Technik siehe: Encyclopaedia Britannica 1964, volume V page 914-927:

„Die grobe Verteilung der Klimaänderung seit dem Ende der Eiszeit ist konsistent mit der Hypothese einer alternierenden Verstärkung und Abschwächung der planetarischen atmosphärischen Zirkulation, verbunden mit einer alternierenden Verlagerung der Windzonen in Richtung Äquator oder Pole.“

8 D.A.Randall (ed) “General Circulation Model Development. Past, Present and Future. (Academic Press

2000).

9 aktualisierte Version: EARTH’S GLOBAL ENERGY BUDGET by Kevin E. Trenberth, John T.

Fasullo, and Jeffrey Kiehl. AMERICAN METEOROLOGICAL SOCIETY März 2009

10 . J.P.A. Ioannidis. “Why most Published Research findings are false”. PloS Medicine, August ,2005.

Vol 2. Issue 8, 696-701

11 J. McLean “Peer review, what peer reviews? Failures of scrutiny of the UN’s fourth assessment report

(2007) http://scienceandpublicpolicy.org/images/stories/papers/originals/mclean/mclean_IPCC_review_final_9-

5-07.pdf

A. Montford. http://www.amazon.co.uk/Illusion-Climategate-Corruption-Science-

Independent/dp/1906768358

D. Laframboiboise. http://wattsupwiththat.com/2011/10/14/donna-laframboises-new-expose-book-onthe-

ipcc/

12 Theo Wolters. “Sceptical seminar climate report of Dutch Science academy www.climategate.nl. Dec. 29. 2011

13 Siehe: http://www.thegwpf.org/science-news/1804-vincent-courtillot-the-climate-report-by-the-frenchacademy-

of-sciences.html.

14 meinung von Hendrick Casimir, ein sehr respektierter Physiker und Wissenschaftsberater, früher Direktor des Philips Physics lab in Eindhoven, Niederlande.

15 http://joannenova.com.au/global-warming/the-wong-fielding-meeting-on-global-warming-documents/;

Punkt 7 auf der Liste)

Übersetzt von Chris Frey für EIKE




Der Winter 2012 war zu warm – Die Winter werden immer kälter

Nicht besser sieht es bei Prof. Dr. Rahmstorf auf „seiner“ KlimaLounge aus (hier). Allerdings hat er seine Statistik mit ein paar Blümchen aus seinem Garten geschmückt. Was dies mit Wissenschaft zu tun hat, wissen wir auch nicht. Deshalb für ihn ein paar Fakten:

1356 blühten an Weihnachten die Blumen und die Bäume bekamen Knospen. (Im Sommer 1304 trocknete übrigens der Rhein aus).

Im Jahr 1430 gab es überhaupt keinen Winter und das Getreide war bereits im April reif.

1617 blühten in Deutschland Ende Januar bereits die Tulpen.

1624 blühten um die Weihnachtszeit in Hildesheim Rosen.

Anno 1796 fing das neue Jahr mit einer recht angenehmen Witterung an und Mitte Januar waren schöne warme Sommertage, welche beinahe den ganzen Monat andauerten. Es war so warm, dass die Bäume anfingen auszuschlagen. In den Niederlanden zeigten die Bäume sogar schon Blüten. Man konnte bis Anfang Februar wie im Sommer spazieren gehen.

Am Neujahr 1898 blühten die Narzissen.

Vom Weihnachten 1909 bis Dreikönig 1910 flogen die Bienen wie im Sommer.

1948 maß die Meteorologische Anstalt auf St. Margarethen die bisher noch nie in einem Januar festgestellte Höchsttemperatur von 18,7°C.. Und weiter, dass Tagesmittel von 15,3°C entspricht der Normaltemperatur des Junianfangs. Sowie:

Anfang Januar 1664 war zu Beginn ein warmer Winter, aber am 22. Januar fing es heftig an zu frieren und dabei fiel auch viel Schnee, der sich über die zugefrorene Elbe und andere Flüsse legte. Dieser Wetterbericht des Jahres 1664 sollte uns sehr bekannt vorkommen, denn 2012 war es ganz genau so. Anfang 2012 recht warm, Herr Prof. Rahmstorf hat dazu Blümchen aus seinem Garten gezeigt, und um den 22. Januar kam dann die „Russenkälte“, wie diverse Medien titelten. Laut Prof. Rahmstorf soll dies nach den Untersuchungen des PIK, AWI und Leibniz-Institut auf den anthropogenen Klimawandel zurück zu führen sein, weil es durch diesen in der Arktis immer wärmer wird, was dann bei uns im Winter Kälte und Schnee bedeuten würde. Nun, bisher wussten wir nicht, dass der anthropogene Klimawandel bereits 1664 sein Unwesen treibte. So kann man von der Vergangenheit eingeholt werden.

Herr Prof. Rahmstorf  verwendet auf seiner KlimaLounge übrigens Deutschlanddaten ab 1750. Die gibt es gar nicht, zumindest nach Aussagen des DWD. Das Deutsche Reich wurde 1871 geschaffen, davor gab es nur eine Kleinstaaterei. Jeder Fürst hatte seine eigenen Stationen, gemessen wurde teilweise nach eigenen Normen und die Thermometer haben zumindest in Süddeutschland noch nach Reaumur gemessen. Erst mit der Reichsgründung gab es eine Vereinheitlichung der Maßeinheiten, auch das Meter wurde seinerzeit eingeführt. Der Deutsche Wetterdienst hat deshalb den Autoren schon einmal früher mitgeteilt, dass verlässliche Deutschlanddaten erst ab 1900 vorliegen. Die 20 Jahre davor, habe man überprüft und extrapoliert. Der DWD geht deswegen davon aus, dass seine Werte ab 1881 verlässlich sind. Davor gibt es nichts Verlässliches. Es sind spekulative Daten, vor allem, weil sehr viele Stationen darunter sind, die heute gar nicht mehr zu Deutschland gehören, d.h. auch Stationen sind darunter, die damals zu dem größeren Österreich gehörten wie Prag, Brünn, Zagreb, Budapest, usw. Bei den DWD-Daten ab 1881 sollen die damals deutschen Stationen, die aber jetzt außerhalb der Staatsgrenzen liegen, herausgestrichen worden sein, das behauptet zumindest der DWD.

Prof. Rahmstorf hat also wieder einmal seinen Beitrag mit der heißen Nadel gestrickt. Mit Wissenschaft oder gar korrekter Wissenschaft, hat sein Dargestelltes nichts zu tun. Aber dies zeigen bereits die vielen Blümchen im Bericht aus Rahmstorf´s Garten. Es zeigt sich einmal mehr, fehlen Wissen und Fakten, so muss auf Nebensächlichkeiten – Buntes – zurück gegriffen werden, um ersteres zu verschleiern.

Bereits unsere Überschrift weist auf ein vermeintliches Paradoxon hin. Wie kann ein Winter zu warm sein und dabei immer kälter werden. Nun, dank statistischer Gepflogenheiten, Churchill würde sagen, statistischer Tricks, ist in einer Statistik vieles unterzubringen.

Das Klima, welches im Gegensatz zum Wetter, keine reale Erscheinung ist, also in der Realität gar nicht existiert, ist ein vom Menschen gemachtes willkürliches Konstrukt, um Vergleiche anstellen zu können. Vor knapp 100 Jahren hat sich die Meteorologie auf einen Referenzzeitraum von 30 Jahren festgelegt und gesagt, dieses ist zukünftig als Klimazeitraum definiert. Der erste “Internationale klimatologische Referenzzeitraum“ begann 1931 und endete folglich 1960. An diesen schließt sich der zweite Internationale klimatologische Referenzzeitraum von 1961 bis 1990 an, an dem heutige Durchschnittswerte, z.B. Jahreswintertemperatur, verglichen werden. Nun ist den älteren von uns der Zeitraum von 1961 bis 1978 noch in guter Erinnerung. Dies war die Zeit, als in Wissenschaft, Medien und Politik ein Gespenst umging, nicht etwa das Gespenst einer drohenden Erderwärmung, nein, das Gespenst einer drohenden Eiszeit (Abbildung 1).

Abbildung 1 zeigt den Klimabericht aus Newsweek vom 28. April 1975, der eine drohende Eiszeit postuliert. In Deutschland tat sich Der Spiegel mit der Thematik hervor und titelte am 12.08.1974 zur vermeintlich drohenden Eiszeit, “Katastrophe auf Raten“. Damals hieß es: “Die Abkühlung hat schon hunderttausende Menschen getötet. Wenn sie weiter voranschreitet und keine Maßnahmen ergriffen werden, wird sie weltweite Hungersnöte, weltweites Chaos und Weltkrieg hervorrufen und das kann alles noch vor dem Jahr 2000 eintreffen“, sagte zum Beispiel Lowell Ponte 1976 in “The Cooling“ und Paul R. Ehrlich sechs Jahre früher zum selben Thema: “In zehn Jahren werden alle bedeutenden Lebewesen im Meer ausgelöscht sein.“ (http://www.prisonplanet.com/articles/february2007/130207globalwarming.htm)

Wie wir heute wissen, ist nichts dergleichen eingetroffen, außer, dass auch damals die Klimatologen und deren Anhang, die auf der Hysterie-Welle schwammen, gute Tantiemen einfuhren.

Warum es damals kälter wurde und anschließend wieder wärmer, zeigt Abbildung 2.

Abbildung 2: Die Sonne war in den 1960-und 1970-Jahren außerordentlich schwach in ihrer Aktivität und damit Energieabgabe.

Werden nun statistisch Werte von heute mit dieser kalten Epoche verglichen, müssen die Werte so lange wärmer sein, so lange, wie diese Kaltzeit nicht unterboten wird und folglich auch kühle Jahre als warm ausgewiesen werden.

Nimmt man hingegen die beiden letzten Dekaden und vergleicht diese miteinander, so ist festzustellen, dass von 1993 – 2002 die Winterdurchschnittstemperatur in Deutschland bei +1,4°C lag und von 2003 – 2012 bei nur noch +0,7°C liegt (nach Daten des DWD).

Demnach sind die Winter deutlich kälter geworden. Sie sehen, mit Statistik lässt sich alles und nichts sagen, getreu dem Ausspruch von Winston Churchill. “Ich glaube nur der Statistik, die ich selbst gefälscht habe.“

Damit sich unsere Leser selbst ein Bild machen können, zeigt Abbildung 3 die Wintertemperaturen von Deutschland im Zeitraum von 1882 bis 2012. Die Daten stammen vom DWD. Dabei handelt es sich um die Originaldaten, die noch nicht um den Wärmeinseleffekt bereinigt wurden. Siehe hierzu unser Beitrag (hier)

Werden die Jahre ab dem wärmsten global gemessenen Jahr betrachtet, so ergibt sich folgendes Bild.

Abbildung 4 zeigt die Wintertemperaturen in Deutschland von 1998 – 2012. Der Mittelwert liegt bei +1,2°C (grün). Insgesamt ist die Tendenz fallend. Auffallend ist der hohe Winterwert im Jahr 2007. Dies war auch das Jahr mit der größten arktischen Eisschmelze, was als Hinweis zu deuten ist, was die vergleichweise milde Wintertemperatur verursachte und weiter zeigt, dass die jüngst medienwirksam vorgestellten Untersuchungen des AWI, PIK und dem Leibniz-Institut: „Klimastudien sagen kältere Winter in Europa voraus“, nach denen es bei uns im Winter kalt werden soll, weil es in der Arktis warm wird, blühender Unsinn sind. Ist es in der Arktis warm, wie z.B. in 2007, so ist es auch bei uns im Winter warm.

Sie sehen, mit Statistiken lässt sich viel darstellen, aber nicht die Frage nach dem Warum beantworten. Hierzu bedarf es der notwendigen „Hintergrundinformationen“.

Abbildung 5a zeigt die AMO (Atlantic Multidecadal Oscillation) ab 1870. Zum einen ist ihr Verlauf zyklisch, mit einer Zyklusdauer von ca. 35 Jahren (bei der Darstellung des Hadley-Centers, mit der gewählten Nulllinie geht dies unter, in Abbildung 5b ist der zyklische Verlauf der AMO deutlich sichtbar). Sie folgt dem Brückner-Zyklus der Sonne und zum anderen, ist sie derzeit in ihrer Warmphase, die um 2007 ihr Maximum erreichte und derzeit immer noch hoch ist.

Abbildung 5b: Kleine Abbildung zeigt den Verlauf der AMO nach Rowan, T.S., and Daniel Hodson, „Atlantic Ocean Forcing of North American and European Summer Climate“, Science 309, 115-118, 2005 und die große Abbildung die AMO nach Dr. Landsea, wie diese mit der Hurrikantätigkeit korreliert. Der Autor berichtete in seiner EIKE-Reihe vom September 2011 “Dynamisches Sonnensystem – die tatsächlichen Hintergründe des Klimawandels“ darüber (hier). Eine positive, wie negative AMO-Phase dauert im Mittel ca. 33,5 Jahre. Die eigenartige Darstellung der AMO des Hadley-Centers in Abbildung 5a, mögen die Autoren nicht kommentieren. Die Rolle des Hadley-Centers in der Temperaturdarstellung ist jedoch spätestens seit Climategate hinlänglich bekannt.

Warme Wassertemperaturen bedeuten nun nichts anderes, als eine verstärkte Eisschmelze (beim arktischen Eis handelt es sich um gefrorenes Meerwasser – ist das Wasser warm, so hat Eis es schwer) und, bei Westwinden, milde Temperaturen in Deutschland, insbesondere im Winter. Wie Abbildung 6 zeigt, herrscht in Deutschland seit Mitte der 1960-Jahre im Winter eine Westwinddrift vor, was mildere Winter bedeutet. Dies wird sofort ersichtlich, wenn diese Information (Abbildung 6) mit Abbildung 3 verglichen wird. Vor dieser Zeit (Mitte der 1960-Jahre) gab es einige sehr kalte Winter in Deutschland. Ab Mitte der 1960-Jahre haben sich die unteren Werte teils deutlich angehoben – in Summe mildere Wintertemperaturen in Deutschland wegen der vorherrschenden Westwinddrift. Liegen dagegen in Deutschland Nord- oder gar Ostströmungen vor, so werden vergleichsweise kältere Winter gemessen, wie in 2009, 2010 und 2011 (Abbildung 4), als Deutschland unter einer lang anhaltenden Schneedecke begraben war oder Ende 01/12 und Anfang 02/12, als Deutschland unter einer Kälteglocke lag.

Abbildung 6: Deutlich ist zu erkennen, dass seit Mitte der 1960-Jahre die West-Wetterlagen im Winter zunahmen (was wärmere Winter bedeutet) und im Sommer dagegen abnahmen (was trockenere und wärmere Sommer bedeutet). Quelle, Sächsisches Landesamt für Umwelt und Geologie.

Während die Leser auf den diversen Klimahysterikaseiten mit Statistiken beaufschlagt werden, bekommen unsere EIKE-Leser die Hintergrundinformationen, die notwendig sind, um diese Statistiken ganzheitlich zu erklären. Hierfür bedarf es natürlich des entsprechenden Hintergrundwissens, dass bei EIKE durchgängig vorhanden ist, sowie die Bereitschaft, das Wissen ideologiefrei, ohne Abhängigkeit von irgendwelchen Lobbyistengruppen, wie NGO´s, zu verteilen. Inwieweit hiervon bei Personen, die vom Klimarummel, direkt oder indirekt, z.B. über Presseverträge, abhängig sind, ausgegangen werden darf, überlassen die Autoren unseren Lesern.

Eine der besten Aussagen zu den Klimaforschern und dem Anhang, welches sich um diese gebildet hat, um am Geldsegen zu partizipieren, stand in der Hannoverschen Allgemeinen Zeitung vom 15.02.2012:

“Die ganze Klimaforschung ist eine Erfindung von Klimaforschern.“

Treffender und kürzer kann wohl nicht ausgedrückt werden, um was es diesen Damen und Herren geht. Um die Bildung von willkürlichen Konstrukten, um daran Statistik zu betreiben, diese Statistik so hinzubiegen, dass sie für die eigenen Argumente passt, um anschließend über Zuwendungen wie Forschungsaufträge, Steuervergünstigungen, Subventionen u.v.m. treffend zu partizipieren, wie es der Cartoonist in Abbildung 7 zeigt.

Abbildung 7

Der Klimawandel ist längst zu einem gigantischen Wirtschaftsobjekt geworden, in dem sich diejenigen wieder finden, die am Markt, in der klassischen Marktwirtschaft keine Chance haben, einen „Blumentopf zu gewinnen“, um es einmal salopp auszudrücken. Hierzu zählen nicht nur sog. Wissenschaftler, die Forschungsgelder einsammeln und in Prunkbauten sitzen, die natürlich aus Steuergeldern bezahlt werden, sondern auch Journalisten, denen das fundierte Wissen für den sachgerechten Umgang mit einer Thematik offensichtlich fehlt. Wir sollten daher nicht falschen Propheten vertrauen. Solchen, die mit dem Anspruch einer besseren Welt antreten, denen es aber um nichts anderes, als um Macht, Geld und das eigene Ego geht. Der einzige Schutz der sich bietet, ist Information und Wissen. Dieser EIKE-Beitrag soll dazu dienen, das Wissen unserer Leser zu vertiefen.

Raimund Leistenschneider – EIKE

Josef Kowatsch – Hüttlingen

* Toralf Staud ist freier Journalist mit Schwerpunkten im Bereich Klimakatsrophismus und Kampf gegen rechts. Er ist Mitglied der Redaktion von “ wir-klimaretter.de und klima-luegendetektor.de

Dafür erhielt er 2008 die Auszeichnung in der Sparte Neue Medien – Dazu DUH-Vorsitzender Harald Kächele: „kritische Umweltberichterstattung in diesen Wochen so nötig wie nie“ – Umweltstaatssekretär Michael Müller (2008) verweist auf Bedeutung von engagiertem Umweltjournalismus für Umsetzung ökologischer Ziele
Er schrieb ferner einige IPCC fromme Artikel in „Die Zeit“, jüngst zur Causa Vahrenholt. Zudem war er Redakteur des Greenpeace Magazins.




Letzte Meldung: Fritz Vahrenholt in Plasbergs Sendung „Hart aber fair“ abgesagt!

Meldung auf "Die kalte Sonne" 

ABGESAGT! Thema der Sendung hat sich geändert.

Für Schreiben and Plasberg hier die Mail-Adressse:  hart-aber-fair@wdr.de.

Am Montag, den 12.3.2012 wird Fritz Vahrenholt an der Sendung “hart aber fair” teilnehmen, die in der ARD um 21:00-22:15 live gesendet wird.

Moderator Frank Plasberg diskutiert mit seinen Gästen aus Politik, Wirtschaft und Gesellschaft. In der 75-minütigen Live-Sendung ist Thema, was die Menschen bewegt und aufregt.

Weitere Informationen zum Thema folgen in Kürze.

Damit teilt diese Sendung das Schicksal anderer Talkshows im Fernsehen, wie zuvor schon bei Günter Jauch und Menschen bei Maischberger. 

Update 9.3.12: 

Stattdessen verteilt die Pressestelle der ARD den folgenden Text:

"hart aber fair" am Montag, 12. März 2012, um 21.00 Uhr, live aus Berlin

München (ots) – Moderation: Frank Plasberg

Das Thema:

Strom, Gas, Benzin immer teurer – Energiewende auf unsere Kosten ?

Die Gäste:

Norbert Röttgen (CDU, Bundesumweltminister; stellv. Bundesvorsitzender) Bärbel Höhn (B’90/Grüne, stellv. Fraktionsvorsitzende; ehem. Umweltministerin in NRW) Ranga Yogeshwar (Wissenschaftsjournalist; ARD-Moderator "Wissen vor Acht" und "Die große Show der Naturwunder") Tilman Jens (Journalist und Filmautor "Der Fukushima-Schock" ARD) Roland Tichy (Chefredakteur "Wirtschaftswoche")

Die Preise für Energie explodieren – ob für Strom, Heizung, oder Sprit. Wer schützt die Bürger vor der Gier der Konzerne? Und welche Mitschuld hat der Staat, der uns hohe Energie-Steuern und die Zeche für den Ökostrom aufbrummt?

Interessierte können sich auch während der Sendung per Telefon und Fax an der Diskussion beteiligen und schon jetzt über die aktuelle Internet-Seite (www.hart-aber-fair.de) ihre Meinung, Fragen, Ängste und Sorgen an die Redaktion übermitteln. "hart aber fair" ist immer erreichbar unter Tel.: 0800/5678-678, Fax: 0800/5678-679, E-Mail: hart-aber-fair@wdr.de.

Pressekontakt:

Redaktion: Matthias Radner Pressekontakt: Dr. Lars Jacob Presse und Information Das Erste Tel.: 089/5900-2898 Fax: 089/5501259 E-Mail: lars.jacob@DasErste.de