Anthropo­gene globale Erwärmung AGW: vorsätz­liches Verbrechen gegen die Wissen­schaft, gerecht­fertigt mit künst­licher Sicher­heit

Der Punkt ist, dass ein computerbasiertes mathematisches Modell irgendeines Prozesses oder Systems nutzlos ist, solange es nicht validiert worden ist. Die Validierung eines solchen Modells muss das Austesten jeder einzelnen Gleichung darin enthalten sowie das Studium jedes einzelnen Parameters, um deren Genauigkeit auf statistischer Grundlage zu erkennen mittels einer Palette von Wahrscheinlichkeits-Verteilungen auf numerischer Grundlage, Standardabweichungen, Korrelationskoeffizienten und Vertrauensbereich. Das Endstadium ist ein sorgfältiger Test der Fähigkeit des Modells, die Folgen von Änderungen der Modellparameter über die gesamte gewünschte Bandbreite zu prognostizieren.

Als Reaktion auf meine Anmerkung, dass kein Modell je validiert worden ist, änderten sie den Titel zu „Klimamodelle – Evaluierung“ nicht weniger als 50 mal. Es gibt nicht einmal in irgendeiner IPCC-Publikation eine Beschreibung, was getan werden muss, um ein Modell zu validieren.

Anstatt validiert zu werden mittels des traditionellen Gebrauchs mathematischer Statistik werden die Modelle „evaluiert“ allein auf der Grundlage der Meinung derjenigen, die sie erfunden haben.

In den Anfängen wurde das Austesten eines Modells ,Nachhersage‘ genannt. Man datierte den Startzeitpunkt zurück mit einer bekannten Ausgangslage und ließ es von da an laufen, um festzustellen, ob es diese Entwicklung nachvollziehen konnte. War das der Fall, konnte man auch dessen realen Prognosen für die Zukunft vertrauen. So wie ich es verstehe wurde dieses Verfahren als Validierung bekannt, und die Modellierer proklamierten Erfolg, weil sie die Variablen so lange bearbeitet hatten, bis das Modell tatsächlich die Situationen der Vergangenheit nachvollziehen konnte. Das Problem war, dass bei dieser ,Nachhersage‘-Korrelation kein Beweis für Ursache und Wirkung erbracht worden ist.

Diese Story der Validierung illustriert, wie das IPCC nicht einmal grundlegende Verfahren durchführt, aber wenn man es dabei ertappt, werden die Ergebnisse solange bearbeitet, bis sie passen, oder man bringt eine neue Terminologie ins Spiel. Meines Wissens werden immer noch keinerlei Validierungen vorgenommen. Die Arbeit von Vincent bietet eine Gelegenheit, auf Kommentare zu meinem letzten Beitrag zu antworten. Er wies darauf hin, dass die Fehler des IPCC alles andere als unbedeutend waren. Sie waren ausgeprägt und unterstreichen, dass kein Vertrauensniveau involviert war. Kritiker meiner Beiträge argumentierten, dass es ausreichende Sicherheit gab, um die Modelle als valide Mittel zu betrachten. Ich wies diese Behauptung in Bausch und Bogen zurück, weil Sicherheit in jeder Phase der AGW-Behauptung unzureichend ist.

Im Rechtssystem wird unterschieden nach Verbrechen aus Affekten und nach Vorsatz, auch die Strafen sind unterschiedlich. Sie werden als zwei separate Verbrechen angesehen wegen der dahinter stehenden Absicht. Die globale Klima-Kampagne beabsichtigte, der Welt zu beweisen, dass die menschliche Erzeugung von CO2 die Ursache für AGW ist. Das belegt den Vorsatz. Es wurde zu einem Verbrechen aus Leidenschaft, nachdem das Verbrechen begangen worden war, weil die Täter es zuließen, sich von ihrer Leidenschaft übermannen zu lassen und allem widerstehen, was die Wahrheit enthüllt. Die betreffenden Leute wussten von Anfang an, dass das, was sie taten, noch weniger als Pseudowissenschaft war, also handelten sie vorsätzlich. Traurigerweise ist es so: wenn sie das nicht wussten – und es gibt viel zu viele, die es nicht wussten – waren sie inkompetent.

Es gibt eine weitere, extrem große Gruppe von Wissenschaftlern aus allen Disziplinen, die niemals die IPCC-Berichte lesen. Diejenigen, die es doch tun, machen die gleiche Erfahrung wie der Meteorologe und Physiker Klaus-Eckart Pulsl:

Ich wurde sehr zornig, als ich entdeckte, dass Vieles von dem, was das IPCC und die Medien uns weismachten, schierer Unsinn war und nicht einmal durch auch nur ein einziges wissenschaftliches Faktum oder irgendeiner Messung gestützt war.

Der Physiker Hal Lewis beschrieb die Arbeit des IPCC so:

Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich je in meinem langen Leben als Physiker erlebt habe.

Da gibt es keine Unsicherheit.

Anfang der achtziger Jahre, als das Thema Klima zu einer politischen Agenda geworden ist, wurden von allen in dem AGW-Betrug involvierten Personen zwei klare Verpflichtungen gefordert. Die erste war die Übernahme der wissenschaftlichen Verantwortung für das, was erzeugt wurde. Die zweite erfordert sozial-ökonomische Verpflichtungen hinsichtlich der auf dieser Wissenschaft basierenden Politik. Weder wissenschaftlichen noch sozialen oder politischen Verpflichtungen wurde nachgekommen. Schlimmer, sie wurden absichtlich umgangen.

Die Gefahren kristallisierten sich heraus, als der Betrug in die Öffentlichkeit getragen wurde, und zwar mittels Hansens abgekartetem Auftritt vor dem Senatskomitee im Jahre 1988. Ich entschuldige mich nicht dafür, dies immer wieder zu wiederholen und mich zu diesem Thema zu äußern, weil immer noch zu viele versuchen nachzuvollziehen, was da vor sich gegangen war.

In einem Kommentar zu meinem vorigen Artikel [auf Deutsch beim EIKE hier] schrieb Richard Tol:

Das ist alles ziemlich übertrieben. Tim Balls Kernpunkt scheint es zu sein, dass weil wir es nicht genau wissen, wir überhaupt nichts wissen. Es gibt im Leben nur Weniges, dass mit großer Präzision bekannt ist, besonders die Dinge, die eine Rolle spielen.

Die Menschen sind ziemlich gut darin, mit nicht perfekten Informationen umzugehen. Wir wären längst ausgestorben, wenn wir das nicht gewesen wären.

Klimapolitik ist nichts weiter als ein weiterer Fall, Entscheidungen unter Unsicherheiten zu treffen. Wir wissen, wie man das macht.

Dieses törichte Statement bildet die Grundlage dafür, alles zu erklären, was mit der ,Wissenschaft‘ für eine politische Agenda falsch läuft. Diese ,Wissenschaft‘ ist das Werk des IPCC. Erstens, es repräsentiert den umweltlichen Standard-Rückfall, wenn Daten und Wissenschaft unzureichend sind – das Vorsorgeprinzip; der Gedanke, dass es besser ist, überhaupt irgendetwas zu tun, nur für den Fall der Fälle. Nein, das ist es nicht, und zwar aus den Gründen, die ich vor dem kanadischen Parlamentskomitee zu FCKWs und Ozon erläutert habe. Die Wissenschaft schreitet voran mittels Spekulation, obwohl sie es hypothetisieren nennen. Viele Wissenschaftler können jeden Tag viele Spekulationen erzeugen und tun das auch, welche auf wenigen Fakten und Hypothesen beruhen. Heutzutage gieren Medien und Andere nach akademischen Publikationen auf der Suche nach sensationellen, den Globus oder das Leben bedrohenden Spekulationen. Niemals jedoch berichten sie, wenn die Forschungen gescheitert sind.

Meine Frage an die Politiker war, welche Spekulation sie auswählen und ausschlachten würden. Sie können nicht alle heranziehen, und außerdem erweisen sich fast alle als ungerechtfertigt, wenn man sie dem wissenschaftlichen Verfahren des Skeptizismus‘ unterzieht. Ironischerweise macht der Erfolg der Entwicklung das Geld locker, um damit eine verzerrte Liste von Prioritäten zu erstellen. Wir können es uns leisten, dumm zu sein.

Das IPCC wurde unter Federführung des United Nations Framework Convention on Climate Change (UNFCCC) gegründet. Jene Agentur stand unter dem Schirm der Agenda 21 des United Nations Environment Program (UNEP), einer globalen Umweltstrategie für das 21. Jahrhundert. Es war das geistige Produkt von Maurice Strong, welcher es der Welt im Jahre 1992 in Rio de Janeiro vorlegte. Wie alle Endprodukte beruhte sie auf eine Reihe von Vermutungen. Mit der Agenda 21 wurden diese Vermutungen als Prinzipien ausgegeben, welche die Eckpunkte setzten für Maßnahmen und Aktivitäten. Das Prinzip 15 besagt:

Um die Umwelt zu schützen, sollte das Vorsorgeprinzip von den Staaten entsprechend ihren Möglichkeiten weitgehend übernommen werden. Wo es Bedrohungen ernster oder irreversibler Schäden gibt, sollte das Fehlen vollständiger wissenschaftlicher Sicherheit nicht als Begründung dienen, kosteneffektive Maßnahmen zu verschieben, um umweltliche Beeinträchtigungen zu verhindern.

Schauen wir mal genau, was sie damit sagen. Erstens ist es diskriminierend und kontraproduktiv [anti-success]. Es ist nur auf Länder anwendbar, welche sich das leisten können (Fähigkeiten). Wer entscheidet das? Sie tun es! Wir agieren, wenn ernste irreversible Schäden drohen. Wer entscheidet darüber? Sie tun es! Fehlende volle wissenschaftliche Sicherheit ist nicht erforderlich um zu agieren, aber wer entscheidet, was angemessene Sicherheit ist? Sie tun es! Sie gaben sich selbst die Autorität, die Sicherheit zu verwerfen, auf die sich Tol bezog.

Nun wissen wir jetzt, dass die Modelle an jedweden ,Sicherheits‘-Anforderungen scheitern, selbst im grundlegendsten Niveau. Allerdings ist die Sicherheit ungeeignet bei allem was sie sagten und taten und – traurigerweise – immer noch tun. Die Computermodelle sind mathematische Konstrukte, wobei die Erdatmosphäre durch willkürlich gewählte Würfel repräsentiert wird (Abbildung 1):

Abbildung 1

Für etwa 85% der Oberflächen-Rechtecke gibt es keine Wetterdaten. Die Temperaturdaten werden in einer Höhe zwischen 1 m und 1,25 m über Grund genommen, sind also nicht repräsentativ für die Temperatur über oder unter diesem Niveau. Es gibt praktisch keine Daten über der Oberfläche. Die Datengrundlage zur Konstruktion der mathematischen Modelle repräsentiert die Temperatur in jedwedem Würfel nicht einmal annähernd. Die existierenden Daten genügen in keiner Weise irgendwelchen akzeptablen Niveaus wissenschaftlicher Sicherheit. Die USA beispielsweise haben die beste und mit Sicherheit die teuerste Ausrüstung für die Messung der Temperatur. Anthony Watts hat ermittelt, dass nur 7,9% aller USHCN-Wetterstationen eine Genauigkeit unter 1°C erreichten. Im Zusammenhang: im IPCC-Bericht 2001 heißt es, dass eine Erwärmung um 0,6°C über etwa 120 Jahren nicht natürlich war.

Es gibt nicht eine einzige vom IPCC herangezogene Variable, die auch nur ansatzweise in die Nähe dessen kommt, was eine statistisch signifikante Stichprobe ist. Soweit ich das verstehe, muss das eine Stichprobe sein, die 30% der Datenmenge enthalten muss, um signifikant zu sein [Original: that is a sample needs to be 30% of the population for significance]. Die IPCC-Leute sollten das wissen. Als Mitglieder der Weltwetterorganisation WMO arbeiten sie die ganze Zeit mit 30-Jahre-Mittelwerten. Das Problem ist, dass selbst dieser Zeitraum bedeutungslos ist, wenn es um Klimaaufzeichnungen geht. Eine Stichprobe über 30 Jahre mag statistisch für 100 Jahre signifikant sein, aber nicht für längerzeitliche Aufzeichnungen.

Das IPCC und seine Gründungsmitglieder wissen, dass Sicherheit entscheidend war, also machten sie sich daran, diese herbei zu schummeln. Die Arbeitsgruppe I (WG I) produziert den ,wissenschaftlichen‘ Beweis, dass menschliches CO2 Erwärmung verursacht. Sie repräsentieren nur einen kleinen Anteil der Leute, die sich wissenschaftlich betätigen, und nur sehr wenige von Ihnen haben eine Ausbildung in Klimatologie. Sie sind zumeist nur Spezialisten in einem kleinen Teilbereich des Klima-Puzzles. Ihre Ergebnisse werden ohne Hinterfragen übernommen und bilden die Grundlage für die Arbeit der Arbeitsgruppen II und III. Dies bedeutet, dass sie lediglich auf die Auswirkung und die erforderliche Abschwächung schauen, die notwendig für die Sicherheit ist, dass es eine Erwärmung geben wird.

Die Personen in der WGI sind sich der Begrenztheit der Daten bewusst. Ganz zu Anfang des 5. Zustandsberichtes gibt es einen Abschnitt mit der Überschrift [übersetzt] „Behandlung der Unsicherheiten“ [Treatment of Uncertainties]. Inzwischen weiß man, wie man das macht: mit der Angabe von „Wahrscheinlichkeiten“, die eine ohnehin schon ungenügende Präzision vortäuschen und verbreiten.

Abbildung 2

Abbildung 2 zeigt die Tabelle der ,Antriebe‘ [forcings] aus dem AR 5. Dies sind die Variablen, welche sie hinsichtlich menschlicher Gründe des Klimawandels für bedeutend halten. Rechts findet sich eine Spalte „Vertrauensniveau“ [Level of Confidence] Wer bestimmt das, und wie wird es gemessen? Es ist standardmäßig eine subjektive Maßzahl, aber das IPCC bevorzugt sie. Nur eine Variable ist markiert als ,Sehr Hoch‘, und zwar das CO2, eine eigennützige Abschätzung, die sich leicht widerlegen lässt. Nur drei der 11 Variablen sind als ,Hoch‘ gelistet. Man betrachte davon lediglich eine, nämlich Aerosole. Kann mir jemand die Daten beschaffen der Anzahl und der Natur der Aerosole in der Atmosphäre ebenso wie deren Volumen und deren zeitlicher Änderung über jedweden Zeitraum?

Die Tabelle ,Antriebe‘ in Abbildung 2 ist modifiziert aus der im AR 3 erschienenen Tabelle (Abbildung 3):

Abbildung 3

Weiter, die Spalte ist überschrieben worden als LOSU für „Level of Scientific Understanding.” Was in aller Welt ist das außer einer anderen subjektiven Maßzahl. Ich bin nicht überzeugt, dass „Vertrauen“ eine Verbesserung war. Es gab eine marginale statistische Verbesserung, weil die Anzahl der Klassifizierung „hoch“ von 2 von 11 auf 3 von 11 stieg und die Anzahl von „low“ von 4 auf 2 sank. Liest man jedoch den Report, zeigt sich, dass nahezu für jede Variable das LOSU oder Vertrauensniveau niedrig bis nicht existent ist.

Der größte Teil der Öffentlichkeit einschließlich fast aller Medien und der meisten Wissenschaftler haben niemals den Report der WG I gelesen. Dessen einzig mögliches Ziel war es, dass falls er später hinterfragt wird, man sagen kann, dass sie wussten, es gibt ernste Probleme hinsichtlich Daten und Verfahren. Ein Hauptgrund dafür, dass der Report nicht gelesen worden ist, ist der Umstand, dass die Politik absichtlich dessen Veröffentlichung zeitlich erst nach Freigabe der Summary for Policymakers angeordnet hat. Diese SPMs dienten nur dazu, absichtlich Zweifel herunter zu spielen und Sicherheit zu übertreiben. Um wenigstens ein Mindestniveau von Sicherheit vorzuspielen, welches ein Politiker oder Entscheidungsträger verlangt, bevor darüber entschieden wird, muss das vollständige Fehlen von Sicherheit in der Wissenschaft überspielt werden. Man betrachte die von Jones erstellte Graphik mit der globalen Temperaturzunahme um 0,6°C innerhalb von 120 Jahren. Die tatsächlich veröffentlichte Zahl war 0,6°C ±0,2°C. Hätte man dies so ausgedrückt, dass Politiker und die Öffentlichkeit es versteht, hätte man 0,6°C ±33,3% gesagt. Es gibt keine Person oder Gruppe, nicht einmal einen Politiker, der seine Politik auf die Grundlage derartiger Prozentangaben basieren würde. Es gibt strikte Grenzen der tolerierbaren Sicherheit in jeder anderen wissenschaftlichen Forschung – warum nicht in der Klimawissenschaft? Die Frage lautet, welcher Prozentsatz an Sicherheit vernünftig ist. Diese Frage überschreitet die Grenze in der Klimatologie zwischen Wissenschaft und sozial-ökonomischer Politik.

Im Jahre 1989 erlebte ich ein gutes Beispiel auf einer Konferenz in Edmonton zu Klimaprognosen und deren Implikationen für Land- und Waldwirtschaft. Der Klimamodellierer Michael Schlesinger hielt einen Vortrag, in welchem er Klimaprognosen der besten fünf Modelle des Tages miteinander verglich. Er argumentierte, dass diese valide sind, weil sie alle Erwärmung zeigen. Dies war zu 100% vorhersagbar, weil sie allesamt so programmiert waren, dass sie mit einer CO2-Zunahme steigende Temperaturen zeigten. Untersuchte man die Ergebnisse im kontinentalen Maßstab stimmten sie nicht überein. Ein Modell zeigte Abkühlung in Nordamerika, ein anderes Erwärmung. Das Publikum, bestehend aus Entscheidungsträgern aller Art, brauchte größere Sicherheit. Jemand fragte Schlesinger nach der Genauigkeit seiner Vorhersage trockenerer und wärmerer Bedingungen für Alberta. Die Antwort lautete 50%. Der Fragesteller erwiderte, dass diese Angabe für ihn nutzlos war. Sein Ministerium plante Wiederaufforstung und brauchte 95% Sicherheit.

Es gibt noch eine andere Möglichkeit, politische Reaktionen auf Unsicherheit zu testen. Viele US-Senatoren kannten die Probleme mit der Klimawissenschaft des IPCC durch die Arbeit von Senator James Inhofe. Als sie im Jahre 1995 aufgefordert worden waren, das Kyoto-Protokoll zu ratifizieren, machten sie es anders. Sie wollten nicht direkt abstimmen, weil dies hätte dazu führen können, weniger als grün zu erscheinen. Stattdessen schauten sie auf die sozial-ökonomischen Kosten der Umsetzung desselben, indem sie über die Byrd/Hagel Resolution abstimmten. Sie kamen zu dem Ergebnis, dass die Kosten bei Weitem über die Vorteile hinausgehen und stimmten 95 zu Null nicht zu Kyoto ab. Die Senatoren waren sich zu 100% sicher hinsichtlich der Auswirkungen, unabhängig von der Wissenschaft.

Vincent Gray verweist auf eine bedeutende Folgerung in Climate Change 95, in der es heißt:

Nichtsdestotrotz, die Summe der Beweise zeigt, dass es einen merkbaren menschlichen Einfluss auf das globale Klima gibt.

Dieser Kommentar ist ein direktes Zitat des infamen Beitrags von Benjamin Santer zum Kapitel 8. Das Komitee bzgl. Kapitel 8 hatte folgender Bemerkung zugestimmt:

Während Einige aus den hier diskutierten Grundlagen einen signifikanten Klimawandel erkannt haben wollten, gibt es bis heute keine einzige Studie, die den Klimawandel insgesamt oder teilweise anthropogenen Ursachen zugeordnet hat.

In dem Report machte Santer daraus:

Die Gesamtheit statistischer Beweise in Kapitel 8, wenn man sie im Zusammenhang unseres physikalischen Verständnisses des Klimasystems betrachtet, zeigen jetzt einen merkbaren menschlichen Einfluss auf das globale Klima.

Avery und Singer bemerkten dazu im Jahre 2006:

Santer kehrte die ,Klimawissenschaft‘ des gesamten IPCC-Reports in sein Gegenteil und damit auch den politischen Prozess bzgl. globaler Erwärmung! Der ,merkbare menschliche Einfluss‘, den das IPCC vermeintlich enthüllt haben sollte, wurde tausende Male in Medien auf der ganzen Welt zitiert und war der ,Stopper‘ in Millionen Debatten unter Nichtwissenschaftlern.

Dies war das erste ungeheuerliche Beispiel von Korruption und Betrug, mittels derer eine Sicherheit vorgegaukelt worden ist, die in keiner Phase des gesamten IPCC-Verfahrens existierte. Falls man mit seinen Modellen spielen oder Wissenschaft im Labor betreiben will – gut. Aber man muss den Verpflichtungen und Sicherheiten der Wissenschaft genügen. Das IPCC hat das nicht getan. Zieht man jedoch die Ergebnisse dieser ,Wissenschaft‘ heran und präsentiert sie als offizielle Politik, dann ist ein weiterer Satz an Verpflichtungen und Sicherheiten erforderlich. Das IPCC hat auch dem nicht Rechnung getragen.

Es ist unmöglich, das zu korrigieren, was das IPCC gemacht hat, teilweise weil jeder einzelne Report auf den Betrügereien früherer Berichte aufbaute. Das IPCC muss vollständig eliminiert werden, und alle nationalen Wetterdienste müssen zur Datensammlung verpflichtet werden einschließlich der Rekonstruktion von Klimaten der Vergangenheit. Das ist der einzige Weg, auch nur ein Minimum an Sicherheit der Erkenntnisse zu etablieren als Grundlage für Verständnis der Prozesse und damit einer genaueren Prognose.

Link: https://wattsupwiththat.com/2018/06/18/anthropogenic-global-warming-agw-a-premeditated-crime-against-science-justified-with-artificial-certainty/
Übersetzt von Chris Frey EIKE




Die Widersprüchlichkeiten beim Strahlenschutz

Damals traten bei hohen sich wiederholenden Strahlendosen gesundheitliche Schäden auf. Im Jahre 1934 legte man den ersten Grenzwert für den Umgang mit Strahlung fest und man schuf Gesetze zum Schutz vor Strahlung. Bis zur heutigen Zeit wurden die Grenzwerte ständig verringert. Allerdings bezogen sich die Grenzwerte nur auf den Umgang mit Kernbrennstoffen, im Wesentlichen also auf den Umgang mit Uran. Aus dem Auftreten von gesundheitlichen der Schäden bei hohen Strahlendosen wurde geschlossen, daß auch kleinste Strahlendosen unabhängig von der Zeit des Einwirkens schädlich seien. All dieses ist heute in Gesetzesform gegossen und wegen der Existenz dieser Gesetze wird fest an die Gefahren jeglicher Strahlung geglaubt.
Es gibt heute viele Widersprüchlichkeiten in der Strahlenschutzgesetzgebung, denn nicht nur beim Umgang mit Kernbrennstoffen gibt es hohe Strahlendosen. Im Folgenden sollen einige der Widersprüche erläutert werden:

  1. Die Strahlenschutzverordnungwurde bei uns durch ein Strahlenschutzgesetzabgelöst und so verschärft. In diesem Strahlenschutzgesetz ist jetzt auch für das überall in der Luft vorhandene Edelgas Radon der Grenzwert von 300 Becquerel pro Kubikmeter Luft für Innenräume genannt, Radon wird so als „Gefahrstoff“ gebrandmarkt. Es wurden2000 hypothetischeTodesopfer pro Jahr durch Radon in Deutschland ausgerechnet. Dabei wird übersehen, daß in Radonheilbädern die 1000-fach höhere Konzentration des Radons in der Atemluft zur heilenden Wirkung für die Patienten führt. Es gibt in Deutschland 8 Radonheilbäder, und in der EU profitieren im Jahr 80 000 Patienten von der Heilwirkung des Radons.
    Einige 100 000 Becquerel Radon pro Kubikmeter Luft in Heilbädern bewirken Heilung für Patienten, warum sind dann 300 Becquerel Radon gefährlich???
  2. In der evakuierten Zone von Tschernobyl ist der Strahlenpegel erhöht, er liegt im Bereich 0,1 bis 0,2 Mikro-Sievert pro Stunde. In unmittelbarer Umgebung des Unfallreaktors werden an einzelnen Stellen 10 Mikro-Sievert pro Stunde erreicht. Die evakuierte Zone wird „Todeszone“ genannt. Im Flugzeug hat man in Reiseflughöhe auf unserer Breite ca. 6 Mikro-Sievert pro Stunde.
    Warum gibt es in der „Todeszone“ Betretungsverbot, während die vielfach höhere Strahlung im Flugzeug täglich für Millionen Menschen erlaubt ist???
  3. Bei einem Ganzkörper-CT erhält der Patient eine Strahlendosis von 10 bis 20 Milli-Sievert in wenigen Minuten. Bei Aufräumarbeiten in der Kerntechnik gilt eine Grenze von 10 Mikro-Sievert im Jahr.
    Warum werden zur Einhaltung der Grenze in der Kerntechnik riesige Geldbeträge ausgegeben, wenn doch die 1000-fach höhere Dosis bei einem CT sich in millionenfacher Anwendung als harmlos erwiesen hat???
  4. Durch den Unfall in Fukushima hat niemand einen Schaden durch Strahlung erlitten, und es ist auch in Zukunft nicht mit gesundheitlichen Schäden zu rechnen, so berichten die von der UNO beauftragten Fachleute (UNSCEAR). Es hat aber durch die Strahlenschutzmaßnahmen der Evakuierung Todesopfer gegeben, es werden 150 bis 600 Opfer genannt (DER SPIEGEL), anderen Quellen in Japan sprechen von 1600 Opfern durch die Schutzmaßnahmen.
    Warum wird vor Strahlung geschützt, nicht aber vor unsinnigen Strahlenschutzmaßnahmen???
  5. In Kernkraftwerken westlicher Technik ist durch Strahlung noch nie ein Mensch zu Schaden gekommen, dennoch sind Italien und Österreich ausgestiegen und Deutschland folgt dem Beispiel. Weltweit hat die friedliche Nutzung der Kerntechnik laut UNSCEAR von Beginn in 1945 bis 2007 insgesamt 147 Todesopfer bei Strahlenunfällen gefordert, da sind Tschernobyl und Unfälle in der Medizin mit eingeschlossen, ebenso auch Kritikalitätsunfälle in der Anfangszeit. Die IAEA gibt eine um etwa 20 höhere Zahl an. Durch Stürze von Treppen und Leitern sterben allein in Deutschland jedes Jahr etwa 5000 Menschen.
    Warum wird die Kerntechnik eine HOCH-Risiko-Technik genannt und verboten, Treppen und Leitern jedoch nicht???
  6. Im Jahre 2006 hat man sich auf einer Tagung der IAEA geeinigt, daß der Tschernobyl-Unfall insgesamt 4000 zusätzliche Krebstodesfälle zur Folge haben wird. Das sind virtuelle Todesopfer, die unter allen zukünftigen Krebsopfern nicht nachweisbar sind. Wenn man die hierbei benutzte Rechnung auf die Zusatzbestrahlung bei Flugreisen anwendet, kommt man auf jährlich 5000 virtuelle Krebsopfer weltweit durch das Fliegen, die ebenfalls nicht nachweisbar sind.
    Warum werden aus den einmaligen 4000 virtuellen Krebstodesfällen des Tschernobyl-Unfalls schwerwiegende Schlußfolgerungen gezogen, die sich jährlich wiederholenden ähnlich hohen virtuellen Opferzahlen des Flugverkehrs jedoch ignoriert???
  7. Fall A)Meine Frau ist mit ihren 52kg eine Strahlenquelle von 6000 Becquerel, mit diesen 6000 Bq bestrahlt sie sich selber und ihre Umgebung.
    Fall B)Wladimir Klitschko ist mit 110kg eine Strahlenquelle von 12 000 Bq, er bestrahlt sich selber und seine Umgebung mit doppelt so viel Radioaktivität wie Fall A.
    Fall C)Herr Minister Peter Altmaier ist mit seinen 140kg (?) eine Strahlenquelle von 15 000 Bq, er bestrahlt sich selber und seine Umgebung mit der 2 ½ – fachen Menge im Vergleich mit Fall A.
    Nun wäre es für Herrn Minister Altmaier durchaus nützlich, sich mit einigen 1000 Bq weniger zu bestrahlen, zu Erreichen durch kleineren Body-Maß-Index. Dann könnte er seine Dosis durch Eigenbestrahlung um 30 bis 50 Mikro-Sievert im Jahr verringern und würde nicht mehr den Grenzwert von 10 Mikro-Sievert im Jahr verletzten, wie er bei Freimessungen im Rückbau von Kernkraftwerken gilt.
    Warum gilt beim Strahlenschutz oft eine Grenze von 10 Mikro-Sievert im Jahr, nicht jedoch für die Eigenbestrahlung durch erhöhten Body-Maß-Index???
  8. Nach Fukushima wurden in Deutschland die erlaubten Grenzen für Kontamination mit Cäsium-137 in Nahrungsmitteln herab gesetzt, von 1000 Bq/kg auf 600 Bq/kg. Fleisch von Wildschweinen kann heute noch über der Grenze liegen. Wenn meine Frau nun einen Wildschweinbraten essen wollte mit >600 Bq/kg, dann wäre sie für einige Tage eine Strahlenquelle von etwa 6100 Bq, sie würde sich selber und alles in ihrer Umgebung mit zusätzlichen 100 Bq bestrahlen.
    Warum wird das nun als gefährlich hingestellt und verboten, wenn doch Peter Altmaier sich selber das ganze Jahr über mit 15 000 Bq bestrahlen darf???
  9. Zur ASSE:Der Bundestag hat ein Gesetz gemacht, das die Rückholung der Abfälle aus der Tiefe verlangt. Dort lagern schwach radioaktive Abfälle, so wie alles auf der Erde schwach aktiv ist. In der ASSE sind verteilt über 125 000 Fässer 250 Gramm Plutonium-241, was den Löwenanteil der Aktivität in der Tiefe ausmacht. Allerdings wird diese Aktivität wegen kurzer Halbwertszeit verschwunden sein, wenn die Abfälle eines Tages tatsächlich wieder an der Oberfläche sein werden. Dann werden die Abfälle nur noch eine Aktivität von ca. 2 mal 10 hoch 13 Bq haben. In dem Deckgebirge über der ASSE von rund einem halben Kubikkilometer Volumen befinden sich etwa 2 mal 10 hoch 15 Bq, also die 100-fache Menge an Radioaktivität.
    Warum wird die Radioaktivität in der Tiefe als Gefahr gesehen, die 100-fache Menge darüber im Deckgebirge jedoch nicht???
  10. Zur ASSE:Die Radioaktivität von ca. 2 mal 10 hoch 13 Bq ist die ganz normale Radioaktivität der Erdkruste von einem Volumen von einem Quadratkilometer Fläche und 10 Meter Tiefe. In diesem Volumen der Erdkruste wachsen unsere Lebensmittel und wird unser Trinkwasser gewonnen. Deutschland hat eine Fläche von 356 000km², also das besagte Volumen an der Oberfläche 356 000-fach.
    Wie kann es sein, daß die Radioaktivität in der Tiefe der ASSE eine Gefahr darstellt, die 356 000-fach vorhandene gleiche Menge an der Oberfläche jedoch nicht???
  11. Zur ASSE:In der Landwirtschaft in Deutschland werden durch Düngung mit Kali in 2 bis 3 Jahren eine Menge Radioaktivität von etwa 2 mal 10 hoch 13 Bq durch K-40 auf die Felder verteilt.
    Warum ist die Radioaktivität in der Tiefe der ASSE gefährlich, die auf den Äckern verteilte gleiche Menge jedoch nicht???
  12. Zur ASSE:In 2 bis 3 Jahren werden von den Menschen in Deutschland mit der Nahrung etwa 2 mal 10 hoch 13 Bq durch Kalium-40 und Kohlenstoff-14 verspeist ohne negative Folgen für deren Wohlergehen. Die eingeatmete Radioaktivität durch Radon und seine Zerfallsprodukte liegt um den Faktor 10 höher.
    Warum ist die Radioaktivität in 500 Meter Tiefe der ASSE gefährlich, die viel höhere von den Menschen verspeiste und eingeatmete Menge jedoch nicht???
  13. Bei Radioaktivität und vielen anderen umweltpolitischen Diskussionen wird mit nicht nachweisbaren virtuellen Todesopfern argumentiert, aktuell bei Feinstaub und Stickoxiden. Das Rechenverfahren wurde im Umgang mit Radioaktivität erfunden und führte zur Verdammung der Kerntechnik und oft auch zur Verweigerung nützlicher medizinischer Strahlenanwendungen. Würde man das Rechenverfahren auch in der Medizin bei Bestrahlung nach Krebs-OP anwenden, dann käme man auf viel mehr Todesfälle als es überhaupt gibt. Würde man dieses Rechenverfahren auch bei dem allseits beliebten „Gift“ und Kanzerogen Ethanol anwenden, so käme man allein in Deutschland auf eine Todesrate, die 3-fach über der tatsächlichen liegt. Warum ist die Politik als oberste Autorität der Demokratie nicht bereit, diese Unstimmigkeiten zu beseitigen???
  14. Die weltweit geltenden Strahlenschutzgesetze erlauben dem Bürger eine maximale zusätzliche Dosis von
    1 Milli-Sievert im Jahr. Diese Dosis ist gleichbedeutend mit einer Temperaturerhöhung des menschlichen Körpers von 0, 000 000 2°C. Zur Erhaltung des Lebens brauchen wir eine Temperatur von 36°C, also rund 20°C mehr als die Umgebung.
    Die Lebensvorgänge in unseren Zellen sorgen für 100-millionenfach höheren Energieumsatz als die erlaubte Strahlung von 1 Milli-Sievert im Jahr, daher ist diese neben den Lebensvorgängen bedeutungslos – wann wird das erkannt und in den Massenmedien gesagt???
  15. Strahlung von Radioaktivität ist nicht grundsätzlich schädlich, wie es der Menschheit seit 80 Jahren suggeriert wird. Zusätzliche Strahlung führt zu zusätzlichem Training des Abwehrsystems im Organismus von Lebewesen und zusätzlichen Fähigkeiten des Immunsystems zur Abwehr und Korrektur von Fehlern. Dieser Zusammenhang ist seit langen als Hormesis bekannt und verspricht gigantische gesundheitliche Vorteile. Daher wird das Minimierungsgebot im Strahlenschutz auch „der größte wissenschaftliche Irrtum“ der Menschheit genannt.
    Wann werden die Menschen bereit sein, diesen fatalen Irrtum zu korrigieren???

Die 15 Beispiele zeigen Fehler/Irrtümer in der Strahlenschutzgesetzgebung. Die Ursache dazu ist die falsche Lehrmeinung, nämlich die Annahme, daß jede noch so kleine Strahlendosis schädlich sei. Die Strahlengefahr ist keine reale Gefahr, sie ist eine virtuelle Gefahr. Und die damit berechneten Todesopfer sind nicht real, sondern virtuell, d.h. es gibt sie nicht. Einige Mitglieder der Internationalen Strahlenschutzkommission sprachen von einem Geisterbild, das sagt viel. Die Strahlenschutzgesetzgebung sollte auf den Stand der Wissenschaft gebracht werden, dazu sind die internationalen und nationalen Gremien gefordert: ICRP, UNSCEAR, IAEA, BfS, SSK;  mit Unterstützung der Massenmedien.  
 

 
 

 




Klimawandel: Sind Christen bibelfest?

Pixabay


Alle Religionen der Welt beruhen auf Narrativen (Narrativ hier wie „zum Narren halten“), die der Aufklärung und dem gesunden Menschenverstand Hohn sprechen. Selbst die albersten Geschichten waren und sind für die Überzeugung der Gläubigen immer noch gut genug. Natürlich haben auch einige der weltweiten Religionen inzwischen den modernen Naturwissenschaften Tribut zollen müssen, leider nicht alle. So werden zumindest von christlichen Funktionären (Pfarrern, Bischöfen, Kardinälen, Papst) Narrative, wie z.B. die leibliche Wiederauferstehung beim jüngsten Gericht oder die Rettung der Fauna vermittels der Arche Noah etc. inzwischen als „Bildnisse“ und nicht mehr als Realität verkauft.
Bedenklich wird es allerdings, wenn sich Religionsfunktionäre, hier der aktuelle Papst Franziskus, zu sachlichen Urteilen über naturwissenschaftliche Phänomene versteigen (hier, hier, hier) und daraus Handlungsdirektiven für ihre Glaubensanhänger ableiten. Für solche Beurteilungen sind sie auf Grund ihrer akademischen Ausbildung und intellektuellen Fähigkeiten weder befähigt noch zuständig. Hier wird eine bedenkliche Rückwendung sichtbar, an deren konsequentem Ende wieder die Vernichtung von Ketzern steht. Bekanntestes historisches Beispiel war der seiner Zeit weit vorausgreifende Naturwissenschaftler Giordano Bruno, der am 17.Feb. 1600 in Rom als Ketzer verbrannt wurde (hier). Seine Rehabilitierung erfolgte erst 400 Jahre(!) später durch Papst Johannes Paul II.
Immerhin wagt das „idea Spektrum“ eine Zeitschrift von Nachrichten und Meinungen aus der evangelischen Welt, diese Entwicklung zu kritisieren. Es geschieht vorsichtig und sogar ein wenig ironisch, indem zwei konträre Meinungsvertreter sich äußern dürfen. Der Artikel lautet „Kann der Mensch den Klimawandel stoppen?. Er erschien in idea, Nr. 23, 6. Juni 2018. Auf der Seite der Befürworter von „Klimaschutz“ steht Frau Stefanie Linner als Aktivistin einer globalen christlichen Bewegung (hier) mit der Aussage „Unser Lebensstil hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst„. Auf der anderen Seite steht Dr. Rainer Facius (Physiker) mit der Aussage „Was der Mensch nicht verursachen kann, das kann er auch nicht stoppen„.
Frau Linner hat, wie alle Gläubigen, überhaupt keine Sachargumente, mit denen sie ihre Auffassung stützen könnte. Ihre Argumentationsschiene besteht aus einer freien Glaubensbehauptung, denn sie schreibt „….. Der Lebensstil, den wir uns gemeinsam in den letzten paar hundert Jahren angewöhnt haben, hat das Gleichgewicht der Schöpfung tiefgreifend beeinflusst. Diese Veränderungen führen zu einem Klimawandel, dessen Konsequenz uns im Prinzip klar ist ….“. Leider ist nichts klar, liebe Frau Linner! Hat der vor rund 60 Millionen Jahren herabstürzende Großmeteorit, der gemäß heutiger wissenschaftlicher Auffassung für das Aussterben der Dinosaurier verantwortlich war, etwa nicht das Gleichgewicht der Schöpfung tiefgreifend beeinflusst? Dass die Behauptungen von Frau Linner auch nur versuchsweise belegt werden, kann nicht erwartet werden. Ein unverrückbares Mantra musste genügen.
Herr Facius argumentiert dagegen sachlich: Zuerst mit der Schwäche von Klimamodellen, die als Beweismittel untauglich sind. Er erwähnt den seit 20 Jahren anhaltenden globalen Temperaturstillstand, der mit dem zunehmenden CO2 nicht zusammenpasst. Er erwähnt die weit höheren CO2-Konzentrationen der Erdvergangenheit, die keine Katastrophen verursachten und er spricht die Ausgasung von CO2 aus dem Meer bei steigenden Temperaturen an, wobei die Temperatur das CO2 führt, nicht umgekehrt.
Auch bei bemühter Neutralität und allem gebotenen Respekt für den religiösen Glauben unserer Mitmenschen leben wir immer noch in Zeiten der Aufklärung! Die Entscheidung, welcher der beiden Meinungsäußerungen mehr Gewicht beigelegt werden sollte, kann daher dem logisch denkenden und naturwissenschaftlich kundigen Leser nicht schwer fallen. Ironischerweise kommt im idea-Artikel auch zur Sprache, dass sich Gott (hier ist natürlich der christliche gemeint) höchstselbst für die Rettung des Klimas verbürgt hat. So ist nämlich in 1. Mose 8,22 (Luther Bibelübersetzung) nachzulesen

„Solange die Erde steht, soll nicht aufhören Saat und Ernte, Frost und Hitze, Sommer und Winter, Tag und Nacht“

Daraus ist zu folgern, dass christliche Kirchenfunktionäre, zumindest was den Klimawandel angeht, noch nicht einmal bibelfest sind.
 
 
 




Ein Leserbrief: NO2-Grenzwerte – ein Tollhaus

Jedermann kann sich bei Wikipedia über die Gesundheitsgefährdung durch Stickstoffdioxid (NO2) informieren. Gesichert sind Gesundheitsschädigungen ab einer Konzentration von 20.000 µg/m³ Luft. Höhere Werte können zu Lungenschädigungen mit Todesfolgen führen. Schädigungen durch geringere Konzentrationen werden  dagegen nur vermutet. Es ist offensichtlich nicht möglich, in diesem Bereich den Einfluss des NO2von überlagernden anderen Luftanteilen, wie Feinstaub und Spurengasen, die gleichfalls zu Schädigungen führen können, herauszufiltern.
Nach diesen Kenntnissen wurde für Stickstoffdioxid ein Arbeitsplatzgrenzwert von 950 µg/m3 in Deutschland festgelegt. Dieser Wert ist der sogenannte Schichtmittelwert und über einen Zeitraum von 8 Stunden einzuhalten. Er darf kurzzeitig und bis zu 4-mal pro Schicht um das Zweifache überschritten werden. Damit wird maximal ein Zehntel der Schädigungsgrenze erlaubt. Gesundheitliche Beeinträchtigungen von Gießern und Schweißern, die oft im Bereich der Grenzwerte arbeiten, sind nicht bekannt.
Eine Arbeitsgruppe des Bundesumweltamtes hat dagegen für Innenräume ohne industrielle Tätigkeiten einen Richtwert von 60 µg/m³ festgelegt. Für Außenluft wurde von der EU zunächst ein Grenzwert von 200 µg/m³ eingeführt, der später auf 40 µg/m³ (1 NO2–Molekül auf 50 Millionen Luftmoleküle) reduziert wurde, also auf 4 Prozent des Arbeitsplatzgrenzwertes. Die Werte liegen im Bereich der natürlichen NO2-Anteile in der Luft und nahe der Nachweisgrenze. Schon einige brennende Kerzen lassen die NO2–Konzentration im Raum auf mehrere 100 µg/m³ ansteigen. Gasherde, offene Kamine, Tabakrauch sind andere NO2-Quellen, durch die der EU-Grenzwert um ein Vielfaches ohne gesundheitliche Probleme überschritten wird.
Die Festsetzung der unsinnig niedrigen Grenzwerte für NO2durch übereifrige Umweltschützer führt nun zur Verteufelung des Dieselmotors und sogar zu Fahrverboten. Wir leben in einem Tollhaus. Kein Akteur hinterfragt, ob die von der EU Administration festgelegten Grenzwerte sinnvoll sind. Die Führungen der Automobilkonzerne haben sich nicht dagegen gewehrt, obwohl geringere Leistungen und höherer Treibstoffverbrauch die Folge sind. Politiker lassen den höheren Kraftstoffverbrauch und damit mehr CO2-Emissionen zu, die sie eigentlich reduzieren wollen. Selbst Bundesrichter und der Europäische Gerichtshof kritisieren die unsinnigen Grenzwerte nicht.
Statt dessen hat die Automobilindustrie die Motorensteuerung so gestaltet, dass bei Testläufen die Grenzwerte unterschritten werden, während im allgemeinen Fahrbetrieb zu höheren Leistungen und damit auch zu einem höheren NO2–Ausstoß geschaltet wird. Politiker haben die niedrigen Grenzwerte beschlossen. Anschließend beklagen sie, dass CO2-Reduktionen nicht erreicht werden. Richter plädieren für unsinnige Fahrverbote, die viele Millionen Dieselfahrzeuge unwirtschaftlich machen. Man folgt Argumenten des dubiosen Abmahnvereins Umwelthilfe, statt sich auf die realen physikalischen Grundlagen zu beziehen.
Wir leben in einem Tollhaus. Werden wir noch einmal zu den Realitäten zurückfinden?
Hans-Günter Appel
 
Prof. Dr.-Ing. Hans-Günter Appel
Auenweg 2
26419 Schortens
Tel.: 04423 7557
Pressesprecher
Stromverbraucherschutz NAEB e.V.
www.naeb.de
 
 




Wissenschaftler: 30 Jahre später, wie gut stehen Prognosen zur globalen Erwärmung?

von Dr. Pat Michaels und Dr. Ryan Maue
James E. Hansen wischte sich den Schweiß von der Stirn. Draußen gab es am 23. Juni 1988 eine Rekordtemperatur von 36,7 °C, als der NASA-Wissenschaftler vor dem Senatsausschuss für Energie und natürliche Ressourcen während einer längeren Hitzewelle aussagte, die er zu einem Klimaereignis von kosmischer Bedeutung erklärte. Er drückte gegenüber den Senatoren sein „hohes Maß an Vertrauen“ in eine „Ursache-Wirkungs-Beziehung zwischen dem Treibhauseffekt und der beobachteten Erwärmung“ aus.



Video von Tony Heller über die Prophezeiungen von James Hansen, während und vor und nach der Anhörung vor dem US-Senat am 23.6.1988, die samt und sonders nicht nur nicht eintrafen, sondern oft stattdessen das ganze Gegenteil.
Mit diesem Zeugnis und einer begleitenden Arbeit im Journal of Geophysical Research entzündete Mr. Hansen das Feuer der Gewächshäuser im Gewächshaus und entzündete damit eine weltweite Debatte über die Energiestruktur des gesamten Planeten. Präsident Obamas Umweltpolitik beruhte auf ähnlichen Modellen schneller, kostenintensiver Erwärmung. Aber der 30. Jahrestag der Vorhersagen von Herrn Hansen bietet die Gelegenheit, zu sehen, wie gut seine Prognosen waren – und die Umweltpolitik entsprechend zu überdenken.
In der Zeugenaussage von Herrn Hansen wurden drei mögliche Szenarien für die Zukunft der Kohlendioxidemissionen beschrieben. Er nannte Szenario A „business as usual“, da das für die 1970er und 80er Jahre typische beschleunigte Emissionsanstieg beibehalten wurde. Dieses Szenario prognostizierte, dass sich die Erde bis 2018 um 1 Grad Celsius erwärmen würde. Szenario B setzte die Emissionen niedriger ein und stieg heute mit der gleichen Rate wie 1988. Herr Hansen nannte dieses Ergebnis das „plausibelste“ und prognostizierte, dass es etwa 0,7 Grad betragen würde Erwärmung dieses Jahr. Er fügte eine finale Prognose, Szenario C, hinzu, die er als sehr unwahrscheinlich ansah: konstante Emissionen beginnend im Jahr 2000. In dieser Prognose würden die Temperaturen einige Zehntel Grad steigen, bevor sie nach 2000 flach werden würden.
Dreißig Jahre Daten wurden gesammelt, seit Herr Hansen seine Szenarien skizziert hat – genug, um zu bestimmen, welches der Realität am nächsten kam. Und der Gewinner ist das Szenario C. Die globale Oberflächentemperatur ist seit 2000 nicht signifikant angestiegen und hat den El Niño, der größer als üblich ist, von 2015-16 abgezinst. Nach dem Modell von Herrn Hansen verhalten sich die Oberflächentemperaturen so, als hätten wir vor 18 Jahren die Kohlendioxidemissionen begrenzt, die für den verstärkten Treibhauseffekt verantwortlich sind. Aber wir haben es nicht getan. Und es ist nicht nur Mr. Hansen, der es falsch verstanden hat. Die vom Zwischenstaatlichen Ausschuss der Vereinten Nationen für Klimaänderungen (IPCC) entwickelten Modelle haben im Durchschnitt etwa doppelt so viel Erwärmung vorhergesagt wie seit Beginn der weltweiten Überwachung der Satellitentemperatur vor 40 Jahren.
Hanses total falsche Vorhersage für den künftigen Temperaturverlauf. Rot aktueller Verlauf
Was ist mit Herrn Hansens anderen Behauptungen? Außerhalb der Erwärmungsmodelle war sein einziger ausdrücklicher Anspruch in der Aussage, dass die späten 80er und 90er Jahre eine „überdurchschnittliche Erwärmung im Südosten der USA und im Mittleren Westen“ erleben würden. In diesen Regionen wurde kein solcher Anstieg gemessen.
Als die beobachteten Temperaturen im Laufe der Jahre von seinen Vorhersagen abwichen, verdoppelte sich Herr Hansen. In einem Fall von 2007 über Autoemissionen erklärte er in seiner Ablagerung, dass das meiste von Grönlands Eis bald schmelzen würde und den Meeresspiegel im Laufe von 100 Jahren auf 23 Fuß anheben würde. Nachfolgende Forschungen, die in der Zeitschrift Nature über die Geschichte der grönländischen Eiskappe veröffentlicht wurden, haben gezeigt, dass dies unmöglich ist. Ein Großteil der Oberfläche Grönlands schmilzt jeden Sommer, was bedeutet, dass in einer sich dramatisch aufheizenden Welt mit einem raschen Schmelzen zu rechnen ist. Aber nicht in dem, in dem wir leben. Die Nature-Studie fand nur einen bescheidenen Eisverlust nach 6.000 Jahren viel wärmerer Temperaturen, als die menschliche Aktivität jemals ertragen konnte.
Einige weitere Vorhersagen von Herrn Hansen können nun anhand der Geschichte beurteilt werden. Sind Hurrikane stärker geworden, wie Mr. Hansen in einer Studie von 2016 vorhergesagt hat? Nein. Satellitendaten ab 1970 zeigen keine Hinweise auf die globale Oberflächentemperatur. Haben Stürme in den USA immer mehr Schaden angerichtet? Daten aus der National Oceanic and Atmospheric Administration zeigen keinen solchen Anstieg der Schäden, gemessen am Bruttoinlandsprodukt. Wie wäre es mit stärkeren Tornados? Das Gegenteil mag zutreffen, da NOAA-Daten Hinweise auf einen Rückgang liefern. Die Liste dessen, was nicht passiert ist, ist lang und langwierig.
Das Problem mit den Modellen von Herrn Hansen – und den U.N.’s – ist, dass sie keine präziseren Messungen darüber in Betracht ziehen, wie die Aerosolemissionen der Erwärmung von Treibhausgasen entgegenwirken. Mehrere neuere Klimamodelle tragen diesem Trend Rechnung und projizieren routinemäßig ungefähr die Hälfte der von den U.N.-Modellen vorhergesagten Erwärmung, wodurch ihre Zahlen den beobachteten Temperaturen viel näher kommen. Das jüngste von ihnen wurde im April von Nic Lewis und Judith Curry im Journal of Climate veröffentlicht, einer zuverlässig etablierten Zeitschrift.
Diese korrigierten Klimaprognosen werfen eine entscheidende Frage auf: Warum sollten Menschen weltweit drastische Kosten für die Reduzierung von Emissionen bezahlen, wenn die globale Temperatur so wirkt, als ob diese Kürzungen bereits vorgenommen worden wären?
Am 30. Jahrestag der Zeugenaussage von Herrn Hansen ist es an der Zeit anzuerkennen, dass die von ihm vorhergesagte schnelle Erwärmung nicht stattfindet. Klimaforscher und politische Entscheidungsträger sollten die bescheideneren Prognosen übernehmen, die mit den beobachteten Temperaturen übereinstimmen.
Das wäre eine lauwarme Politik, im Einklang mit einem lauwarmen Planeten.
Weiterführende links: