Die Leukämie-Lüge

Leukämie ist ein bösartiger, erstmals im Jahr 1845 von Rudolf Virchow beschriebener Blutkrebs, benannt nach griechisch »leukos« = weiß und »haima« = Blut; der Name steht für die unkontrollierte Vermehrung von weißen Blutkörperchen (Leukozyten) und ihrer funktionsuntüchtigen Vorstufen, die durch ihr Wuchern die gesunden Zellen derart an der Arbeit hindern, dass man daran stirbt. Die Krankheit beginnt mit der Entartung einer einzigen Zelle, deren Erbgut sich schlagartig verändert. Alle Abkömmlinge dieser Zelle entarten dann ebenfalls und verbreiten sich zunächst im Knochenmark, wo sie die Blutbildung stören, können aber von dort auch die Leber, die Milz und weitere Organe befallen. Die reduzierte Blutzufuhr macht den Patienten zudem anfällig für Infektionen, es kommt zu Fieber, geschwollenen Lymphknoten, Milz- und Lebervergrößerungen und Knochenschmerzen. Unbehandelt führen akute Leukämien in wenigen Monaten zum Tod.
Heute versucht man, der Krankheit mit Chemotherapie und Knochenmarkverpflanzungen beizukommen, die Erfolgsquote liegt bei knapp 50 Prozent. Eines der prominentesten Opfer der letzten Zeit war Raissa Gorbatschowa, die Frau des letzten sowjetischen Staatspräsidenten, sie hat die Erkrankung nicht überlebt und ist nach mehreren erfolglosen Therapieversuchen im September 1999 in der Universitätsklinik Münster an Leukämie gestorben. Ein anderer prominenter Patient, der Tenor José Carreras, hat dagegen bis heute Glück gehabt. Dennoch ist natürlich jeder vermeidbare Fall von Leukämie ein Fall zu viel. Und zugleich ein Appell an die Wissenschaft, nach den Ursachen zu suchen. Wer oder was setzt den Initialunfall in Gang? Wie kommt es zu der ursprünglichen Zellveränderung, mit der das Unheil seinen Anfang nimmt? Und damit sind wir auch schon mitten im Problem. Denn über die unmittelbaren Ursachen der Leukämie, über die Auslöser der ersten Zellentartung, weiß man bisher nicht allzu viel.
Als mögliche Genmanipulatoren werden Viren, eine genetische Vorbelastung, bestimmte Chemikalien wie etwa Benzol oder extreme Dosen von ionisierender Strahlung diskutiert. So tritt etwa Leukämie bei den Überlebenden der Atombombenattacken von Hiroshima und Nagasaki häufiger auf als im Durchschnitt der japanischen Bevölkerung. Auch bei den Überlebenden von Tschernobyl ist die Leukämierate erhöht. Und vielleicht werden auch die Feuerwehrmänner von Fukushima in einigen Jahren vermehrt an Leukämie erkranken.
Damit steht für einen großen Teil der Medien und der Öffentlichkeit der Schuldige – die Kernkraft – auch schon fest. Und wird gegen alle Regeln der Vernunft fast schon fanatisch gegen alle Gegenargumente abgeschirmt. Ein Castor-Behälter etwa kann von einer Brücke fallen, vom Blitz getroffen oder von einer Kanone beschossen werden – nicht die geringste Radioaktivität entweicht. Und dann tritt eine ansonsten vor allem als Genitalexpertin und Verfasserin der Feuchtgebiete bekannte Mediengröße vor die Kameras und spekuliert, wie viele Polizisten, die den Castor begleiten, demnächst wegen der Bestrahlung wohl an Leukämie versterben werden.
Dass Frau Roche das glaubt, ist nicht weiter schlimm – nicht jeder muss etwas von Physik verstehen. Aber dass dergleichen Unfug auch noch im Fernsehen gesendet wird, sollte doch bedenklich stimmen. Denn ganz offensichtlich glauben auch viele Journalisten selbst daran. Und dass sie daran glauben, ist das Ergebnis einer systematischen Desinformationskampange, die von politisch interessierten Kreisen seit Jahrzehnten betrieben und von wissenschaftlich unbedarften Medien unbesehen nachgebetet und aufgeblasen wird.
Denn wenn es eine von nun wirklich allen Fachleuten als unbestritten angesehene Erkenntnis der weltweiten Leukämieforschung gibt, dann die, dass die im Normalbetrieb von kerntechnischen Anlagen emittierte Strahlung weit, weit unterhalb jedweder Gefahrengrenze liegt; sie wird von der Belastung durch Röntgenstrahlen oder natürliches Radon um ein Vielfaches übertroffen.
Aber seit wann helfen Kontra-Argumente gegen Glaubenssätze? Und wenn man keine Pro-Argumente hat, dann fabriziert man welche. Das fing mit den bekannten Häufungen von Leukämie bei Kindern um das Kraftwerk Krümmel an der Unterelbe an. Kinder sind anfälliger gegen Strahlenschäden als Erwachsene, wenn also kerntechnische Anlagen tatsächlich Leukämie erzeugen, müssten als erste Kinder darunter leiden. Und tatsächlich sind von 1990 bis 2009 in der Elbmarsch nahe Krümmel 19 Kinder an Leukämie erkrankt, dreimal mehr als unter »normalen« Umständen zu erwarten waren (denn auch abseits aller Kernkraftwerke erkranken Kinder an Leukämie). Für sich allein gesehen ist das kaum durch Zufall zu erklären; die Wahrscheinlichkeit, dass um ein gegebenes Kernkraftwerk eine derartige Häufung allein durch Zufall auftritt, ist so klein, dass man im Umkehrschluss behaupten darf: Der Zufall kann es nicht gewesen sein.
Aber die Wahrscheinlichkeit, dass um ein gegebenes Kernkraftwerk eine derartige Häufung allein durch Zufall auftritt, ist doch für die Beurteilung der Leukämiegefahr völlig irrelevant! Die Wahrscheinlichkeit, dass ein gegebener Lottospieler sechs Richtige erzielt, ist so gut wie null. Aber die Wahrscheinlichkeit, dass irgendein Lottospieler sechs Richtige erzielt, ist so gut wie eins.
Was wir also brauchen, ist die Wahrscheinlichkeit, dass um irgendein Kernkraftwerk in irgendeinem Zeitraum dreimal mehr Leukämiefälle auftreten als anderswo. Derzeit gibt es Hunderte von Kernkraftwerken auf der Welt, zahlreiche neue werden gerade gebaut, auch das Desaster in Japan hält die meisten Auftraggeber nicht von dieser preiswerten Energieerzeugung ab. Und die Wahrscheinlichkeit, dass um irgendeinen dieser Standorte dreimal mehr Leukämiefälle auftreten als anderswo, ist ähnlich der, dass irgendein Lottospieler sechs Richtige erzielt, das heißt fast 100 Prozent.
Das Krümmel-Cluster beweist also gar nichts. Es ist eines von insgesamt 240, die im Rahmen der sogenannten EUROCLUS-Studie bei der Erhebung von 13351 Fällen kindlicher Leukämie in insgesamt 17 Ländern gefunden worden sind. Nur bei vier der 240 identifizierten Cluster liegt ein Kernkraftwerk in der Nähe.
Aus den gleichen Gründen ist auch die Häufung von Leukämie um das geplante Endlager Asse in Niedersachsen ein Nichtindiz. Dort sind zwischen 2002 und 2009 zwölf Männer und sechs Frauen an Leukämie erkrankt; »normal« wären insgesamt sieben oder acht. Aber hat man eigentlich einmal gezählt, um wie viele Atomanlagen auf der Welt in den letzten Jahren kein einziger Fall von Leukämie gemeldet worden ist?
Mit der gleichen Logik, nämlich aus einer großen Zahl von Kandidaten die zur jeweiligen These passenden herauszuziehen, könnten wir auch »beweisen«, dass die Kernkraft Schweißfüße oder Haarausfall erzeugt – mit einer Wahrscheinlichkeit nahe eins gibt es irgendwo auf der Welt ein Kernkraftwerk, in dessen Nähe Kahlköpfe oder Schweißfüße besonders häufig sind. Wer sucht, der findet.
In den USA zum Beispiel findet man »signifikant« mehr Leukämie in der Nähe von katholischen Kirchen. Oder wie wäre es mit Fußballstadien oder Parteibüros der Grünen? Der vorläufig letzte Versuch einer politisch motivierten Konstruktion von Schuldindizien ist eine von der Partei Bündnis 90/Grüne in Auftrag gegebene Studie des Bremer Epidemiologen Eberhard Greiser aus dem Jahr 2009. Darin wird zum x-ten Mal unter Missachtung fast aller Regeln der mathematischen Statistik »nachgewiesen«, dass in der Nähe von Kernkraftwerken in der Tat »signifikant« mehr Leukämiefälle bei Kindern auftreten als anderswo. Bzw. man behauptet, dieses nachzuweisen.
Die wichtigsten Indizien dafür sind Tabellen wie die folgende; sie stellt für Kinder unter fünf Jahren und für insgesamt 69 Kraftwerke die in der Nähe aufgetretenen Leukämiefälle den erwarteten Fällen gegenüber, wenn dort die Leukämiehäufigkeit die gleiche wäre wie im Rest des jeweiligen Landes. Und siehe da: In der Nähe von Kernkraftwerken gibt es 158 Fälle mehr. Die Daten für Kanada beziehen sich auf den Zeitraum 1964 bis 1980. Für Frankreich liegen Daten von 1990 bis 2001 und für England von 1969 bis 1993 vor. Hier enthält die obige Tabelle nur Fälle von myeloischer Leukämie, das sind weniger als ein Fünftel aller Fälle an kindlicher akuter Leukämie.
Die Erkrankungsdaten aus den USA beziehen sich auf unterschiedlich lange Zeiträume, je nachdem, welches der verschiedenen Krebsregister zur Verfügung stand; alle enden aber im Jahre 2006. Insgesamt kommen so 69 Standorte zusammen, von denen man weiß, wie viele Kinder in deren Nähe in diesen Zeiträumen an Leukämie erkrankt sind und wie viele Erkrankungen bei Abwesenheit irgendwelcher Besonderheiten zu erwarten gewesen wären. Denn Leukämien treten auch in Landschaftsschutzgebieten, Alpentälern oder in der Gobi-Wüste auf, fern jeder Industrie, sodass nur die zusätzlichen Fälle zur Debatte stehen.
Diese Datensammlung verdient durchaus Respekt, ist aber leider unvollständig. Wo zum Beispiel bleiben die übrigen potenziellen Strahlenemittenten? Derzeit gibt es mehr als 1000 Nuklearanlagen auf der Welt; weniger als 80 davon gehen in die Greiser-Analyse ein (in die obige Tabelle sogar nur 69). Was ist mit den anderen? Selbst wenn man sich wie Greiser nur auf Kernkraftwerke beschränkt, also Wiederaufbereitungsanlagen, Atombombenfabriken oder Urananreicherungsanlagen usw. weglässt, bleiben immer noch über 150 Kraftwerkstandorte übrig, wo man über Leukämie und Kernkraft nicht viel weiß. Und das vermutlich deshalb, weil nichts Auffälliges geschehen ist. In Deutschland etwa liegen die Erkrankungsraten für Kinder bis 14 Jahre in der Nähe der Kraftwerke Brokdorf, Brunsbüttel, Grohnde, Gundremmingen, Stade, Phillipsburg, Lingen und Würgassen unter dem Landesdurchschnitt, hier erkranken nicht mehr Kinder als anderswo an Leukämie, sondern weniger. Um Brokdorf etwa hätte man sechs Fälle erwartet, es gab aber nur vier. In Brunsbüttel hätte man sieben Fälle erwartet, es gab aber nur drei. In Grohnde hätte man acht Fälle erwartet, es gab aber nur sieben. In Stade wären 19 Fälle zu erwarten gewesen, es gab aber nur 15. In Phillipsburg waren 35 Fälle zu erwarten, es gab aber nur 31. Und in Lingen/Unterweser waren 22 Fälle zu erwarten, es gab aber nur 19.
Alle diese Leukämieerkrankungen waren für die Kinder und für deren Eltern eine große Katastrophe. Aber was hatten sie mit den Kraftwerken zu tun? Hätten die Raten dagegen merklich über den Erwartungen gelegen (was durch Zufall sehr leicht vorkommt), wäre eine Panikmeldung in der ARD schon programmiert. Deswegen ist es auch kaum vorstellbar, dass eine Leukämiehäufung in der Nähe von Kernkraftwerken in Spanien, Schweden, der Schweiz oder Japan nicht sofort in den Medien ausgeschlachtet worden wäre.
All diese Länder kommen in der Greiser-Studie aber überhaupt nicht vor. Und wenn, wie etwa in den 90er-Jahren in Schweden, tatsächlich einmal eine Studie mit dem Befund »nichts aufzufinden« den Weg in die Öffentlichkeit findet, wird sie von den Medien ignoriert.
Aber bis zu einer Publikation in einem Fachjournal bringen es viele befundlose Studien zumeist nicht. Für wissenschaftliche Fachzeitschriften sind vor allem Ergebnisse außerhalb des Erwarteten interessant; für die Bestätigung von Dingen, die man ohnehin schon weiß, hat man dort, wie auch in vielen anderen Publikationsorganen, wenig Platz (»Im Westen nichts Neues«). In der wissenschaftlichen Fachliteratur ist diese Vorzugsbehandlung sogenannter signifikanter Studienergebnisse als »Publikationsverzerrung« bekannt (»publication bias«). In vielen Wissenschaften – der Medizin, der Biologie, der Soziologie, den Wirtschaftswissenschaften – gelten Bestätigungen etablierter Hypothesen als langweilig, nur selten lassen sich die Herausgeber renommierter Fachzeitschriften dazu überreden, darüber zu berichten.
Wenn man hingegen herausfindet, dass an allen Freitagen, die auf den 13. eines Monats fallen, die Börsen weltweit eher in den Keller gehen, ist eine Veröffentlichung fast schon garantiert. Ich selbst habe das mit meinem Mitarbeiter Ralf Runde (heute Professor für Statistik an der Universität Siegen) einmal ausprobiert. Und zwar haben wir die täglichen Durchschnittsrenditen deutscher Aktien daraufhin untersucht, ob es hier gewisse Muster gibt. Und siehe da, an allen Wochentagen, die geteilt durch sieben den Rest eins ergaben (das heißt am 1., 8., 15., 22., 29. eines Monats), war der mittlere Anstieg der Aktienkurse »signifikant« höher als normal. Für sich allein genommen ist das durchaus interessant. Dergleichen Kalendermuster im Kapitalmarkt beschäftigen die Experten seit Jahrzehnten. Bekannt sind hier etwa der Montags-, der Monats- oder der Jahresanfangseffekt. Letzterer besagt zum Beispiel, dass um die Jahreswende die Aktienkurse weit stärker steigen als normal, und dieser Effekt hat sich in der Tat über Jahrzehnte als sehr robust herausgestellt (in den letzten Jahren eher nicht, da wollte ich das selbst mal ausnutzen, bin aber immer wieder auf die Nase gefallen).
Habe ich also zusammen mit Ralf Runde eine sensationelle Neuigkeit entdeckt? Sind wir etwa einem weiteren Geheimnis des alten Pythagoras auf die Spur gekommen, der glaubte, dass in den natürlichen Zahlen alle Geheimnisse dieser Welt verschlüsselt seien?
Natürlich nicht. Denn Muster findet man in jedem Kaffeesatz, und unser Effekt verschwand für Daten außerhalb der Stichprobe sofort. »Signifikant« war er nur deshalb, weil wir natürlich noch viele weitere Effekte ausprobiert hatten: Den Geteilt-durch-sieben-Rest-zwei-Effekt, den Rest-drei-Effekt, den Rest-vier-Effekt, den Rest-fünf-Effekt, den Rest-sechs-Effekt, den Geteilt-durch-sechs-Rest-eins-Effekt, den Rest-zwei-Effekt, den Rest-drei-Effekt, den Rest-vier-Effekt, den Rest-fünf-Effekt und so weiter – bis zum geht nicht mehr. Und wenn man eines während des Studiums der Statistik lernt, dann dieses: Auch wenn überhaupt nichts Besonderes vorgefallen ist, wenn man lange genug sucht, findet man in jedem beliebigen Datensatz immer etwas »Signifikantes« vor. Und so auch hier.
Selbst wenn Greiser unter den bekannten Studien nicht mit böser Absicht auswählte (aber selbst das ist zu bezweifeln), sorgt allein schon die Mechanik des internationalen Wissenschaftsbetriebs dafür, dass Auffälligkeiten aller Art bevorzugt gemeldet werden und man die Abwesenheit solcher Meldungen als indirektes Indiz dafür werten darf, dass eben nichts vorgefallen ist. In Kanada etwa sind seit der Uraltstudie zum Zeitraum 1964 bis 1986, auf die Greiser sich bezieht, keine weiteren Häufungen bekannt geworden. Der größte Fehler der Greiser-Studie wie auch vieler anderer zum Thema Leukämie und Kernkraft ist aber die teilweise oder gar völlige Missachtung weiterer Faktoren, die bekanntermaßen mit Kinderleukämie in enger Verbindung stehen.
Einer zum Beispiel ist die Rasse. In den USA hat sich bei weißen Kindern eine mehr als doppelt so hohe Leukämieanfälligkeit als bei farbigen Kindern herausgestellt; am stärksten verbreitet ist die Leukämie bei Latinos, am wenigsten bei Indianern. Weitere unstreitig etablierte Risikofaktoren sind das Geschlecht (amerikanische Jungen erkranken um 30 Prozent häufiger als Mädchen) oder auch der soziale Status der Eltern – je höher, desto riskanter für die Kinder. Als Ursache wird vermutet, dass Kinder aus begüterten Verhältnissen isolierter aufwachsen und damit in frühen Jahren weniger Kontakte mit Altersgenossen und damit weniger Möglichkeiten zur Entwicklung von Antikörpern haben. In Schottland etwa beträgt die Differenz der Leukämieraten zwischen den reichsten und den ärmsten Gegenden unabhängig von Atomkraftwerken an die 50 Prozent.
Auch abnormale Bevölkerungsbewegungen scheinen die Kinderleukämie zu fördern. Nach einer englisch-chinesischen Studie etwa hat die Kinderleukämie in Hongkong nach dem jüngsten Zuzug von Millionen Neubürgern spürbar zugenommen. Und in den USA gehen die lokalen Leukämieraten sofort in die Höhe, wenn irgendwo ein neuer Luftwaffenstützpunkt eingerichtet wird. So wäre also auch bei Kraftwerken, in deren Nähe tatsächlich erhöhte Leukämieraten festgestellt worden sind, zunächst einmal zu überprüfen, ob dort auch andere Faktoren aus dem Rahmen fallen.
Besonders auffällig ist dies bei dem Atomkraftwerk San Onofre im San Diego County in Südkalifornien, mit dem die ganze Grünen-Studie steht oder fällt – hier ist der Überhang der beobachteten über die erwarteten Fälle von allen betrachteten Kraftwerken mit deutlichem Abstand am größten: Käme Leukämie bei Kindern in der Umgebung – gemeint ist damit das San Diego County – genauso häufig vor wie im Rest der USA, wären dort laut Greiser von 2001 bis 2006 insgesamt 177 Fälle zu erwarten gewesen. Tatsächlich gab es aber 281. Das sind über hundert mehr, als zu erwarten waren, da lohnt es sich, genauer hinzusehen. Und was sieht man dann?
Dass fast alle bekannten Risikofaktoren für Kinderleukämie im San Diego County höher, zum Teil sogar dramatisch höher sind als normal. In der dem Kraftwerk am nächsten gelegenen Stadt San Clemente zum Beispiel beträgt der Anteil der weniger leukämieanfälligen Afroamerikaner an der Gesamtbevölkerung weniger als 1 Prozent. Dagegen leben dort und im Rest des San Diego Countys überdurchschnittlich viele weiße oder mexikanischstämmige und damit überproportional leukämieanfällige Menschen. Außerdem ist San Diego die viertreichste Stadt der USA und die größte Marinebasis auf der ganzen Welt mit einer überdurchschnittlich hohen Zahl von Menschen, die dort jährlich hin- oder wegziehen.
Und wem das alles noch nicht reicht: Das Kraftwerk liegt mehr als 200 Kilometer von den Menschen entfernt, die es angeblich mit Strahlen verseuchen soll.
Nachtrag bzw. Zufügung

Zum gleichen Thema kam auf Novo Argumente bereits ein Artikel, der als Anlass hatte, was bei „Klimawandel-Problemen“ ebenfalls oft zu beobachten ist: Politiker oder eng damit Verbundene erklären den Inhalt einfach als alarmistisch, obwohl nichts davon in der Studie steht.
Novo Argumente: Leukämie durch Kernkraftwerke?
„Vorzeitige Todesfälle“: Evergreen der Öko-Angstmacher
Uns plagt eine Geißel, deren Herkunft und Wirkung weitgehend unbekannt sind. Gemeint ist der sogenannte „vorzeitige Todesfall“, eine gedankliche Konstruktion, auf deren Basis umfangreiche regulatorische Eingriffe der Politik möglich werden, die nicht nur die Wertschöpfungsmöglichkeiten der Wirtschaft begrenzen, sondern auch tief in die private, individuelle Lebensgestaltung eingreifen. Wer sich fragt, warum selbst ursprünglich freie und liberale Demokratien in vielen Aspekten zunehmend diktatorisch agieren, wird beim „vorzeitigen Todesfall“ fündig.

Perfide an diesem Konzept ist sein vordergründig fürsorglicher Charakter. Wer will schon vor der Zeit sterben? Wer möchte nicht so lange wie möglich bei bester Gesundheit leben? Für wen ist nicht der Tod eines Freundes, eines Angehörigen oder Partners ein tragisches Ereignis, auf das man gut verzichten kann? Der Staat, so die mit dem „vorzeitigen Todesfall“ verknüpfte Botschaft, setzt sich mit aller Macht dafür ein, unser Wohlergehen und das unserer Lieben zu erhalten. Damit niemand vor der Zeit dahinscheidet. Und dagegen kann man schwer opponieren. Obwohl es nicht die ganze Wahrheit ist …
Ab 75 stirbt man nicht mehr vorzeitig
Von Amts wegen aber gibt es eine klare Grenze. Und die liegt bei 75 Jahren. Wer dieses Alter erreicht, so sehen es die diversen Gesundheitsbehörden, der hat es geschafft. Der stirbt nicht vorzeitig. Alle anderen sind aus dieser Perspektive Opfer ihrer Lebensweise oder ihrer Umwelt. Das möchte der Staat nicht hinnehmen. Warum nicht, ist aus guten Gründen nirgends beschrieben. Denn der „vorzeitige Todesfall“ hat mit Fürsorge in Wahrheit nichts zu tun. Er ist lediglich ein Instrument zur Durchsetzung ideologischer Interessen …
Feinstaub – ein konstruierter Killer?
Im Jahr 2012 seien nahezu drei Millionen Menschen weltweit durch die Aufnahme von Feinstaubteilchen mit einer Größe von bis zu 2,5 Mikrometer vorzeitig gestorben, meldet die Weltgesundheitsorganisation WHO in einer vielbeachteten Studie. Genau gesagt waren es 2.975.400, davon 26.160 in Deutschland. Woher wissen die das?
Sie wissen es nicht. Die Sicherheit in dieser Frage ist nur vorgetäuscht. Schließlich hat man nicht alle der 2.975.400 Leichen wieder ausgegraben und die genauen Zusammenhänge ihres Sterbens im Detail analysiert. Das wäre ohnehin aussichtslos, da viele der physiologischen Zusammenhänge in Verbindung mit den betrachteten Atemwegserkrankungen, mit Lungenkrebs oder dem Herzinfarkt nach wie vor unklar sind. Da stellen sich Fragen nach Vorerkrankungen, nach dem allgemeinen Lebenswandel und nach sonstigen Belastungen. Die behandelnden Ärzte könnten die Details über den Einzelfall wissen, die Angehörigen auch. Wichtige Informationen, die auf dem Weg vom individuellen Ereignis zu einer aggregierten gesamtstaatlichen Statistik schlicht verlorengehen. In Deutschland beispielsweise wird nicht einmal erhoben, ob ein an Lungenkrebs Verstorbener tatsächlich Raucher war, oder nicht …
Die Behauptung der WHO basiert vielmehr auf einem Rechenmodell, dessen Grundlage Kohortenstudien aus der Epidemiologie darstellen.

Auch hierzu gilt, am Besten den gesamten Artikel auf Achgut lesen.
Wer es bis hierher geschafft hat, lesen dann noch was die Politikberaterin für Klima und Energie auf ihrem (Des-)Informationsblog eben wieder dem wissenshungrigen Volk verkündete und hat ein ganz aktuelles Lehrbeispiel für das vorher erklärte:
KLIMARETTER.INFO, 16. Mai 2017: 107.000 Todesfälle durch Dieselabgase
Quellen
[1] Deutscher Arbeitgeber Verband: Prof. Walter Krämer Die Leukämie-Lüge
[2] Novo Argumente, 01.03.2008: Leukämie durch Kernkraftwerke? Kommentar von Ludwig Lindner




Und noch eine Schätzung einer sehr geringen Klima-Sensitivität

Wie versprochen schreiben wir hier etwas über eine weitere veröffentlichte Schätzung der Gleichgewichts-Klimasensitivität der Erde, welche am unteren Ende der vom IPCC genannten Bandbreite der Möglichkeiten liegt.

Man erinnere sich, dass die Gleichgewichts-Klimasensitivität bestimmt, wie stark die Temperatur der Erde steigen wird bei einer Verdoppelung der vorindustriellen atmosphärischen CO2-Konzentration. Als solcher ist es möglicherweise DER wichtigste Faktor bei der Entscheidung, ob wir „etwas tun müssen“, um einen zukünftigen Klimawandel abzuschwächen. Geringere Sensitivität bedeutet geringere Dringlichkeit, und falls die Sensitivität gering genug ist, ergeben sich aus CO2-Emissionen insgesamt nur Vorteile.

Und trotz der allgemeinen Behauptung, dass „die Wissenschaft settled“ sei, wenn es um die globale Erwärmung geht, erfahren wir immer noch täglich mehr über das komplexe Klimasystem der Erde – und je mehr wir erfahren, umso schwächer scheint die Reaktion der Temperatur auf menschliche CO2-Emissionen zu sein.

Die jüngste Studie, in der eine geringe Klimasensitivität berechnet wird, stammt von dem unabhängigen Wissenschaftler Nic Lewis. Die Veröffentlichung der Studie im Journal of Climate ist geplant. Lewis‘ Studie ist eine mathematisch ziemlich komplizierte Reanalyse einer früheren, ebenfalls mathematisch komplizierten Analyse, welche die gemesse globale Temperaturänderung in Übereinstimmung bringt mit der simulierten Temperaturänderung eines einfachen Klimamodells mit einem konfigurierbaren Satz von Parametern, deren tatsächliche Werte weitgehend unbekannt sind, die aber in Modellsimulationen eingehen können: Indem man die Werte dieser Parameter in den Modellen variiert und dann schaut, wie gut die sich ergebende Temperatur zu den Beobachtungen passt, kann man Hinweise darauf bekommen, welches die Werte dieser Parameter in der realen Welt sind. Und der am meisten interessierende Parameter ist die Gleichgewichts-Klimasensitivität. Lewis‘ Studie enthält auch zusätzliche Modelljahre und zusätzliche Jahre mit Messungen einschließlich vieler Jahre während des gegenwärtigen Temperatur-„Stillstandes“.

Wir haben nun etwas in ähnlichem Stil gemacht und es bereits im Jahre 2002 veröffentlicht. Wir waren damals zu dem gleichen Ergebnis gekommen wie Lewis heute: eine substantiell geringere Erwärmung. Wir wurden angemessen „belohnt“ ob unserer Bemühungen seitens der Klimagate-Mafia. Diese hatte versucht, 1) die Studie zurückzuziehen, 2) die Herausgeber zu feuern – nicht nur von dem Journal, sondern gleich von der Auckland University und 3) eine Nachuntersuchung anzustrengen meines (Michaels) PhD von der University of Wisconsin.

Lewis folgert, dass die mittlere Schätzung der Gleichgewichts-Klimasensitivität 1,6°C beträgt

mit einer Bandbreite von 90% zwischen 1,0°C und 3,0°C. (Das ist fast genau der gleiche Wert, zu dem wir vor 11 Jahren gekommen waren).

Auf der Grundlage dieses Ergebnisses heißen wir die Studie von Lewis (2013) auf der wachsenden Liste von Ergebnissen willkommen, welche in der wissenschaftlichen Literatur seit dem Jahr 2010 veröffentlicht worden waren und die eine Klimasensitivität am unteren Ende der vom IPCC genannten Bandbreite zeigen. Gott weiß, welche Inhalte die Climategaters jetzt austauschen.

Abbildung 1 illustriert alle neuen Ergebnisse ebenso wie die vom IPCC genannten Werte:

Man beachte besonders die neuen Ergebnisse (und deren Mittel) in Relation zu dem schwarzen Balken oben mit der Bezeichnung „IPCC AR5 Climate Models”. Von den 19 hypermodernen Klimamodellen, welche in den neuesten, noch im Entwurfsstadium befindlichen Zustandsbericht Eingang finden, zeigen genau NULL Modelle eine Gleichgewichts-Klimasensitivität, die ähnlich niedrig ist wie der mittlere Wert der Schätzungen in der neuen Literatur, die wir in unserer Abbildung zeigen.

Auf der Grundlage der in Abbildung 1 gezeigten Sammlung von Ergebnissen ergibt sich: die Projektionen zukünftiger Klimaänderungen, die demnächst vom IPCC veröffentlicht werden, weichen im Mittel um atemberaubende 70% vom IPCC-Wert ab.

Kein Wunder, dass das IPCC so zögerlich ist, ihr Best Estimate des tatsächlichen Wertes der Gleichgewichts-Klimasensitivität der Erde zu senken. Falls es das tun würde, würden sie einräumen, dass die von ihnen gewählte Masse der Klimamodelle zur Projektion des zukünftigen Klimas der Erde – nun, sollen wir es so sagen – falsch! sind … was bedeutet, dass dies auch für die Rate gilt, mit welcher der Himmel herabfällt, jedenfalls nach USGCRP und der EPA in den USA.

Wir am Cato Center for the Study of Science werden fortfahren mit unseren Bemühungen, den sich entwickelnden Zustand der Klimawissenschaft zu beleuchten und die Möchtegern-Mächte zu überzeugen versuchen, dass nationale und internationale Abschätzungen, auf denen die EPA-Vorschriften beruhen, (ebenso wie verrückte Forderungen nach einer Kohlenstoff-Steuer), so grandios falsch sind. Wir haben es in unserer Begutachtung vom 12. April der „National Assessment“ der USGCRP so ausgedrückt: „Die Nationale Klima-Abschätzung wird am Tag ihrer offiziellen Veröffentlichung obsolet sein“.

References:
Aldrin, M., et al., 2012. Bayesian estimation of climate sensitivity based on a simple climate model fitted to observations of hemispheric temperature and global ocean heat content. Environmetrics, doi: 10.1002/env.2140.
Annan, J.D., and J.C Hargreaves, 2011. On the genera­tion and interpretation of probabilistic estimates of climate sensitivity. Climatic Change, 104, 324-436.
Hargreaves, J.C., et al., 2012. Can the Last Glacial Maximum constrain climate sensitivity? Geophysical Research Letters, 39, L24702, doi: 10.1029/2012GL053872
Intergovernmental Panel on Climate Change, 2007. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Solomon, S., et al. (eds). Cambridge University Press, Cambridge, 996pp.
Lewis, N. 2013. An objective Bayesian, improved approach for applying optimal fingerprint techniques to estimate climate sensitivity. Journal of Climate, doi: 10.1175/JCLI-D-12-00473.1.
Lindzen, R.S., and Y-S. Choi, 2011. On the observational determination of climate sensitivity and its implica­tions. Asia-Pacific Journal of Atmospheric Science,47, 377-390.
Michaels, P.J., et al., 2002. Revised 21st century temperature projections. Climate Research, 23, 1-9.
Ring, M.J., et al., 2012. Causes of the global warming observed since the 19th century. Atmospheric and Climate Sciences, 2, 401-415, doi: 10.4236/acs.2012.24035.
Schmittner,  A., et al. 2011. Climate sensitivity estimat­ed from temperature reconstructions of the Last Glacial Maximum. Science, 334, 1385-1388, doi: 10.1126/science.1203513.
van Hateren, J.H., 2012. A fractal climate response function can simulate global average temperature trends of the modern era and the past millennium. Climate Dynamics,  doi: 10.1007/s00382-012-1375-3.
Link: https://www.cato.org/blog/still-another-low-climate-sensitivity-estimate-0
Übersetzt von Chris Frey EIKE




Das fossile Imperium schlägt zurück – oder: Wie eine Wissen­schaftlerin ihre Repu­tation vernichtet

Mit dem Professor Harald Lesch ist es passiert,
EIKE 01.01.2016: Harald Lesch trägt vor den GRÜNEN zum Klimawandel vor: Der Klimawandel ist kein Thema, das man ernsthaft bezweifeln kann,
und nun hat es die Professorin Claudia Kemfert erwischt.
Worum geht es?
Frau Kemfert veröffentlichte im April ihr neues Buch „DAS FOSSILE IMPERIUM SCHLÄGT ZURÜCK“ (siehe Bild 1).
Darin fasst sie so ziemlich alles zusammen, was „man“ so von ihr kennt und versucht in einem Rundumschlag, die Welt aufzurütteln, den Klimawandel und die Energiewende vorbehaltlos und mit aller Macht „zum Ziel“ zu führen und dabei auf keinen Fall nachzulassen.
So etwas ist nicht verboten und kann jeder*in machen wie sie will. Allerdings ist mit diesem „Outing“ auch aller Welt kund getan, dass ihre Arbeiten zu diesen Themen nichts mehr mit seriöser Wissenschaft zu tun haben und als Treiber vorwiegend der Vermittlung einer persönlichen „Message“ dienen.
Der Blog „Vernunftkraft“ hat dazu eine Darstellung geschrieben und sich sogar in einem offenen Brief mit einer Beschwerde an ihren Chef, den Leiter des DIW Berlin, Prof. Fratzcher gewandt.

Vernunftkraft: [1] Kurzer Auszug aus dem Brief (auf der Homepage von „Vernunftkraft“ vollständig einsehbar)

Vernunftkraft: [1] SOFORT ABSCHALTEN!
Im April 2017 beglückte eine gewisse Claudia Kemfert die Welt mit einem neuen Buch. In martialischer Sprache phantasiert die Autorin darin von einem “Krieg gegen die „Energiewende”. Sich selbst schreibt die Dame in die Rolle einer „Jeanne d’Arc“, die der „schönen neuen Energiewelt” zum Sieg über böse alte Mächte verhelfen muss.
Im oben verlinkten ZEIT-Artikel (Zufügung: ZEIT ONLINE: Die fossile Industrie kämpft hart um ihre Pfründe) findet sich u.a. diese Aussage:
Der Mythos Grundlast! Kohlekraftwerke seien nötig, um die Versorgung sicherzustellen: Das wird gern behauptet, ist aber falsch. Wir brauchen Mindestkapazitäten gegen Blackouts genauso wenig wie Butterberge gegen den Hunger …

deren Unsinn ein Blick auf einen einzigen Leistungsgang von Wind- und Solarenergie offenbart:

Ganglinienbild


Dass die Leistung von Wind- und Solarenergie regelmäßig auf Werte bei null fällt, scheint sich nicht bis zur “Expertin” herumgesprochen zu haben. Oder sollte Frau Prof. Kemfert tatsächlich den Unterschied zwischen Leistung und Arbeit nicht verstanden haben? …
Leider hat der Blog „Vernunftkraft“ recht mit seiner Darstellung. Was diese Dame mit ihrem Buch bietet, ist ein Sammelsurium an Verschwörungstheorien und Wünschen – aber eben nicht mehr sachliche Beurteilung technischer System-Zusammenhänge wie man sie zur Konzipierung eines landesweiten Energie-Versorgungssystems erwarten darf.
Man soll über nichts rezensieren, was man nicht nachgeprüft hat, weshalb der Autor das Buch sogar kaufen wollte. Nachdem er die Einleitung in der Kindle-Vorschau las, hat er allerdings davon Abstand genommen – für diese Datei ist ihm das Geld zu schade. Zudem lassen sich die Hintergründe über die vielen Veröffentlichungen von C. Kemfert ebenfalls recht gut recherchieren.

Bild 3 Prof Claudia Kemfert vor der (demontierten) Schalttafel eines konventionellen Kraftwerks


 

Das fossile Imperium schlägt zurück – Die Einleitung im Buch

Kindleversion Buchvorschau (stark gekürzt): Das fossile Imperium schlägt zurück
[6] Fossile Energie-Kehrtwende Die Welt ist eine andere geworden. Kriege und Konflikte finden nicht mehr in weiter Ferne statt. Der Terror ist nach Europa vorgedrungen, nach Istanbul, Nizza, Paris, Brüssel und Berlin. Der neue Präsident der Vereinigten Staaten von Amerika benimmt sich wie die Axt im Walde: Donald Trump und seine Berater toben, wüten, beleidigen und sind selbst beleidigt. Es wird behauptet und getönt. Es wird geschimpft und gelogen.
Statt einer sachlichen politischen Debatte gibt es haufenweise Sprüche, Schlagworte und Parolen. Wissenschaftliche Wahrheiten werden geleugnet und durch absurde Thesen ersetzt. Zum Beispiel solche: Der Klimawandel sei bloß eine perfide PR-Erfindung habgieriger Chinesen, um die amerikanische Wirtschaft zu untergraben. Seit Trump im Amt ist, regiert die fossile Energieindustrie die USA: Ein Anwalt der Öl- und Kohleindustrie leitet die US-Umweltbehörde. Der Energieminister leugnet den Klimawandel. Der Außenminister leitete einst einen Ölkonzern. Und auch der Innenminister sympathisiert mit der Gas-, Kohle- und Ölindustrie. Folgerichtig gibt es seit Trumps Amtsantritt im Januar 2017 auf der Website des Weißen Hauses keinen einzigen Treffer mehr zum Suchbegriff »climate change«. …
… Selbst in Deutschland, dem Klimapionier, sind die fossilen Energien wieder auf dem Vormarsch. Ausgerechnet die Erfinder der Energiewende blockieren in Brüssel Emissionsgrenzwerte, novellieren das deutsche Erneuerbare-Energien-Gesetz zu Tode und beenden mal eben die Bürgerenergiewende.
… Unternehmen sind verunsichert. Umweltschützer sind fassungslos. Wissenschaftler sind verzweifelt.
Sie alle stehen vor derselben Frage: Wie konnte das passieren? … Obwohl die Mehrheit der Bürger es anders will.
Obwohl auf weltweiten Klimakonferenzen ganz andere Ziele beschlossen werden. Wieso verabschieden Politiker Gesetze, die das gesamte Vorhaben der Energiewende konterkarieren? Verspielt Deutschland seine Energiezukunft? …
die Verbrennung verursacht einen irreversiblen Klimawandel. Man bestreitet Tatsachen: Erneuerbare Energien sind billiger als herkömmliche Energien. Man leugnet alle Erfolge: Die erneuerbaren Energien wachsen schneller als erwartet. Man weist offensichtliche Wahrheiten von sich: Erneuerbare Energien schaffen technologische Wettbewerbsvorteile und sorgen für Wertschöpfung und Arbeitsplätze …
… Energiewende: Opfer ihres eigenen Erfolgs Das Gift der demagogischen Populisten wirkt. Immer weniger geht es um Fakten und Argumente, immer öfter um Lärm und um Krawall. … Der »Welpenschutz« für die erneuerbaren Energien sei nunmehr beendet, erklärte Gabriel 2016 seinen rückwärtsgewandten Kurs.
Dabei geht es nicht um junge Hunde, sondern um die Basis unserer Volkswirtschaft. Es geht nicht um überflüssige Leckerlis, sondern um entscheidende Investitionen in die Wirtschaft von morgen. Was er mit der niedlichen Welpen-Metapher verschleiert, sind massive Umverteilungen von staatlichen Fördergeldern. Denn weniger Förderung für die Erneuerbaren und eine Verlangsamung des Kohleausstiegs bedeuten im Klartext: kein Geld für die Zukunft und noch mehr Geld für die Vergangenheit. Schon lange sind die erneuerbaren Energien keine »Welpen« mehr. Im Gegenteil: Sie sind schneller als erwartet groß geworden. Im alten Energie-Mix galten sie als zu vernachlässigender Bestandteil. Jetzt sind sie eine ernst zu nehmende Größe auf einem hart umkämpften Markt. Sehr viel früher als erwartet stehen sie auf Augenhöhe mit den konventionellen Energien. Eine echte Konkurrenz.
… Um im Gabriel-Bild zu bleiben:
Es bellt und tobt eine Horde in die Jahre gekommener Rottweiler, die ihre besten Tage hinter sich haben. Es passt ihnen überhaupt nicht, dass die jungen Hunde sich nicht mehr devot auf den Rücken werfen, sondern tatsächlich den Platz vor der Hütte und auf der Spielwiese beanspruchen. Wütend beißen die Alten die kräftigen Jungen weg. Es ist ein Kampf um gut gefüllte Fressnäpfe. Kläffend lenkt die Horde davon ab, dass nicht die zähnefletschenden alten, sondern die jungen Hunde die Zukunft sind. Die deutsche Energiewende ist zum Opfer ihres eigenen Erfolgs geworden. Je kräftiger sie wird, umso stärker wird die Gegenwehr. Wir befinden uns in einem erbitterten Krieg um die Macht am Energiemarkt, nicht nur in Deutschland, sondern überall auf der Welt – mit dramatischen Folgen.
Es ist an der Zeit, einmal ganz genau hinzuschauen, was im Konflikt zwischen alter und neuer Energiewelt eigentlich vor sich geht: Mit welchen Ablenkungsmanövern drängen die fossilen Riesen die erneuerbaren Energien vom Markt? Welche wirtschaftlichen Interessen stehen hinter den energiepolitischen Verflechtungen? Und wie können Unternehmen, Politik und Verbraucher verhindern, dass die Energiewende sabotiert und ausgebremst wird?
Denn die Lage für den Planeten ist ernst, und zwar seit langem. Die CO2-Emissionen durch den Verbrauch fossiler Energien bleiben auf Rekordniveau. Die Treibhausgase, die jetzt in die Atmosphäre gelangen, verursachen einen irreversiblen Klimawandel … Auch die Folgen des Klimawandels, vor denen Klimaforscher in aller Welt schon so lange warnen, sind unübersehbar geworden: Überschwemmungen und Stürme, der steigende Meeresspiegel und untergegangene Inseln, sterbende Korallenriffe, giftige Algen.
Die gute Nachricht: Noch ist es nicht zu spät. Wir können die Kurve – im wahrsten Sinne des Wortes – noch kriegen und die Erderwärmung auf zwei Grad begrenzen. … wir werden uns immer wieder neuen, zum Teil überraschenden Entwicklungen stellen müssen.
Lange Zeit hielt niemand es für möglich, dass der Golfstrom eines Tages kollabieren könnte. Der Golfstrom als komplexe Natur-Fernwärmeheizung für Nordeuropa sorgt mit seinen Wärmeströmungen vom äquatorialen Atlantik über den Golf von Mexiko für ein mildes Klima in Nordeuropa. Der Weltklimarat IPCC hat unterschätzt, welche Gefahr durch den Klimawandel für die Winter in Nordeuropa ausgeht. Die Klimawissenschaftler hatten den Fokus bei ihren Messungen auf die Temperaturschwankungen im Golfstrom gelegt, nicht aber auf die eigentliche Säule für das stabile System: den Salzgehalt des Wassers. Neue Simulationen zeigen: Während die globalen Durchschnittstemperaturen immer höher klettern, würde es in Nordeuropa – in Norddeutschland und im Baltikum, in der Bretagne, Irland und Schottland, in Norwegen und Island – um bis zu sieben Grad kältere Winter geben. Zum Vergleich: In der letzten Eiszeit war es vier Grad kälter als jetzt. Verhindert werden könnte die Katastrophe, wenn die Ziele des Pariser Klimavertrags erreicht werden. Es besteht dringender Handlungsbedarf, um den Klimawandel und seine verheerenden Folgen für die Umwelt aufzuhalten, darüber herrscht – eigentlich – Einigkeit. … Am 4. November 2016 hatte die Mehrheit der 55 Staaten, die für mehr als 55 Prozent aller globalen Emissionen verantwortlich sind, das Abkommen ratifiziert. Damit trat das weltweit erste verbindliche Klimaabkommen in Kraft. Die deutsche Bundesumweltministerin Barbara Hendricks nannte es »ein Grundgesetz für den internationalen Klimaschutz«. Wenige Tage später unterstrichen die versammelten Vereinten Nationen auf der COP22 in Marrakesch die Dringlichkeit der Klimaschutzmaßnahmen: »Unser Klima erwärmt sich mit alarmierender und präzedenzloser Geschwindigkeit, und wir haben die dringende Pflicht, darauf zu reagieren. […] Wir fordern höchstes politisches Engagement in der Bekämpfung des Klimawandels, einer Angelegenheit von dringender Priorität«, heißt es im Aktionsplan
Eine solche Einleitung muss man erst einmal „verdauen“. Sie erinnert nicht mehr an Wissenschaft, sondern an das, was hyperaktive Klimaaktivisten an ungeprüften und oft falsch interpretierten Statements bekanntermaßen liefern:
EIKE 27.09.2016: Der Krieg des Klimas gegen die Menschheit Über den weltweit bekanntesten Klimaaktivisten Bill McKibben
Jedenfalls ist damit klar, warum in ihrem Blog eine vorwiegend nach Ausbildung in Aktivismus ausgesuchte Mannschaft praktisch alles, was alarmistisch ist veröffentlichen darf (und soll).

Was sagt die Presse dazu

Die Frankfurter Rundschau brachte in ihrer Wochenendausgabe, 29./30.APRIL, 1. MAI 2017 einen langen Artikel (anbei stark gekürzte Auszüge):
FN:Es herrscht Krieg um Energie“ Die Berliner Forscherin Claudia Kemfert über die Macht des fossilen Imperiums, postfaktischen Irrsinn und die To-Do-Liste der Regierung
Claudia Kemfert ist streitbar. Die Berliner Energieforscherin sieht die Energiewende in Gefahr – und benutzt drastische Worte, um den Rollback zu beschreiben. Die alten Energien und Klimaskeptiker gingen nicht kampflos vom Platz, sondern nutzten Propaganda und „Fake News“, um die öffentliche Meinung umzupolen.
… Deshalb muss die Energiewende jetzt verteidigt werden. Nicht nur die Wissenschaft ist gefordert – auch Bürgerinnen und Bürger müssen sich jetzt für sie einsetzen. Alle gemeinsam. Im Netz und sichtbar demonstrierend auf der Straße. Auf den beeindruckenden „Women’s March“ und den „March for Science“ kürzlich folgt hoffentlich bald ein ebensolcher globaler „Climate March“.
Ganz sicher hat jeder von uns die Mythen und Behauptungen alle schon gehört, die mit bislang unbekannter Aggressivität verbreitet werden: Mit der Energiewende drohten Blackouts, wir bräuchten Kohlekraftwerke für die Grundlast, es bedürfe eines umfangreichen Netzausbaus, damit der Strom von der Nordsee nach Bayern gelangen könne, und so weiter. Alles falsch, aber alles in den Köpfen der Menschen
… Beide übersehen, dass ein Netzausbau in erster Linie dem Transport von Kohlestrom dient. Zwei von drei Stromtrassen werden dafür gebaut. Je mehr Stromtrassen, desto mehr Kohlestrom, das zeigen nicht nur unsere Modellrechnungen. Statt für Stromleitungen zu kämpfen, sollten beide für einen konsequenten Kohleausstieg eintreten.
Übrigens bin ich es, die beharrlich darauf hinweist, dass die Kosten der erneuerbaren Energien immer weiter sinken. Und es sind die Gegner der Energiewende, die das Lied vom teuren Ökostrom und gigantischen Kostenexplosionen durch die Energiewende in Endlosschleife singen. Mit diesen falschen Argumenten begründen sie ja die Forderung nach einem Tempolimit für die Energiewende. Warum sollte man den Ausbau günstiger und klimafreundlicher Energien sonst beschränken? Wir könnten bis 2050 den Anteil erneuerbarer Energien auf 80 Prozent ansteigen lassen, wie es Ziel der Energiewende ist. Dafür müssten wir aber den Ausbau beschleunigen und nicht bremsen.

Frau Kemfert interviewt sich selbst

Man würde annehmen, dieses Interview hätte die FN geführt, um ihren Lesern ihre investigative Sorgfalt bei einem so wichtigen Thema zu zeigen.
Am Schluss des Interviews steht jedoch „Interview: Joachim Wille“. Dieser Herr Wille ist der Leiter der Meinungsredaktion ihres Infoblogs klimaretter.info. C. Kemfert hat sich somit sozusagen „selbst“ interviewt, weshalb dieses auch leicht abgewandelt auf ihrem Blog hinterlegt ist [5].
Ein gutes Beispiel, dass der „March of Science“ Sinn gemacht hätte, wenn er solche Praktiken von Medien angeprangert hätte.

Zu den klimatechnischen Details

[11] [12]. Ein Zurück zu diesen „goldenen Klimazeiten“ würde einen starken Anstieg geradezu provozieren.
-auch die Korallenriffe sterben nicht (verstärkt) wegen eines Klimawandels. Sie sind wesentlich robuster gegen Temperaturbeeinflussung als immer publiziert (wie es auch ein Forschungsfilm vor Eritrea – wo sie längst „verbrennen“ müssten zeigt) und die üblichen „Zählungen“ durch Flugzeuge und Satelliten zeigen nicht das wirkliche Bild [8].
Eine solche rundum-Pauschallistung würde man eher von einem Anfänger nach der „Einarbeitung“ in das Klima anhand alarmistischer Lektüren erwarten, aber niemals von einer sogenannten „Wissenschaftlerin“. Man meint förmlich eine Hörigkeit gegenüber ihrem Blogmitarbeiter und ausgewiesenem Klimaalarmisten, Prof. Dr. H. Graßl herauszuhören.
Über die technischen Details zur Energie hat „Vernunftkraft“ schon geschrieben und der Autor [10] sowie viele anderen Fachleute auf EIKE auch. Zudem sei auf den Artikel (war zum Zeitpunkt der Editierung noch nicht veröffentlicht) verwiesen:
Rechnerisch lohnt sich die solare Eigenversorgung nicht – so lange unser Versorgungsnetz stabil ist. Doch das wird sich ja ändern“, in dem es über die innogy-Werbung zur Eigenversorgung geht.
Anhand eines aktuellen Beispiels ist darin beschrieben wie die Kostenwirklichkeit von EEG-Autarkie und lokaler Versorgung aussieht. Ansonsten nimmt er die Frau [9] und ihren Blog sowieso regelmäßig als leider ein Vorbild für (Des-)Information aufs Korn.
Ein wichtiges Fazit lässt sich daraus ableiten: Mit diesem „Outing“ zur klimahysterischen Einstellung unter der Prämisse, Deutschlands Energiesystem ausschließlich dem angeblichen Zwang zur CO2-Vermeidung unterzuordnen, notfalls dafür auch bedenkenlos zu „opfern“, kann man diese Dame nicht mehr ernst nehmen.
Passend dazu auch der Artikel auf Achgut.com: Energiepolitik: Scharlatane gefährden unseren Wohlstand

Was hält „die Intelligenz“ davon

Das Manager Magazin ist von dem Buch sichtlich angetan und hält die Beschreibung für eine sachliche Debatte. Es gibt eben wirklich zu allem diametrale Ansichten und vielleicht auch (wieder) fehlenden Mut von „Industrielenkern“, oder einfach Anbiederung, sich gegen eine politisch verordnete Strömung zu wehren:

Bild 4 Ergebenheitsbekundung von Firmen zur Dekarbonisierung der Weltwirtschaft (Auszug)


So kann man sich immer neu umarmen und als „Retter“ vor einer fiktiven Gefahr aufspielen, unterstützt dank führender Personen in internationalen Vorzeigegremien wie dem UN-Generalsekretär Guterres, der gerade vor dem EU-Parlament den Klimawandel als größte Herausforderung der Gegenwart bezeichnete.
Wenn man keines der aktuell wirklichen Probleme der Welt zu lösen vermag, nur salbungsvoll beschreiben („Den Krieg in Syrien nannte er einen Unsinn, den wir stoppen müssen“), der Druck, Erfolge zu zeigen aber zu groß wird, ist es einfacher, sich sinngemäß „mit Weihwasser zu bespritzen“ und alternativ CO2 zu vermeiden. Den Erfolg kann man nicht messen und nicht sehen, bezahlen müssen sowieso andere, aber man tut etwas ganz „Wichtiges“, das im Jahr 2100 helfen soll.
Quellen
[1] Vernunftkraft: Sofort abschalten
[2] CHECK24: Experten im Interview Claudia Kemfert: Das fossile Imperium schlägt zurück

[5] KLIMARETTER.INFO: Es herrscht Krieg um Energie
[6] C. Kemfert, Buch: Das fossile Imperium schlägt zurück
[7] EIKE 14.12.2015: Gehen die Südseeinseln wirklich wegen des Klimawandels unter, Teil 3 Die Marshall-Inselgruppe – (kein) Beispiel für einen Untergang
[8] EIKE 11.04.2017: Sind fallende Meerespegel eine wesentliche Ursache der Korallenbleiche im „Korallendreieck“ mit dem Great Barrier Reef?
[9] EIKE 05.06.2016: Eine Professorin klärt den VDI auf, wie das EEG „wirklich“ funktioniert
[10] EIKE 31.12.2016: Die Zahltage des EEG beginnen ihren vorhergesagten Lauf
[11] WUWT, May 16, 2017: Alarmists Gone Wild: “Alarmist CO2 Headlines Create Confusion”… Particularly When Accompanied by Sea Level Alarmism.
[12] EIKE: 10 neue Studien: Meeresspiegel lag vor 4000 bis 6000 Jahren 1 bis 6 Meter höher




Die Eisheiligen werden trotz der milden Tage 2017 immer kälter.

Dieser Artikel ist eine Ergänzung unserer Vorschau auf die Eisheiligen vor kurzem bei EIKE: https://eike.institute/2017/05/07/die-eisheiligen-werden-immer-kaelter-vorschau-auf-2017/
Nachdem nun Mitte Mai vorbei ist, kann man sagen, die echten Eisheiligen 2017 fanden diesmal in der Woche vor dem 11. Mai statt. Beispiel: Entsprechend der Wetterlage, errechnete der Stationsleiter in dem sehr ländlichen Goldbach bei Bischofswerda vom 7. bis 11. Mai einen Schnitt von 8,0°C. Dazu gab erstmals wieder Frost seit 2011, und zwar am 9. Mai mit  -1°C.
Just zu Eisheiligenbeginn wurde der Mai allmählich wärmer, so dass unsere drei Vergleichsstationen genauso wie der restliche Teil Deutschlands auf angenehme Temperaturen zurückblicken konnten.
Wir haben möglichst wärmeinselarme Stationen gewählt, also nicht Frankfurt-Land, denn die Station steht bekanntermaßen an den Landebahnen des Großflughafens im Strahle der 600°C heißen Abgase. In den Heizräumen unserer Häuser ist am Thermometer bekanntermaßen auch kein Eisheiliger feststellbar und natürlich dieses Jahr sowieso nicht.
Eigentlich sind die Eisheiligen ein unbedeutendes Problem, gäbe es nicht den Deutschen Wetterdienst, besser gesagt dessen Presseabteilung mit seinen Interpretationen gegen die eigenen Daten. Übrigens – was der DWD für einen Unfug über die Eisheiligen schreibt, findet der Leser unter http://www.dwd.de/DE/Home/_functions/Stage/klima/stage_klima_eisheilige_artikel_160510.html
Richtig am Artikel ist die Erklärung der Eisheiligen, nicht aber die Schlussfolgerungen und Vorhersagen. Die Eisheiligen sollen laut DWD-Artikel nicht mehr wahrnehmbar sein, eine Aussage, die für 2017 sicherlich stimmt, wir betrachten jedoch längere Zeiträume. Wie üblich wird das DWD-Dahergeschwätz von den wärmer werdenden Tagen ohne irgendeine Grafik belegt. Angeblich sollen die fünf Tage in den letzten Jahren ganz ausgeblieben sein. Die Überprüfung dieser Aussagen holen wir anhand dreier Standorte nach.
PIK-Potsdam: Beginnen wir mit der Station des Potsdamer Institutes für Klimafolgenforschung. Der Schnitt der fünf Tage betrug 2017: 15,05 C

Grafik 1: Trotz der relativ milden Eisheiligentage 2017 in Potsdam wurden die fünf Tage seit 1985 eindeutig kälter. Kein Spur davon, dass die Eisheiligen immer mehr verschwinden.


Die DWD-Station Dresden-Klotzsche: Die zweite Grafik kommt aus Dresden Klotzsche, genauso wie Potsdam eine offizielle Messstation des Deutschen Wetterdienstes. Auch an der Elbe waren die Eisheiligen dieses Jahr relativ mild. Der Schnitt 2017 betrug 15,1 C, deutlich über dem Schnitt des letzten Jahres.

Grafik 2: DWD-Station Dresden Klotzsche: Trotz der milden Eisheiligen 2017 ist die Trendlinie der letzten 33 Jahre eindeutig fallend.


Goldbach: Und schließlich Goldbach bei Bischofswerda, ein kleiner ländlicher Vorort. Die Klimastation gibt es erst seit 1996, und dort werden die Eisheiligen deutlich kälter. Mit den ungenauen Zeit-Angaben der DWD-Vorstände mit „in jüngster Zeit“ oder „in der „Gegenwart“ würden die Eisheiligen wärmer, könnte man vielleicht die letzten 20 Jahre meinen. Aber auch „in jüngster Zeit“ ist das Ergebnis eindeutig, die Eisheiligen werden kälter. Je kürzer der Betrachtungszeitraum, desto fallender die Trendlinien. Fallende Temperaturtrendlinien sind das genaue Gegenteil von Erwärmung. Der Eisheiligenschnitt 2017 lag mit 14,5 C deutlich über dem Schnitt des letzten Jahres.

Grafik 3: Auch in dem kleinen Ort Goldbach werden die Eisheiligen in der Gegenwart kälter, daran können auch die fünf milden Tage 2017 nichts ändern.


Was könnten die Gründe sein, dass es zu den Eisheiligen kälter wird?
Die wahren Gründe für das Kälter werden haben wir ausführlich in Teil 1 – siehe link oben- beschrieben. Und 2017 waren die fünf Tage mild, weil die Großwetterlage sich umstellte.
Wie man an den drei Grafiken erneut erkennt, hat die Zunahme von Kohlendioxid in der Atmosphäre keinerlei wärmenden Einfluss auf den Schnitt der fünf Eisheiligentage. Die Trendlinie von Potsdam ist bereits seit 1967 leicht fallend, während CO2 in diesem Betrachtungszeitraum über 30% gestiegen ist. Die einzig statistisch relevante Aussage wäre, eine Zunahme von Kohlendioxid brachte gleichzeitig eine Abkühlung der Eisheiligen seit 1967.

Grafik 4: Potsdam zeigt bereits seit 1967 eine leicht, nicht signifikant fallende Trendlinie. Die wärmsten Eisheiligen waren um 1970. Vor allem die letzten 25 Jahre ziehen die Vergleichsbetrachtung nach unten.


Und am Ende zeigt sich: Die stetig steigende CO2- Konzentration vermag unser Klima auch im Mai nicht zu erwärmen und kann die Plage der „Eisheiligen“, den Horror aller Gärtner und Landwirte, nicht verhindern.
Dem Deutschen Wetterdienst sei geraten, seine Aussagen irgendwann einmal mit Grafiken zu belegen, und zwar mit Grafiken von wärmeinselarmen Stationen. Aber selbst in Städten wie Potsdam und Dresden zeigen die Eisheiligen eine fallende Tendenz.
Josef Kowatsch, unabhängiger, weil unbezahlter Natur- und Klimaforscher




Aus Paris-Abkom­men aussteigen ist richtige Entschei­dung für die USA und die Welt

Das Paris-Abkommen und die damit verbundenen Prozesse müssen vollständig aufgegeben werden. Stattdessen muss ein neuer Prozess gestartet werden, welcher frei ist vom Stigma der Korruption, welche das bestehende Pariser Abkommen und dessen Auswirkungen durchzieht.

Das Pariser Abkommen ist ein Programm auf der Grundlage einer vollkommen ungeeigneten Wissenschaft, wie das IPCC inzwischen auch eindeutig eingeräumt hat. Der Prozess des Abkommens ist ausschließlich getrieben von der Politik des Klima-Alarmismus‘.

Im AR3 des IPCC aus dem Jahr 2001 wurde festgestellt, dass es unmöglich ist, Klimamodelle zu erschaffen, welche das globale Klima akkurat abbilden, kam es doch zu dem Ergebnis „Bei der Klimaforschung und -modellierung sollten wir erkennen, dass wir es mit einem gekoppelten, nicht linearen und chaotischen System zu tun haben und dass daher die Vorhersage zukünftiger Klimazustände nicht möglich ist“.

Der jüngste Zustandsbericht AR5 stützt sich auf diese ungeeigneten Klimamodelle und versucht, die Unzulänglichkeit zu verstecken, indem man sich eines Taschenspielertricks bedient, nämlich einer „geschätzten Wahrscheinlichkeit“ [assessed likelihood] sowie Vermutungen und Spekulationen, um einen falschen Grad an Gewissheit bzgl. erwarteter Klimaereignisse vorzugaukeln, welche von wissenschaftlich etablierten und mathematisch abgeleiteten Wahrscheinlichkeiten nicht gestützt werden.

Die Provisionen des Paris-Abkommens, welche sich auf Klima-„Modelle“ stützen, sind eindeutig ungeeignet. Wissenschaftliche Vermutungen werden fälschlich zu Gewissheiten gemacht, obwohl auch sie eindeutig als falsch und gescheitert erkannt worden sind. Dokumentiert wird dies durch eine Anhörung vor dem Kongress im März 2017.

Curry: Computer-Prophezeiungen bzgl. Klima-Alarm sind betrügerisch

Neue Studie erklärt inhärenten Betrug von Computermodellen, welche den zukünftigen Klimawandel prophezeien.

London, 21. Februar: Behauptungen, denen zufolge der Planet durch eine vom Menschen verursachte globale Erwärmung bedroht ist, basieren auf einer Wissenschaft, welche ungeeignete Computer-Modellierungen zur Grundlage hat. Das ist die Schlussfolgerung einer neuen Informationsschrift, welche die GWPF heute veröffentlicht hat.

Die Autorin der Schrift, die bekannte amerikanische Klimatologin Prof. Judith Curry erklärt, dass sich der Klima-Alarm auf hoch komplexe Computer-Simulationen des Klimas der Erde stützt.

Aber obwohl Wissenschaftler Jahrzehnte lang Zeit und Mühe aufgewendet haben, müssen diese Simulationen immer noch „frisiert“ werden, um zum ralen Klima zu passen. Dies macht sie im Wesentlichen nutzlos für den Versuch, welche Ursachen Änderungen des Klimas haben, und unzuverlässig zur Ausgabe von Vorhersagen, was in Zukunft geschehen wird.

Die Klimawissenschaftlerin Dr. Judith Curry führte bei ihrer Anhörung vor dem Wissenschaftskomitee des Weißen Hauses im März 2017 aus, wo sie die fundamentalen Fehler in den Klimamodellen sieht:

Einschätzung von Klimamodellen

Im kürzlich erschienenen Report [übersetzt] ,Klimamodelle für Laien‘ beschrieb ich, wie Klimamodelle nützlich sein können für Forschungen zum besseren Verständnis des Klimasystems.

Allerdings argumentierte ich, dass gegenwärtige globale Klimamodelle nicht geeignet sind für das Ziel, die Gründe der jüngsten Erwärmung einzuordnen oder für die Vorhersage globaler und regionaler Klimaänderungen in Zeitskalen von Jahrzehnten und Jahrhunderten. Zu den Bedenken der Brauchbarkeit von Klimamodellen gehören:

● Vorhersagen der Auswirkungen eines zunehmenden CO2-Gehaltes auf das Klima können nicht für Jahrhunderte im Voraus sicher evaluiert werden.

● Der Fehlschlag der Klimamodelle hinsichtlich einer konsistenten Erklärung der Erwärmung zum Beginn des 20. Jahrhunderts und die nachfolgende Abkühlung zur Mitte des Jahrhunderts.

● Unfähigkeit der Klimamodelle, Größenordnung und Phase der großräumigen Ozean-Oszillationen im Zeitmaßstab von Jahrzehnten und Jahrhunderten zu simulieren.

● Unzureichende Erkundung der Unsicherheiten in den Klimamodellen.

● Die extrem große Anzahl willkürlicher Auswahl von Modellparametern und Parametrisierungen.

● Evaluierung der Klimamodelle gegenüber den gleichen Beobachtungen, die für die Feinabstimmung der Modelle herangezogen worden sind.

● Bedenken hinsichtlich eines fundamentalen Fehlens der Vorhersagbarkeit in einem komplexen, nicht linearen System.

Und weiter:

Die Ergebnisse der Klimamodell-Simulationen für das 21. Jahrhundert, welche das IPCC bekannt gemacht hatte, enthalten keine Grundlagen-Elemente der Klima-Variabilität und sind daher nicht brauchbar als Projektionen, wie sich das 21. Jahrhundert entwickelt.

…sie sind nicht nicht geeignet für das Ziel, die Gründe der jüngsten Erwärmung einzuordnen oder für die Vorhersage globaler und regionaler Klimaänderungen in Zeitskalen von Jahrzehnten und Jahrhunderten mit irgendeinem hohen Niveau der Sicherheit.

…sie sind nicht fit für das Ziel, politische Entscheidungen zu rechtfertigen, welche soziale, ökonomische und Energie-Systeme fundamental verändern.

Dr. Curry schließt mit drei Kernaussagen zu den Fähigkeiten der Klimamodelle:

Wenn das „wissenschaftliche Verfahren“ auf den Output von Klimamodellen wie im AR5 des IPCC dargestellt angewendet wird, vor allem hinsichtlich der großen atmosphärischen Temperaturtrends seit 1979 (eine Grundsatz-Variable mit einer starken und offensichtlichen Reaktion auf zunehmende Treibhausgase während dieses Zeitraumes) zeige ich, dass der Konsens der Modelle bei dem Test gegenüber den Beobachtungen in der realen Welt auf signifikante Weise durchfällt.

Der Klimawissenschaftler Dr. John Christy sagte ebenfalls bei der Anhörung vor dem Wissenschaftskomitee aus. Er stellte das wissenschaftliche Verfahren vor, die Glaubwürdigkeit der Temperaturprojektionen der Klimamodelle gegenüber tatsächlich gemessenen globalen Temperaturen zu evaluieren. Er kam zu dem Ergebnis:

Die Temperaturprojektionen der Klimamodelle zeigten im Vergleich zu den tatsächlich gemessenen globalen Temperaturen, dass die Modelltheorie nach Strich und Faden gescheitert ist, und zwar mit einem Vertrauensniveau über 99%.

Die Aussage von Dr. Curry vor dem Komitee hinsichtlich der extensiven Fehlschläge der Klimamodelle passte zu den Ausführungen von Dr. Christy hinsichtlich der außerordentlich schlechten Performance dieser Klimamodelle in Übereinstimmung mit dem eigenen Eingeständnis des IPCC, dass es unfähig sei, Klimamodelle zu konstruieren, welche das globale Klima vertrauenswürdig repräsentieren. Dies diktiert eindeutig, dass derartige Modelle als Entscheidungsgrundlage für globale politische Klima-Maßnahmen vollkommen ungeeignet und ungerechtfertigt sind.

Dr. Roger Pielke, Jr. sprach bei der Anhörung Behauptungen von Klima-Alarmisten an, denen zufolge anthropogene CO2-Emissionen mehr Extremwetter mit sich brächten. In seiner Aussage porträtierte Dr. Pielke folgende Ergebnisse:

Die wissenschaftlichen Beweise als Unterstützung für meine im Jahre 2013 diesem Komitee vorgestellten Schlussfolgerungen sind heute sogar noch stärker. Es gibt kaum eine wissenschaftliche Grundlage für Behauptungen, dass Extremwetter-Ereignisse – im Einzelnen Hurrikane, Überschwemmungen, Dürren, Tornados – nebst deren ökonomischen Schäden während der letzten Jahrzehnte zugenommen haben aufgrund von Treibhausgasen. Tatsächlich verzeichnete man in den USA und auf der ganzen Welt seit dem Jahr 2013 eine bemerkenswert gute Phase, gab es doch weit weniger Extremwetter im Vergleich zur Vergangenheit.

Das Fehlen von Beweisen zur Stützung von Behauptungen über eine Zunahme von Häufigkeit oder Stärke dieser Extremwetter-Ereignisse wird auch vom IPCC beschrieben sowie in noch größerem Umfang von der begutachteten wissenschaftlichen Literatur, auf die sich das IPCC stützt.

Die USA waren extrem erfolgreich hinsichtlich der Reduktion von Treibhausgasen und CO2-Emissionen. Erreichten diese im Jahre 2007 noch ihr höchstes Niveau, sind sie danach deutlich zurückgegangen dank der Marktvorteile durch Erdgas-Fracking.

EPA-Daten zufolge haben die US-Emissionen im Laufe des Jahres 2015 um über 10% abgenommen und liegen jetzt auf dem Niveau des Jahres 1994. Diese Reduktion ergibt insgesamt 763 Millionen Tonnen weniger Treibhausgas-Emissionen.

Der gerade veröffentlichte EIA – AEO-Bericht aktualisiert die CO2-Emissionen der USA über das Jahr 2016 und zeigt, dass die Emissionen im Vergleich zu 2015 noch weiter zurückgegangen sind. Er enthält auch die Vorhersage, dass es stabile CO2-Emissionen mindestens bis zum Jahr 2030 geben werde, ohne dass die Vorschriften von Präsident Obama bzgl. seines Krieges gegen die Kohle überhaupt in Kraft sind.

Der Bericht zeigt, dass die Reduktionen des Jahres 2016 sowie zukünftige Emissionen erreicht wurden als Konsequenz der zunehmenden Zuwendung zu billigem, auf dem Energiemarkt erhältlichen Erdgas. Dies lässt den Verbrauch von Kohle-Treibstoff abnehmen mit der weiteren Auswirkung geringerer CO2-Emissionen.

Folglich treiben und kontrollieren die Kräfte des Energiemarktes die Reduktion mittels Fracking von Erdgas, ohne dass die Regierung der Öffentlichkeit unnötige, kostspielige und bürokratisch sehr aufwändige Vorschriften aufbürdet.

Im Jahre 2030 werden die CO2-Emissionen der USA einer Vorhersage der EIA zufolge 5210 Millionen Tonnen betragen (ohne Obamas Clean Power Plan). Dies bedeutet eine Reduktion von 790 Tonnen und liegt um über 14% unter dem Spitzenniveau des Jahres 2007.

Die signifikanten Reduktionen von Treibhausgasen und CO2-Emissionen der USA wurden der Öffentlichkeit seitens der klima-alarmistischen Main Stream Medien und klimaaktivistischen Wissenschaftlern vorenthalten.

Während des gleichen Zeitraumes, also von 2007 bis 2030, als die USA ihre CO2-Emissionen um fast 800 Millionen Tonnen pro Jahr reduzieren, zeigen Daten der EIA IEO der Jahre 2011 und 2016, dass in den Entwicklungsländern der Welt die CO2-Emissionen um über 9900 Millionen Tonnen zunahmen, wobei China und Indien über 5700 Millionen Tonnen zu dieser Zunahme beitrugen.

Die massiven zunehmenden CO2-Emissionen der Entwicklungsländer einschließlich Chinas und Indiens sind laut Präsident Obama nach dem Paris-Abkommen 2015 akzeptabel.

Die NOAA hat jüngst ihre Daten von Tidenmesspunkten bzgl. küstennahem Anstieg des Meeresspiegels einschließlich aktueller Messungen durch das Jahr 2016 aktualisiert. Daraus ergeben sich nach wie vor keinerlei Anhaltspunkte für eine Beschleunigung des Meeresspiegel-Anstiegs an den Küsten.

Diese Messungen enthalten Daten von Tidenmesspunkten an 25 Stellen der Westküste, der Golf-Küste und der Ostküste entlang des Pazifischen, des Atlantischen Ozeans und es Golfes von Mexiko. Außerdem sind Daten von 7 Inselgruppen im Pazifik und 6 im Atlantik enthalten. Insgesamt sind es über 200 Messpunkte.

Die längste Reihe von Tidendaten des küstennahen Meeresspiegels stammt aus The Battery in New York und ist 160 Jahre lang. Die Daten zeigen eine stetige Rate des Anstiegs von etwa 11 Inches [ca. 28 cm] pro Jahrhundert.

Es ist sehr wahrscheinlich, dass es einen substantiellen anthropogenen Beitrag zum mittleren globalen Anstieg des Meeresspiegels während der siebziger Jahre gab. Dies basiert auf dem hohen Vertrauen in einen anthropogenen Einfluss auf die beiden größten Komponenten des Anstiegs, nämlich thermische Ausdehnung und Verlust von Gletschermasse.

In der ,Summary for Policymakers‘ des IPCC-Berichtes AR5 schreibt das IPCC:

„Die NOAA-Messungen an Tidenmesspunkten der Küste umfassen den 46-jährigen Zeitraum von 1970 bis einschließlich 2016. Sie stützen nicht, ja widersprechen sogar, der Schlussfolgerung im IPCC-Bericht AR1 hinsichtlich vermeintlicher Beiträge des Menschen zum Anstieg des Meeresspiegels seit Anfang der siebziger Jahre“.

Zusammenfassung:

Die Klimamodelle zur Stützung des Paris-Abkommens haben sich eindeutig als falsch und gescheitert herausgestellt, was selbst das PCC einräumt.

Behauptungen, wonach menschliche Treibhausgas-Emissionen Extremwetter verursachen (Hurrikane, Dürren, Überschwemmungen, Tornados) werden durch tatsächliche Klimadaten einschließlich der IPCC-eigenen Daten nicht gestützt.

Die USA haben bedeutende Reduktionen von Treibhausgas- und CO2-Emissionen erreicht mittels Hinwendung zur Erdgas-Fracking-Technologie auf dem Energiemarkt und Abkehr von kostspieligen, belastenden und unnötigen Vorschriften der Regierung.

Emissionen der Entwicklungsländer übersteigen bei weitem jene der USA und werden sogar aufgrund des Paris-Abkommens noch weiter steigen.

Die jüngsten verfügbaren Daten der NOAA von Tidenmesspunkten bis einschließlich 2016 zeigen keine Beschleunigung des küstennahen Meeresspiegelanstiegs, was den IPCC-Behauptungen bzgl. anthropogener Einflüsse auf steigende Raten seit den siebziger Jahren diametral widerspricht.

Schlussfolgerung:

Die Wissenschaft im Pariser Klimaabkommen wird von Politik bestimmt und nicht durch eine eindeutig etablierte und verifizierbare Klimawissenschaft.

Die Klimawissenschaftlerin Dr. Judith Curry führte bei der Anhörung vor dem Kongress bzgl. des Jahrzehnte langen Frusts hinsichtlich die Politisierung der Klimawissenschaft sowohl seitens des IPCC als auch der Obama-Regierung aus:

Die Klima-Gemeinde hat seit über zwei Jahrzehnten daran gearbeitet, einen wissenschaftlichen Konsens bzgl. eines vom Menschen verursachten Klimawandels zu fabrizieren, hauptsächlich dadurch, dass sie eine Hypothese zu einer vorherrschenden, absolut richtigen Theorie erhoben hat.

Der nach Konsens trachtende Prozess und deren Verbindungen zur Politik der Reduktion von Emissionen seitens des UNFCCC hatten die unbeabsichtigte Konsequenz einer Hyper-Politisierung der Wissenschaft und der Einbringung eines Bias‘ sowohl in die Wissenschaft als auch in damit in Verbindung stehende Entscheidungsprozesse.

Das Ergebnis dieser grob vereinfachten Darstellung eines verzwickten Problems ist, dass uns die Arten von Informationen fehlen, welche zu einem größeren Verständnis der Klimavariabilität und der gesellschaftlichen Verwundbarkeit beitragen.

Die Politisierung der Klimawissenschaft hat die akademische Klimaforschung und diejenigen Institutionen kontaminiert, welche die Klimaforschung stützen. Deshalb sind individuelle Wissenschaftler und Institutionen zu Aktivisten und zu Befürwortern einer Politik zur Reduktion von Emissionen geworden.

Wissenschaftler mit einer Perspektive, dass dies nicht konsistent mit dem Konsens ist, werden im besten Falle marginalisiert (d. h. sie haben Schwierigkeiten, zu Ergebnissen zu kommen und Studien zu veröffentlichen, die nicht an ,Pförtner‘-Herausgebern der Journale vorbeikommen) und im schlimmsten Falle mit Schimpfwörtern wie ,Leugner‘ oder ,Häretiker‘ belegt.

Dann hat Dr. Curry glasklar den „Krieg gegen die Wissenschaft“ angesprochen, welcher von der klimawissenschaftlich alarmistischen Politik der Regierung während der letzten Jahre vollführt worden ist:

Der ,Krieg gegen die Wissenschaft‘, der mich am meisten besorgt, ist der Krieg von innerhalb der Wissenschaft – von Wissenschaftlern und den Organisationen, welche eine Wissenschaft stützen, die Machtpolitik betreibt mit ihrer Expertise, und welche ihre naiven Prämissen von Risiko und politischen Meinungen als Wissenschaft verkaufen.

Wird der IPCC-Konsens in Frage gestellt oder die Autorität der Klimawissenschaft hinsichtlich der Steuerung der Klimapolitik angezweifelt, nennen diese aktivistischen Wissenschaftler und Organisationen die Zweifler ,Leugner‘ und erklären den Zweifel zum ,Krieg gegen die Wissenschaft‘.

Diese aktivistischen Wissenschaftler scheinen sich weniger Gedanken zu machen hinsichtlich der Integrität des wissenschaftlichen Prozesses als vielmehr um ihre privilegierte Position und ihren Einfluss in der öffentlichen Debatte um Klima- und Energiepolitik.

Sie verweigern sich der wissenschaftlichen Diskussion – und verleumden Wissenschaftler, die nicht mit ihnen übereinstimmen.

Diese aktivistischen Wissenschaftler und Organisationen pervertieren den politischen Prozess und versuchen, die Klimawissenschaft von genauer Überprüfung abzuhalten. Das ist der wirkliche Krieg gegen die Wissenschaft.

Die freiwillig eingegangenen Verpflichtungen bzgl. des Paris-Abkommens 2015 werden Billionen Dollar kosten, um kaum etwas zu tatsächlichen Temperatur-Reduktionen und damit zusammenhängenden Auswirkungen beizutragen.

Es ist absurd seitens der globalen Nationen, Billionen Dollar auszugeben für von der Regierung verordnete Klimamaßnahmen, welche auf falschen und gescheiterten Klimamodell-Projektionen beruhen, welche wiederum die Erzeugnisse von Vermutungen und Spekulationen sind, gekoppelt mit mit einem korrupten politischen Prozess, welcher einen künstlichen „Konsens“ erschaffen hat, um die Wahrheit bzgl. der betrügerischen klimawissenschaftlichen Fähigkeiten zu verstecken.

Die Tatsache, dass all jene, die nach so massiven Ausgaben schreien, so hart daran gearbeitet haben, die außerordentlichen Schwächen der globalen Klimamodell-Simulationen zu verstecken und zu leugnen, zeigt, dass ein massives globales Zusammenspiel der Regierungen von der klimaalarmistischen Gemeinschaft durchdrungen wird, wenn es um die Öffentlichkeit geht.

Klimamodelle mögen nützlich sein für akademische und wissenschaftliche Studien, aber sie sind vollkommen ungeeignet für Zwecke durch Vorschriften getriebener Verpflichtungen, welche Ausgaben in Höhe von Billionen Dollar globalen Kapitals erfordern. Diese Gelder können mit erheblich größerem Nutzen zum Kampf gegen bekannte schwere globale Probleme eingesetzt werden, als da wären Armut, Gesundheitsvorsorge, Bildung usw.

Präsident Trump muss die richtige Entscheidung für die USA und die Welt reffen, indem er das politisch und wissenschaftlich korrupte Paris-Abkommen in die Tonne tritt. Er sollte eine zukünftige Klimapolitik auf etwas richten, was hoffentlich ein neuer Anfang sein wird, frei von monumentalen Stigmen einer „Politisierung der Klimawissenschaft“, welche so schwer das gegenwärtige Paris-Abkommen und damit in Verbindung stehende Prozesse durchdrungen hat.

Link: https://wattsupwiththat.com/2017/05/10/dumping-paris-agreement-right-decision-for-u-s-and-the-world/
Übersetzt von Chris Frey EIKE