Kohlenstoff-(halb-)Kreislauf und Kinder

Ich habe kürzlich für das EIKE einen Beitrag aus den USA übersetzt, in dem die Ergebnisse einer Umfrage unter Lehrern naturwissenschaftlicher Fächer an Schulen in den USA vorgestellt werden. Das hat mich auf die Idee gebracht, einmal darüber nachzudenken, ob man nicht doch die (Nicht-)Zusammenhänge mit CO2 und Klima so einfach darstellen kann, dass auch Kinder im Grundschulalter sie verstehen. Tatsächlich habe ich mir einen solchen Gedankengang ausgedacht, den ich mal hier vorstellen möchte. Er richtet sich auch an alle Gläubigen des Klima-CO2-Dogmas, die mir mal erklären müssten, was an dem Gedankengang nicht stimmt.

Also möchte ich jetzt mal so tun, als stünde ich vor einer Klasse interessierter Kinder. Da an vielen Grundschulen die CO2-Problematik ein Thema war, gehe ich davon aus, dass die Kinder zumindest schon davon gehört haben, und was für ein „gefährlicher“ Stoff dieses CO2 ist. Er steckt im Benzin, in Kohle und Erdöl.

Diese Stoffe stecken ja im Boden und müssen von dort gefördert werden. Es gibt Kampagnen, denen zufolge man „das CO2 im Boden lassen sollte“.

Erste Frage: Wie kam das überhaupt CO2 in den Boden?

Antwort: Die fossilen Reserven sind ja das Ergebnis von zerfallenen prähistorischen Pflanzen, die mittels komplizierter Prozesse im Boden zu diesen Stoffen geworden sind. Kurz, das CO2 ist also in Gestalt dieser Pflanzen in den Boden gelangt. Daraus folgt die

zweite Frage: Wo aber haben die Pflanzen zu ihren Lebzeiten das CO2 hergenommen?

Antwort: Aus der Luft natürlich! Ohne CO2 können Pflanzen nun einmal nicht existieren.

Fazit: Es muss also in grauer Vorzeit, vor der Entwicklung der Flora, ein gigantischer CO2-Vorrat in der Luft gewesen sein, sicher die zehnfache Menge des heutigen Gehaltes. Sonst hätten sich die Pflanzen ja nicht entwickeln können, oder? Und daraus ergibt sich die

dritte Frage: Heute heißt es ja, dass die Erde und damit wir alle schon bei einer Verdoppelung des heutigen CO2-Gehaltes der Luft (was wir nie erreichen können) den Hitzetod sterben würde. Komisch – als damals die zehnfache Menge CO2 in der Luft enthalten war, ist die Erde nicht den Hitzetod gestorben, sondern das Leben ist explodiert.

Wie passt das zusammen?

Zusammenfassung:

● CO2 kam durch Pflanzen aus der Luft in den Boden.

● Die Pflanzen haben dieses CO2 seinerzeit der Luft entnommen.

● Der CO2-Gehalt der Luft war zu jener Zeit mindestens zehnmal so hoch wie heute.

● Die Erde ist damals keineswegs den Hitzetod gestorben, sondern das Gegenteil war der Fall.

● Warum sollte dann die Erde heute den Hitzetod sterben bei einem nur zweimal so hohen Gehalt wie heute?!

Man sieht, die Natur hat etwas gemacht, dass heute angeblich den Menschen vorbehalten sein soll: Sie hat sich selbst weitgehend dekarbonisiert. Dieser Prozess der natürlichen Dekarbonisierung ist natürlich weiterhin im Gange, und irgendwann hätte sich die Natur selbst den Ast abgesägt, auf dem sie sitzt.

Und deswegen steht auch in der Überschrift „Kohlenstoff-(halb-)Kreislauf: Den Kindern wird nur beigebracht, wie das CO2 aus dem Boden die Luft „verpestet“. Wie es dort hinein gekommen ist, wurden meines Wissens dagegen noch nie gelehrt, weder Kindern noch Erwachsenen.

Wenn man sich das alles vor Augen führt, ist es dann nicht ein Verbrechen gegen das Leben schlechthin, wenn wir der Natur und dem Leben diesen Stoff NICHT zurückgeben, obwohl wir dazu in der Lage sind?

Schlussbemerkung: Noch viel mehr Kohlenstoff als in den fossilen Quellen ist ja in den gewaltigen Massen von Kalkstein und Schiefer gebunden. Dieser Kohlenstoff war ja auch mal in der Luft, ist aber jetzt auf absehbare Zeit für immer der Natur entzogen!

Dieser Beitrag steht hier auch auf meiner Website und ist eine Ergänzung zu einem früheren Beitrag ebenda. Man kann dort auch kommentieren. Außerdem möchte ich mir vorbehalten, gute Kommentare zu diesem Beitrag auf dieser Website unter meinen Beitrag auf meiner Website zu setzen.

© Chris Frey April 2016




Mein Tschernobyl

Vor kurzem war ich im Kernkraftwerk Grohnde im Weserbergland auf der Warte dabei, während der Block zur Revision abgefahren wurde. Der Abfahrplan eines Leistungskernkraftwerks zieht sich über mehrere Tage hin, aber die erste Spät- und Nachtschicht ist immer die spannendste – Stunden voller Konzentration und intensiver Arbeit, in denen sich in der Regel über zwanzig Leute gleichzeitig im Raum aufhalten und an unterschiedlichen Stellen parallel arbeiten, beim Abfahren der Systeme und bei Tests und Wiederkehrenden Prüfungen (WKP), die nur unter diesen Transienten und in diesem Anlagenzustand durchgeführt werden können.

Kernkraftwerk Tschernobyl, Blöcke 3 und 4 (links), von Süden aus gesehen. Fotografiert 10 Tage vor dem Unfall von Elektromonteur Ivan Zholud.


Mitten in dieser Situation, irgendwann nach ein Uhr nachts – der Generator war planmäßig kurz nach Mitternacht vom Netz getrennt, die Turbine abgeschaltet, der Reaktor abgefahren und bei geringer Leistung von Hand schnellabgeschaltet worden – dachte ich plötzlich an Tschernobyl: »Es ist April, es sind die ersten warmen Tage des Jahres, es ist eine Nacht von Freitag auf Samstag, wir fahren einen Kernreaktor zur Revision ab, und führen Testprogramme durch. Es ist fast dieselbe Stunde, als es geschah.«

Um ungefähr zwei Uhr verließ ich die Warte und ging vor das Reaktorgebäude, unter die Armaturenkammer, weil ich die Tests der Frischdampf-Sicherheitsventile von außen beobachten wollte. Es war stockfinster, windstill und kalt, und ich erschrak fast, als der Dampf mit 80 bar Druck und lautem Fauchen in den Nachthimmel abgeblasen wurde. Die Momente sind selten, in denen man mit den eigenen Sinnen, nicht nur vermittelt durch Messgeräte und Anzeigen, erfassen kann, welche Energien in einem Kernreaktor umgesetzt werden. Dies war so ein Moment. Ich dachte daran, dass auch damals in Tschernobyl viele Leute nach ihrer eigenen Schicht wegen des Abfahrens und der Tests im Kraftwerk geblieben waren, auch wenn sie selbst keine Arbeitsaufgaben hatten. Sie wollten bei den seltenen Prozeduren dabei sein und die geschäftige Spannung auf der Warte miterleben, und sie wollten dabei etwas lernen.

Der Unfall als Grenzerfahrung

Damit enden die technischen Parallelen zwischen der Druckwasserreaktor-Anlage Grohnde und dem grafitmoderierten Druckröhren-Siedewasserreaktor RBMK 1000 im Block 4 des KKW Tschernobyl – einer der Tests, die in Tschernobyl in der Abfahrnacht durchgeführt wurden, endete in einem Reaktivitätsstörfall mit prompt-kritischer Leistungsexkursion und der Totalzerstörung der Anlage. Und in den folgenden Momenten war die elementare Erfahrung der Beteiligten, dass sie zunächst ihren Messgeräten und selbst den eigenen Sinnen nicht trauen wollten. Was die Messgeräte anzeigten, erschien zu schrecklich, um wahr sein zu können – die Strahlungswerte jenseits der Skala, die Steuerstäbe auf der Hälfte des Reaktorkerns steckengeblieben, viele Anzeigen erloschen und auf Null gefahren.

Hinzu traten die Sinneserfahrungen, die das Ausmaß des Unglücks schließlich ins Bewusstsein vordringen ließen – die durch Verbrühungen und Strahlung tödlich Verletzten, die während der Arbeiten zur Eingrenzung des Unglücks buchstäblich umfielen vor Schmerzen und Erschöpfung; die Trümmer in den Betriebsräumen, das Grafit unter den Schuhsohlen draußen vor dem Block, das sinnlos aus abgerissenen Leitungen auf die Ruine fließende Wasser, der himbeerrote Schein am Abend des Unfalltages, als Brände im zerstörten Reaktorgebäude wüteten. Die Sinne erfassten bald das Ausmaß des Unglücks, wie die Augenzeugen berichten – der Geist brauchte lange, um den Schock zu verarbeiten, und zu begreifen, was da eigentlich schiefgelaufen war. Der Schock von Tschernobyl war für die sowjetische, später russische und ukrainische Atomindustrie der Beginn eines schmerz- und verlustreichen Transformations- und Umdenkprozesses, der sich über Jahrzehnte hinzog.

»Mein« Tschernobyl

Trotzdem sind Tschernobyl und Grohnde für mich mit einem unsichtbaren Faden verbunden. Nicht nur, dass Grohndes vorzeitiges Ende, besiegelt durch den deutschen Atomausstieg, zwar direkt auf die Ereignisse von Fukushima, indirekt aber auch auf jene von Tschernobyl zurückgeht, weil sich bereits damals die deutsche Atomangst und -kritik formierte und die Diskurse eroberte. Sondern auch, weil für mich selbst aus Tschernobyl auf verschlungenen Wegen, und im Nachhinein einer strengen Logik folgend, auch Grohnde folgte.

Gäbe mir eine wunderbare Macht einen Wunsch frei, dann würde ich mir das Heile und das Ganze für Tschernobyl zurückerbitten, so wie es auf dem Foto zu sehen ist – dem letzten Foto, das die Anlage Tschernobyl 3 und 4 in unbeschädigtem Zustand zeigt, zehn Tage vor dem Unfall. Ich würde es mir wünschen, und damit die Entscheidung fällen, dass auch mein eigenes Leben anders verlaufen wäre. Stephen King hat dieses Thema der potenziellen Lebensweg-Parallelen in seinem Meisterwerk »Der Anschlag« verarbeitet. Mein Leben, wenn ich es mir als Teilchen auf seiner Flugbahn vorstelle, hat durch den Zusammenstoß mit dem energiereichen Teilchen von Tschernobyl einen Impuls und eine wesentliche Richtungsänderung erfahren.

1986 war ich auf einem genuin westeuropäischen Lebensweg unterwegs, mit Studienplänen in Frankreich und Forschungsinteressen in der Geschichte der Sozialdemokratie – und einem nach wie vor regen Interesse an Technik und Naturwissenschaften, das mich auch eine Zeitlang hatte zögern lassen, ob ich überhaupt Historikerin werden wollte. Mitten auf diesen Lebensweg fiel wie ein eiserner Meteorit aus heiterem Himmel das Ereignis von Tschernobyl, das mir schlaglichtartig klar machte, dass es östlich von uns Menschen, politische Verhältnisse, technische Systeme gibt, von denen wir nichts wussten oder nichts wissen konnten, da alles hinter dem Eisernen Vorhang verborgen war.

Aber das war nicht sofort so. Meine erste Konfrontation mit Tschernobyl war sonderbar. Ich erinnere mich an meinen ersten Gedanken beim Anblick des ersten Fotos des zerstörten Kraftwerksblocks – wie ich später erfuhr, eins der Schadensaufnahmefotos des Kraftwerksfotografen, aufgenommen aus gut 800 Meter Entfernung. Mein erster Gedanke kam mir irgendwie fehl am Platze vor, weil alle um mich sehr betroffen waren und, es muss der 30. April oder 1. Mai gewesen sein, die Strahlenängste im eigenen Land schon Fahrt aufnahmen.

Gleichwohl konnte ich ihn nicht verhindern, den ersten, überhaupt nicht angemessenen Gedanken. Ich dachte: »Sonderbar, so sieht also dort ein Kernkraftwerk aus. Kann so ein Kernkraftwerk aussehen?« Ich dachte an die weißen Kuppeln der westdeutschen Anlagen, die ich auf Bildern oder beim seltenen Vorbeifahren gesehen hatte. Ich wusste mehr von der Kernenergie als meine Altersgenossen, weil ich schon als Kind gerne Bücher über Technik gelesen hatte. Mein erster Reaktor war der plutoniumproduzierende Uran-Grafit-Reaktor von Professor Bienlein/Tournesol im Tim-und-Struppi-Band »Reiseziel Mond«, der friedlichen Raketenbrenstoff herstellte und in mir im Alter von acht Jahren das Fundament einer Grundsympathie für solche Anlagen gelegt hatte. Diese stand in einem gewissen Spannungsverhältnis zu meinem halbwüchsigen linken Engagement, zu dem irgendwie unhinterfragt gehörte, auch gegen Atomkraft zu sein.

Auf den ersten Bildern von Tschernobyl sah ich ein Industriegebäude, das mich an jene erinnerte, wie ich sie vorher mal auf den Fotos der von mir verehrten Fotografen Bernd und Hilla Becher gesehen hatte, kantig und streng symmetrisch, mit einem Abluftkamin, den ein konstruktivistisches Stahlskelett umgab, eine echte Landmarke. Aber dem Doppelreaktorblock war infolge der Zerstörungen seine Symmetrie abhanden gekommen. Das war mein erster Gedanke, das etwas einst Markantes und in seiner industriellen Kantigkeit und Schnoddrigkeit Schönes nun zerstört sei, und ich schämte mich ein wenig, dass ich daran und nicht an die Strahlungsbelastung dachte.

Mein Weg nach Osteuropa

  

Bild und rechts oben: Anna Veronika Wendland als Studentin zu Gast im Kernkraftwerk Tschernobyl, 02.10.1991.

Mein zweiter Gedanke, an den ich mich erinnere, war: Wenn die Folgen sogar bei uns im Rheinland zu messen sind – was muss dann erst vor Ort los sein? Und damit war geschehen, was mein Leben in eine andere Bahn lenkte. Inmitten der deutschen Diskussionen um Salat, Milch, Grenzwerte und Kinderspielplätze ließ mich der Gedanke nicht mehr los: Was ist dort los? Ich begann den deutschen Sendedienst von Radio Moskau zu hören. Ich bestellte mir die Moskovskie novosti auf Deutsch. Ich fing an, Russisch zu lernen. Ich sammelte wie verrückt alles, was ich bekommen konnnte über Tschernobyl. Nach einem Jahr endete das in einem Studienfachwechsel hin zur Geschichte Osteuropas. Und nach drei Jahren in einem Studienplatzwechsel. Ich ging 1989 für ein Jahr in die Sowjetunion, verpasste den Mauerfall und verbrauchte in meinem Kiewer Studentenwohnheim Atomstrom aus Tschernobyl – dessen drei verbliebene Blöcke längst wieder in Betrieb waren.

Fünf Jahre nach dem Unfall war ich zum ersten Mal im KKW Tschernobyl und in der verlassenen Stadt Prypjat, mitgenommen von Bekannten, die dort arbeiteten. Zehn Jahre nach dem Unfall heiratete ich meinem ukrainischen Freund, den ich im Kiewer Wohnheim kennengelernt hatte, und der mir erzählt hatte, wie es im Mai 1986 in Kiew gewesen war, als die Stadt sich spontan selbst evakuierte, ohne auf die Direktiven der Partei zu hören, als sich auf den Bahnhöfen tumultartige Szenen abspielten und sich die Verbliebenen mit feuchten Lappen vor den Wohnungen und Rotwein im Magen die Radionuklide vom Leib zu halten versuchten. Der Vater meines Mannes war häufig in Prypjat gewesen, denn das KKW war »Patenbetrieb« des Kiewer Schriftstellerverbandes, wo mein Schwiegervater arbeitete. Und so kannte man Leute, die Leute kannten, die besser wussten, was im Kraftwerk los war.

Trotzdem hat es danach ein Vierteljahrhundert gebraucht, bis ich mich als Historikerin, als Forscherin an das Thema heranwagte, das mich so lange begleitet und nie losgelassen hatte. Ich wachte eifersüchtig über »mein« Tschernobyl. Die meisten deutschen Publikationen darüber reizten und ärgerten mich, weil ich sie für oberflächlich, landesunkundig, sensationshungrig und voreingenommen hielt. Es bereitete mir fast körperlichen Schmerz, sie zu lesen. Ich wollte es irgendwann bessser machen, wusste aber nicht, wie. Ich hatte die Möglichkeit, Russisch und Ukrainisch zu lesen, und verschlang, was ich kriegen konnte, von den beeindruckenden semidokumentarischen Texten der späteren Nobelpreisträgerin Svetlana Aleksijewitsch und den Tschernobyler Heften des Atomingenieurs Georgij Medvedev, der die Ereignisse im Kraftwerk rekonstruiert hatte, bis hin zu den kleinen Broschüren unbekannter Liquidatoren. Aber auch in diesen Büchern fand ich nicht, was ich auch immer suchte, nämlich die Antwort auf meine Frage, wie es eigentlich vor dem Unfall gewesen sei in Tschernobyl und in Prypjat.

Kernenergetische Lebenswelten: Ein Forschungsprojekt entsteht

Als ich persönlich mit Menschen in Kontakt kam, die dort gelebt hatten, an diesem Ground Zero der deutschen Risikogesellschafts- und anthropologischer Schock-Konstrukte, war ich zunächst irritiert und verwundert, denn mir schien, dass diese Leute nicht aussahen und sich benahmen, wie ich das von Tschernobyl-Opfern erwartet hätte. Sie hegten keinen Groll gegen die Kernenergie – wohl aber gegen jene, die die Kerntechnik in der Sowjetunion so auf den Hund gebracht hatten, dass Tschernobyl hatte passieren können. Sie sprachen mit Wärme und Liebe von ihrer Stadt Prypjat und ihrer Arbeit im Atomkraftwerk: Dinge, die in Deutschland nur Abscheu auslösen konnten. Eine sozialistische Plattenbaustadt, wie hässlich. Ein Atomkraftwerk, wie gefährlich und zudem noch hässlich. Jeden Tag der Blick vom Plattenbau-Balkon auf das Atomkraftwerk. Unmöglich.

Dem Lebensgefühl, welches das Leben in Prypjat nicht für das falsche Leben im Falschen hielt, wollte ich auf den Grund gehen. Die Antwort auf die Frage fand ich nicht in der fast unermesslichen Tschernobyl-Literatur, schon gar nicht in der deutschen. Und das wurde zum Ausgangspunkt meines späteren Projektes über die Lebenswelt der Atomstädte, das sich aber inzwischen ausgeweitet hat zu einem Projekt über die Arbeitswelt der Kernkraftwerke in Ost und West und die Entstehung und Transformation, aber auch die Krisen nuklearer Sicherheitskulturen, und ihre konkrete Ausgestaltung in der Mikrobeziehung zwischen Menschen und Maschinen.

Ich lernte rasch, dass ich, um diese Welt aus Menschen und kerntechnischen Maschinen und soziopolitischen Verflechtungen zu verstehen, mich mit ihr konfrontieren musste – und konfrontieren heißt mitleben und mitarbeiten. Diese Erkenntnis führte mich schließlich als Langzeit-Beobachterin ins ukrainische Kernkraftwerk Rivne und in die Atomstadt Kuznecovsk, mit dem Atomkraftwerk vor dem Plattenbau-Küchenfenster und sechs Kühlturmfahnen im Himmel; ins litauische Ignalina, wo ich den »Tschernobyl-Reaktor« RBMK erst richtig technologisch und im Maßstab 1:1 kennenlernte; und in die deutschen KKW Grafenrheinfeld und Grohnde, die mir nach der gigantischen Anlage in der Ukraine wie mittelständische Betriebe vorkamen, die in ländlichen Regionen ganz ohne Atomstadt auskamen und wo ich im Fachwerkbauernhaus übernachtete.

Lernprozesse

Historisch arbeiten im Kontrollbereich: Als Forscherin in den Kernkraftwerken Rivne (Ukraine) und Grohnde (Deutschland), 2015 – 2016

Meine Forschung führte aber vor allem in Bekanntschaften, auch Freundschaften mit Menschen, ohne deren Fürsprache, Rat und genaugenommen sogar Ausbildung ich nichts hätte bewerkstelligen können. Was für mich vorher die Osteuropa-Kapazitäten Andreas Kappeler, Manfred Alexander oder Gerhard Simon gewesen waren, also Hochschullehrer im besten Wortsinne, wurden jetzt die Ingenieure, Schichtleiter, Reaktorfahrer, Chemiker, Elektriker, Armaturenschlosser und Anlagenwärter, die meinen Weg kreuzten – oder, genaugenommen, deren Weg ich kreuzte. Mit denen ich zur Schicht ging und zur Revision, unter Atemschutz schwitzte und unter riesigen Anlagenlüftern fror; mit denen ich durch die Ausrüstung kletterte, die ich bei Aufschreibungen begleitete und die mir tausende von Fragen beantworten, mich in ihre Betriebshandbücher und Schichtbücher schauen ließen; die mir beibrachten, wie ich einen Leitstand »lesen« muss und wie den kerntechnischen Jargon mit seinen Tausenden von Buchstaben-Zahlen-Chiffren; wie man am Ton einer Pumpe erkennt, ob sie sauber läuft; die mich in Tricks, Kniffen und informellem Wissen unterrichteten – und die mir zeigten, wie ich mich in dem labyrinthischen Innenleben eines Kernkraftwerks orientiere und wie ich mich in radiologisch »heißen« Umgebungen bewegen und benehmen muss. Ich fing mit Mitte 40 noch mal neu an zu lernen, als Quasi-Werkspraktikant zwischen Rivne und Grohnde. Diesen Leuten aus der Atomindustrie in der Ukraine, Litauen und Deutschland verdanke ich, neben der jahrelangen Lektüre der Fachliteratur, meine heutige Expertise – die keine kerntechnische ist, sondern eine historische, welche kerntechnisch informiert ist, und auf deren Grundlage ich in bestimmten Grenzen Aussagen über die Kernenergie und die für sie typischen Mensch-Technik-Beziehungen machen kann.

So gesehen ist Tschernobyl ein archimedischer Punkt in meinem eigenen Leben – als Wissenschaftlerin, als Familienmensch, als Zoon politikon, das sich in Debatten einmischt, ob über die Ukraine oder über die Kernenergie. Meine Wissenswege enden, wenn ich sie zurücklaufe, in der Zone von Tschernobyl und schließlich vor dem historisch, menschlich und technisch unermesslichen Massiv von Block vier.

Und daher ist der 26. April für mich genauso wichtig ist wie mein Geburtstag und die Geburtstage meiner Liebsten. Mein Forschungsbeitrag zum Nachleben dieses Tages ist einer unter vielen, und er ist wenig im Vergleich zu dem Anteil, den andere an diesem Geschehen haben – vor allem diejenigen, die dort ihr Leben riskierten, um Schlimmeres zu verhindern, und die sich unermesslichen Qualen aussetzten.

Tschernobyl: Entscheider in der Zwangsjacke der Verhältnisse

Zu ihnen gehören viele der Kernkraftwerksbeschäftigten, die noch auf dem Sterbebett von Ermittlern drangsaliert und in den Jahren nach dem Unfall durch den Dreck gezogen wurden, weil die Propaganda, die das System zu schützen hatte, das Personal als Alleinschuldige hinstellte und andere ungeschoren ließ: die hochmögenden Akademiemitglieder, die den Reaktor konstruiert hatten, und die Parteibonzen, die Produktionserfolge über alles stellten und daher ungeheuren Druck auf die Leitungsebenen der KKW ausübten. Diese waren zum Erfolg verdammt – und gaben den Druck an ihre Mitarbeiter weiter. Fehlerdiskussion, eine Grundhaltung des Nachfragens und eine Kultur der Wissensweitergabe über Betriebsereignisse – lebensnotwendige Dinge in der Kerntechnik – waren in dieser Atmosphäre nur unter großen Schwierigkeiten möglich – und unter Einsatz allen Mutes, der jemandem eben gegeben war. Womöglich war er manchen weniger gegeben, weil man wusste, dass der Werks-KGB jedem das Leben zur Hölle machte, der sich einen Fehler zuschulden kommen ließ.

Am Ende der Befehlskette saßen Menschen wie der Schichtleiter Sascha Akimov und sein junger Reaktorfahrer Ljonja Toptunov, die am Leitstand ihre Entscheidungen fällen mussten – in der Weltminute waren sie allein damit, und mit dem Vorgesetzten, der sie antrieb. Es waren nach Aussagen ihrer Kollegen gewissenhafte, hervorragend ausgebildete Ingenieure. Sie liefen den Umständen ins Messer, so wie sie damals waren, in einer schicksalhaften Verknüpfung von menschlichen Fehleinschätzungen über den Charakter der vertrauten Anlage, von der spezifischen Reaktorphysik und dem Abbrand des Kerns mit den Auslegungsspezifika des Abschaltsystems. Von sozialen mit politischen Einflusslinien, von einer ökonomisch motivierten Lastverteiler-Entscheidung, die zur Verschiebung des Tests und somit zur Verwicklung ganz anderer Menschen als ursprünglich geplant führte, mit einem Leistungseinbruch, der den Reaktor erst in jenen instabilen Zustand bei geringer Leistung brachte, welcher die notwendige Rahmenbedingung für den weiteren Unfallablauf darstellte. Es war nicht Ljonja, der mit Auslösen der Schnellabschaltung die Anlage in die Katastrophe trieb, sondern dieses hochkomplexe und in einem diskreten historischen Moment labile System aus Menschen, Maschinen und soziopolitischem Regime, das in der Nacht des 26. April kollabierte.

Deshalb wiederhole ich mich womöglich jedes Jahr. »In memoriam 26.04.1986« schrieb ich vor einem Jahr auf Facebook in ukrainischer Sprache, »… und weil wir an Erinnerungstagen uns an unsere Nächsten erinnern, wie sie im Leben waren, zeige ich euch ein Foto vom Kernkraftwerk Tschernobyl, wie es aussah, als es lebendig und ganz war, am 17. April 1986«, fotografiert von Ivan Zholud, der zu der Zeit dort als Elektromonteur arbeitete und extra auf einen Mast kletterte, um »sein« Kraftwerk abzulichten, ein stolzes weißes Dampfschiff am Horizont einer technischen Landschaft. Block 4 ist das Gebäude links vom Abluftschornstein. Die Symmetrie ist für immer zerstört, aber die Erinnerung und die Ehrung der Opfer kann sie wenigstens geistig und sozial wieder herstellen. Daher erinnere ich zum 30. Jahrestag, wie in jedem Jahr, an jene, die dort davor und danach gearbeitet haben – die, welche unter uns sind, und jene, die nicht mehr da sind.

Dieser Beitrag ist zuerst erschienen bei Nuklearia hier 

Dr. Anna Veronika Wendland ist Nuklearia-Mitglied und forscht zur Geschichte und Gegenwart nuklearer Sicherheitskulturen in Ost- und Westeuropa. Für ihre Habilitationsschrift hat sie in mehreren Kernkraftwerken in der Ukraine, Litauen und Deutschland, zuletzt in den KKW Grafenrheinfeld und Grohnde, Forschungsaufenthalte durchgeführt. Dr. Wendland arbeitet in der Direktion des Herder-Instituts für historische Ostmitteleuropaforschung in Marburg. Sie leitet Arbeitsgruppen im Bereich Technik-, Umwelt- und Sicherheitsgeschichte, u.a. im Sonderforschungsbereich SFB-TRR 138 »Dynamiken der Sicherheit«.




Beim Thema Klima werden wir trickreich manipuliert

Das Ereignis setzte dem Wall Street Journal zufolge „einen Prozess in Gang, die Auswirkung der globalen Erwärmung zu dämpfen“. In der International Business Times hieß es: „es war der jüngste in einer Reihe von Schritten, die globalen Bemühungen in ein echtes Werkzeug zu transformieren, mit dem man Treibhausgas-Emissionen bekämpfen und saubererer Energie einen Schub verleihen könnte“. Newsweek berichtete: „Die Staatslenker akzeptierten die Wissenschaft vom Klimawandel und haben beschlossen, zusammen etwas dagegen zu tun“.

Vielleicht haben die „Staatslenker“ mit ihrer Unterschrift die „Wissenschaft akzeptiert“, aber man lese, was individuelle Personen zu den oben erwähnten Geschichten zu sagen haben, und man wird sehen, dass es immer noch sehr viele Diskussionen hinsichtlich globaler Erwärmung gibt – oder war es globale Abkühlung, oder vielleicht sollten wir es einfach nur Klimawandel nennen. Was immer es ist, die Alarmisten sagen, dass es dringend ist.

Auf dem Earth Day-Treffen erklärte UN-Generalsekretär Ban Ki-Moon: „Wir stehen im Wettlauf mit der Zeit“.

Wie allerdings der neue Film Climate Hustle eindeutig zeigt, haben Klimaalarmisten derartige Proklamationen schon seit Jahrzehnten ausgestoßen.

Der Film, der am 2. Mai in den gesamten USA in die Kinos kommt, beginnt mit Clips zahlreicher derartiger Behauptungen seitens der Nachrichtenmedien und, wie könnte es anders sein, Vizepräsident Al Gore.

Marc Morano, Moderator der Dokumentation, stellt zu Beginn fest: „Wir hören immer wieder, dass die Zeit der Debatten vorbei ist“ und sprach dann das oftmals bemühte Narrativ an, dass „97 von 100 Wissenschaftlern darin übereinstimmen, dass der Klimawandel real ist“. Climate Hustle räumt dann mit beiden Behauptungen auf – und auch vielen Weiteren (einschließlich der Frage, ob CO2 „der Schurke“ ist oder nicht).

Mit einer Prise Humor und einem Vergleich mit einem Hütchenspiel vergleicht Morano die Krise mit Taschenspielertricks; ein Climate Hustle. Er sagt: „Wenn man Sie drängt mitzuspielen, nämlich bei dem Spiel derjenigen, die eine katastrophale Zukunft infolge der globalen Erwärmung prophezeien, lassen sich diese nicht in die Karten schauen, es ist ein Trick“. Der Film legt die Karten offen, so dass der Zuschauer selbst erkennen kann, ob sie „ehrlich oder mit gezinkten Karten spielen“.

Climate Hustle hat die Historie des Klima-Alarmismus zum Thema. Morano fragt: „Wie hat sich der vermeintliche Klima-Konsens mit der Zeit verändert?“ Während sich viele von uns an einige der „wilden Behauptungen“ erinnern dürften, stellt Climate Hustle diese allesamt zusammen – und die Aufeinanderfolge derselben sollte alle des Denkens fähigen Menschen in die Lage versetzen zu hinterfragen, was uns heutzutage erzählt wird. Zum Beispiel hat Leonard Nimoy im Jahre 1978 verkündet: „Die nächste Eiszeit ist im Anzug“. Er prophezeite „beispiellosen“ Hunger und Todesfälle. Im Jahre 1972 warnte der angesehene Nachrichtensprecher Walter Cronkite: „Eine neue Eiszeit schleicht sich über die Nordhemisphäre“.

[Der Übersetzer hielt sich zu jener Zeit in den USA auf und weiß, dass damals viele Menschen davon sprachen. Es war nicht die einzige diesbezügliche Bemerkung von Cronkite, einer echten „alten, grauen Eminenz“ der Nachrichtenlandschaft, den jedermann sich als Opa gewünscht hätte. Anm. d. Übers.]

In dem Film kommt sogar einer von den Gründungsvätern der USA zu Wort, der sich besorgt über Klimawandel äußerte. Thomas Jefferson schrieb seinerzeit: „Eine Änderung unseres Klimas ist im Gange“. Dann, im Jahre 1817, sprach der Präsident der UK Royal Society Joseph Banks das schmelzende Polareis an. Es ist zu bezweifeln, dass die Bedenken beider Persönlichkeiten die Folge des Verbrauches fossiler Treibstoffe waren.

Im Jahre 1988 glitt die globale Abkühlung der siebziger Jahre in die globale Erwärmung ab. Mit Hilfe von „schauspielerischem Können“ wurde am heißesten Tag des Jahres eine Anhörung im Capitol Hill angesetzt, bei der sich James Hansen mit hochgezogenen Augenbrauen über die Dringlichkeit der globalen Erwärmung ausließ.

Immer wieder wurden wir während der letzten Jahrzehnte mit düsteren Prophezeiungen bombardiert unter der Prämisse „die Zeit läuft aus“. Im Jahre 1989 prophezeiten die UN „die globale Erwärmung würde bis zum Jahr 2000 ganze Nationen auslöschen“. Im Jahre 2007 machte man uns weis: „Wissenschaftler glauben, dass uns weniger als zehn Jahre verbleiben, um die Emissionen unter Kontrolle zu bringen und eine Katastrophe zu verhindern“. Im Jahre 2008 sagte Prinz Charles, dass uns nur noch 100 Monate bleiben, um das Problem zu lösen. Im Jahre 2009 tönte Al Gore: „Wir müssen es dieses Jahr tun“. Und dennoch, wie der Film zeigt, wollen die Wissenschaftler nicht über ihre falschen Prophezeiungen reden.

Inzwischen werden Wissenschaftler, die mit den „Führern“ nicht übereinstimmen, von Konsorten wie Robert F. Kennedy Jr. des „Hochverrats“ angeklagt.Er möchte sie „im Gefängnis“ sehen.

Ja, wie Climate Hustle eindeutig klarstellt, gibt es abweichende Wissenschaftler – aber diese werden marginalisiert und sogar als „Spinner“ bezeichnet. Falls sie sich zu Wort melden, werden sie beleidigt, ignoriert, lächerlich gemacht, geächtet, Häretiker genannt, professionell geschädigt und sogar für abweichende Standpunkte gefeuert. Dies ist nicht die wissenschaftliche Methode.

Und trotz dieser Behandlung von der Art, wie man mit „Hexen“ im 17. Jahrhundert umgegangen ist, sichten viele Wissenschaftler noch einmal die Beweise und ändern ihre Haltung – wobei sie sogar ihre ehemaligen An sichten als „einen ziemlich großen Fehler“ betrachten.

Climate Hustle spricht viele der Punkte an, die wir als Verteidigung der Ansichten der Unterzeichner des Pariser Klimaabkommens hören, einschließlich Eisbären und des arktischen Meereises, Hurrikanen und Tornados. Es werden die betrügerischen Modelle und der „Stillstand“ erklärt. Das Gemeine Gürteltier wurde als Beweis sowohl für globale Erwärmung als auch für globale Abkühlung angekündigt.

Indem zwischen dramatischen Behauptungen und wissenschaftlichen Tatsachen hin und her gesprungen wird, hilft Climate Hustle den denkenden Menschen, hinter die Angsterzeugung des gegenwärtigen Klimawandel-Narrativs zu schauen und die Beweise für die globale Erwärmung selbst zu begutachten.

In dem Film kommt der bekannte schwedische Meeresspiegel-Experte und Klimatologe Bils-Axel Mörner zu der Schlussfolgerung: „Geologische Fakten sind die eine Seite, Lobbyismus und Modelle sind die andere Seite“.

{Freie Übersetzung des letzten Satzes: Wir müssen jetzt sehen, ob, wann und wo der Film Climate Hustle hier in Deutschland gezeigt wird – wenn überhaupt.}

The author of [Energy Freedom][9], Marita Noon serves as the executive director for Energy Makes America Great Inc. and the companion educational organization, the Citizens’ Alliance for Responsible Energy (CARE). She hosts a weekly radio program: America’s Voice for Energy—which expands on the content of her weekly column.

Link: http://oilpro.com/post/24006/climate-were-manipulated-sleight-hand

Übersetzt von Chris Frey EIKE




Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

Es war eine sehr interessante Konferenz, und als Nebenaspekt nahm ich mit nach Hause, dass der kurzfristige Notfall die islamistische Gewalt ist und der langfristige Notfall, dass irgendwelche Riesen-Meteore auf die Erde stürzen. Aber bitte, gleiten Sie bei der Diskussion zu diesem Vortrag nicht in diese beiden Themen ab.

Abstract: Ursprünglich war das Abstract länger, aber hier folgt die Kurzform. Jene, die die globalen gemittelten Lufttemperaturen zusammenstellen, haben nicht nur systematische Messfehler (siehe auch hier) ignoriert, sondern haben sogar auch die Messgenauigkeit der Instrumente selbst in Abrede gestellt. Seit mindestens dem Jahr 1860 wurde die Thermometer-Genauigkeit nur vage berücksichtigt. Ebenfalls seit jenem Jahr sowie im 95%-Vertrauens-Intervall ist die Rate oder Größenordnung des globalen Anstiegs der Lufttemperatur nicht erkennbar. Gegenwärtiger Streit über die Lufttemperatur und seiner Beispiellosigkeit ist spekulative Theologie.

1. Einführung: Systematischer Fehler

Systematische Fehler treten bei experimentell oder anders gemessenen Ergebnissen auf durch unkontrollierte und oftmals kryptische deterministische Prozesse (1). Diese können so einfach sein wie ein konsistenter Fehler des Bedieners. Typischer jedoch entstehen Fehler aus einer unkontrollierten experimentellen Variable oder Ungenauigkeit der Instrumente. Ungenauigkeit der Instrumente resultiert aus einer Fehlfunktion oder dem Fehlen einer Kalibrierung. Unkontrollierte Variable können die Größenordnung einer Messung beeinflussen und/oder den Verlauf eines Experimentes. Abbildung 1 zeigt die Auswirkung einer unkontrollierten Variable. Sie stammt aus meinen eigenen Arbeiten (2, 3):

Abbildung 1: Links: Titration gelösten Eisens [ferrous iron] unter Bedingungen, die ungeplant eine Spur Luft in das Experiment gelangen lassen. Kleine Graphik darin: Die inkorrekten Daten folgen präzise der Gleichgewichts-Thermodynamik. Rechts: das gleiche Experiment, aber mit einer angemessen strikten Abwehr von Luft. Die Daten sind total unterschiedlich. Kleine Graphik rechts: die korrekten Daten zeigen eine ausgesprochen unterschiedliche Thermodynamik.

Abbildung 1 zeigt, dass der unbeabsichtigte Eintritt einer Spur Luft ausreichte, um den Verlauf des Experimentes vollkommen zu verändern. Nichtsdestotrotz zeigen die fehlerhaften Daten ein kohärentes Verhalten und folgen einer Trajektorie, die vollkommen konsistent ist mit der Gleichgewichts-Thermodynamik. In allen Erscheinungen war das Experiment gültig. Isoliert betrachtet sind die Daten überzeugend. Allerdings sind sie vollständig falsch, weil die eingetretene Luft das Eisen chemisch modifiziert hat.

Abbildung 1 zeigt exemplarisch die Gefahr eines systematischen Fehlers. Kontaminierte experimentell oder anders gemessene Ergebnisse können sich genau wie gute Daten verhalten und daherkommen sowie rigoros validen physikalischen Theorien folgen. Lässt man hier keine Vorsicht walten, laden solche Daten zu falschen Schlussfolgerungen ein.

Ein systematischer Fehler ist seiner Natur nach schwer zu erkennen und zu entfernen. Zu den Methoden der Entfernung gehören sorgfältige Kalibrierung der Instrumente unter Bedingungen, die mit der Messung oder dem Experiment identisch sind. Methodisch unabhängige Experimente, die das gleiche Phänomen behandeln, bieten eine Möglichkeit, die Ergebnisse zu prüfen. Sorgfältige Aufmerksamkeit bzgl. dieser Verfahren ist Standard in den experimentellen physikalischen Wissenschaften.

Die jüngste Entwicklung einer neuen und höchst genauen Atomuhr zeigt die extreme Vorsicht, die Physiker walten lassen, wenn sie systematische Fehler eliminieren wollen. Kritisch für die Erreichung einer Genauigkeit von 10^-18 Sekunden war die Ausmerzung eines systematischen Fehlers, den die Schwarzkörperstrahlung des Instrumentes selbst erzeugte (4).

Abbildung 2 [oben rechts]: Nahaufnahme der neuen Atomuhr. Das Zeitmess-Element ist ein Cluster fluoreszierender Strontium-Atome, eingehüllt in ein optisches Netz. Thermisches Rauschen wird entfernt mittels Daten eines Sensors, der die Schwarzkörper-Temperatur des Instrumentes misst.

Abschließend hierzu: Ein systematischer Fehler mittelt sich mit wiederholten Messungen nicht heraus. Die Wiederholung kann den Fehler sogar verstärken. Wenn systematische Fehler nicht eliminiert werden können, um deren Existenz man aber weiß, müssen Angaben zur Unsicherheit zusammen mit den Daten angezeigt werden. In graphischen Präsentationen gemessener oder gerechneter Daten wird der systematische Fehler durch Balken der Fehlerbandbreite repräsentiert (1). Jene Balken geben Aufschluss über die Zuverlässigkeit des Ergebnisses.

2. Systematische Fehler bei Temperaturmessungen

2.1 Lufttemperatur auf dem Festland

Während des größten Teils des 20. Jahrhunderts wurden die Temperaturen auf dem Festland mittels eines Thermometers gemessen, in dem sich eine Flüssigkeit hinter Glas befand. Es war eingebettet in eine Wetterhütte (5, 6). Nach etwa 1985 kamen Thermistoren oder Platin-Widerstands-Thermometer (PRT) zum Einsatz, die sich in einer unbelüfteten zylindrischen Plastikumhüllung befanden. Dies erfolgte in Europa, den Anglo-Pazifischen Ländern und den USA. Seit dem Jahr 2000 platzierte das Climate Research Network der USA Sensoren in einer belüfteten Umhüllung, die ein Trio von PRTs enthielten (5, 7, 8, 9). Eine belüftete Schutzhülle enthält einen kleinen Ventilator, der für einen Austausch der Luft im Inneren der Hülle mit der Außenluft sorgt.

Unbelüftete Sensoren stützen sich auf vorherrschenden Wind zur Ventilation. Sonnenstrahlung kann die Umhüllung des Sensors aufheizen, was die Innenluft um den Sensor erwärmt. Im Winter kann aufwärts gerichtete Strahlung durch die Albedo einer schneebedeckten Erdoberfläche ebenfalls einen Warm-Bias erzeugen (10). Zu bedeutenden systematischen Messfehlern kommt es, wenn die Windgeschwindigkeit unter 5 m/s liegt (9, 11).

Abbildung 3: Der Plaine Morte Glacier in der Schweiz. Hier wird gezeigt, wie das Experiment der Kalibrierung des Lufttemperatur-Sensors von Huwald et al. während der Jahre 2007 und 2008 durchgeführt worden ist (12). Eingebettet: Nahaufnahmen der PRT und Schall-Anemometer-Sensoren. Bild: Bou-Zeid, Martinet, Huwald, Couach, 2.2006 EPFL-ENAC.

Bei den während der Jahre 2007 und 2008 durchgeführten Kalibrierungs-Experimenten auf dem Gletscher (Abbildung 3) wurde die Feld-Genauigkeit des RM Young PRT innerhalb einer unbelüfteten Umhüllung über einer schneebedeckten Oberfläche getestet. Im Labor kann der RM Young Sensor mit einer Genauigkeit von ±0,1°C anzeigen. Die Genauigkeit auf dem Feld wurde bestimmt durch den Vergleich von Lufttemperaturen, gemessen mittels eines Schall-Anemometers, wobei der Effekt ausgenutzt wird, dass die Temperatur Einfluss auf die Schallgeschwindigkeit in der Luft hat. Dies ist unabhängig von Strahlung und Windgeschwindigkeit.

Abbildung 4: Gleichzeitig aufgezeichnete Temperaturtrends auf dem Plaine Morte-Gletscher von Februar bis April 2007. (¾), Sonic anemometer, and; (¾), RM Young PRT probe.

Abbildung 4 zeigt, dass bei identischen Umwelt-Bedingungen der RM Young-Sensor deutlich höhere winterliche Lufttemperaturen aufgezeichnet hat als das Schall-Anemometer. Die Neigung des RM Young-Temperaturtrends ist auch mehr als dreimal größer. Verglichen mit einem üblichen Mittel würde der Fehler von RM Young einen unechten Erwärmungstrend in ein globales Temperaturmittel einbringen. Die noch größere Bedeutung dieses Ergebnisses ist, dass RM Young im Design und der Reaktion sehr ähnlich ist den verbesserten Temperaturmessungen, die weltweit seit etwa 1985 verwendet werden.

Abbildung 5 zeigt ein Histogramm des systematischen Temperaturfehlers, der beim RM Young in Erscheinung tritt.

Abbildung 5: Systematischer Fehler von RM Young auf dem Plaine Morte-Gletscher. Der Fehler tagsüber beträgt 2.0°C ± 1.4°C, der Fehler nachts 0.03°C ± 0.32°C.

Die systematischen Fehler von RM Young bedeuten, dass im Falle des Fehlens eines unabhängigen Kalibrierungs-Instrumentes jedwede gegebene tägliche Mitteltemperatur eine damit verbundene Unsicherheit von 1°C ± 1.4°C aufweist [an 1s uncertainty]. Abbildung 5 zeigt, dass diese Unsicherheit weder zufällig verteilt noch konstant ist. Sie kann nicht entfernt werden durch Mittelung individueller Messungen oder wenn man Anomalien heranzieht. Die Subtraktion des mittleren Bias‘ wird nicht die normale 1s-Unsicherheit [?] entfernen. Fügt man die Temperaturaufzeichnung der RM Young-Station in ein globales Mittel ein, wird dies den mittleren Fehler mit hineintragen.

Vor der Inklusion in einem globalen Mittel werden Temperaturreihen individueller meteorologischer Stationen statistischen Tests der Datenqualität unterzogen (13). Von den Lufttemperaturen weiß man, dass sie eine Korrelation von R = 0,5 über Entfernungen von etwa 1200 km zeigen (14, 15). Der erste Test der Qualitätskontrolle jeder gegebenen Stationsaufzeichnung enthält einen statistischen Check der Korrelation mit Temperaturreihen benachbarter Stationen. Abbildung 6 zeigt, dass eine mit dem RM Young-Fehler kontaminierte Temperaturreihe diesen grundlegendsten aller Tests bestehen wird. Außerdem wird die irrige RM Young-Aufzeichnung jeden einzelnen statistischen Test bestehen, der bzgl. der Qualitätskontrolle von Aufzeichnungen meteorologischer Stationen weltweit durchgeführt wird.

Abbildung 6: Korrelation der RM Young-Temperaturmessungen mit jenen des Schall-Anemometers. Eingebettet: Abbildung 1a aus (14), die Korrelationen von Temperaturaufzeichnungen zeigt von meteorologischen Stationen im terrestrischen Netz 65° bis 70°N, 0° bis 5° E. Bei einer Korrelation von 0,5 beträgt die Länge bis zu 1400 km.

Abbildung 7: Kalibrierungs-Experiment an der University of Nebraska in Lincoln (aus (11), Abbildung 1); E, MMTS shield; F, CRS shield; G, the aspirated RM Young reference.

Abbildung 7 zeigt das screen-type [?] Kalibrierungs-Experiment an der University of Nebraska. Jeder Typ enthielt den identischen HMP45C-Sensor (11). Die Referenz-Temperaturen der Kalibrierung wurden mittels eines belüfteten RM Young PRT erhalten, eingestuft als akkurat bis < ±0.2°C bei einer Sonneneinstrahlung unter 1100 W/m².

Diese unabhängigen Kalibrierungs-Experimente testeten die Auswirkung einer Vielfalt von allgemein verwendeten Typen zur Genauigkeit von Lufttemperatur-Messungen durch PRT (10, 11, 18). Unter den Typen waren auch das allgemeine Cotton Regional Shelter (CRS, Stevenson screen) und der MMTS-Screen, der jetzt allgemein verwendet wird in den USHCN-Daten.

Abbildung 8: Mittlerer systematischer Messfehler eines HMP45C-Sensors innerhalb eines MMTS über einer Gras-Oberfläche (oben) und einer schneebedeckten Oberfläche (unten) (10, 11).

Abbildung 8 oben zeigt den mittleren systematischen Messfehler einer MMTS-Umhüllung, der auf eine PRT-Temperaturmessung angewendet wird. Den Fehler fand man während des Kalibrierungs-Experimentes der Abbildung 7 (11). Abbildung 8 unten zeigt die Ergebnisse einer unabhängigen PRT/MMTS-Kalibrierung über einer schneebedeckten Oberfläche (10). Die mittlere jährliche systematische Unsicherheit, die von dem MMTS erzeugt wird, kann aus diesen Daten berechnet werden zu 1s = 0.32°C ± 0.23°C. Die verzerrte Warm-Bias-Verteilung des Fehlers über Schnee ist größenordnungsmäßig ähnlich der unbelüfteten RM Young-Hülle beim Plaine Morten-Experiment (Abbildung 5).

Abbildung 9 zeigt den mittleren systematischen Messfehler erzeugt von einer PRT-Stichprobe innerhalb einer traditionellen CRS-Umhüllung (11).

Abbildung 9: der mittlere systematische Tag-Nacht-Messfehler, erzeugt von einer PRT-Temperaturstichprobe innerhalb einer traditionellen CRS-Hütte.

Der Warm-Bias in den Daten ist offensichtlich, ebenso wie die Nicht-Normalverteilung des Fehlers. Die systematische Unsicherheit der CRS-Hütte betrug 1s = 0.44°C ± 0.41°C. Die HMP45C-PRT-Stichprobe ist mindestens genauso akkurat wie das traditionelle LiG-Thermometer innerhalb der Wetterhütte (19, 20). Mittels des PRT/CRS-Experimentes kann man dann eine untere Grenze der systematischen Messunsicherheit abschätzen, der in den Festlands-Temperaturaufzeichnungen im gesamten 19. und fast dem ganzen 20. Jahrhundert enthalten ist.

2.2 Wassertemperatur

Obwohl erhebliche Bemühungen aufgewendet wurden, um die Wassertemperaturen besser zu verstehen (21 bis 28), gab es nur sehr wenige Feld-Kalibrierungs-Experimente der Wassertemperatur-Sensoren. Eimermessungen sowie solche in Kühlwasser von Schiffen ergaben den Hauptanteil von Messungen der Wassertemperatur Anfang und Mitte des 20. Jahrhunderts. Auf Fest- und Treibbojen montierte Sensoren kamen seit etwa 1980 immer stärker zum Einsatz. Inzwischen dominieren sie die Messungen der Wassertemperatur (29). Die Aufmerksamkeit gilt den Kalibrierungs-Studien dieser Instrumente.

Die von Charles Brooks im Jahre 1926 durchgeführten Reihen-Experimente sind bei weitem die umfassendsten Feld-Kalibrierungen von Messungen der Wassertemperatur mit Eimern und im Kühlwasser von Schiffen, die jemals von einem einzelnen individuellen Wissenschaftler durchgeführt worden waren (30). Abbildung 10 zeigt typische Beispiele des systematischen Fehlers dieser Messungen, die Brooks gefunden hatte.

Abbildung 10: Systematischer Messfehler in einem Satz von Messungen der Wassertemperatur im Kühlwasser- (links) und mit Eimermessungen (rechts) wie von Brooks beschrieben (30).

Brooks stellte auch einen Mann ab, der die Messungen an Bord des Schiffes überwachen sollte, nachdem er seine Experimente abgeschlossen hatte und von Bord gegangen war. Die Fehler nach seinem Verlassen des Schiffes waren etwa doppelt so groß als mit ihm an Bord. Die einfachste Erklärung hierfür ist, dass die Sorgfalt schwand, vielleicht zurück zum Normalen, wenn niemand schaute. Dieses Ergebnis verletzt die Standard-Hypothese, dass Fehler von Temperatursensoren für jedes einzelne Schiff konstant sind.

Im Jahre 1963 beschrieb Saur das größte Feld-Kalibrierungs-Experiment von Thermometern in Kühlwasser, durchgeführt von Freiwilligen an Bord von 12 Transportschiffen des US-Militärs, die vor der US-Pazifikküste operierten (31). Das Experiment enthielt auch 6826 Beobachtungs-Paare. Abbildung 11 zeigt die experimentellen Ergebnisse einer Fahrt eines Schiffes.

Abbildung 11: Systematischer Fehler in gemessenen Kühlwasser-Temperaturen an Bord eines Militär-Transportschiffes, das im Juni/Juli 1959 operierte. Der mittlere systematische Bias und die Unsicherheit in diesen Daten beträgt 1s = 0.9°C ± 0.6°C.

Saur bezeichnete die Abbildung 11 als „eine typische Verteilung der Unterschiede“, die auf den verschiedenen Schiffen aufgetreten waren. Die ±0.6°C-Unsicherheit hinsichtlich des mittleren systematischen Fehlers ist vergleichbar mit den von Brooks genannten Werten in Abbildung 10.

Saur schloss seinen Bericht mit den Worten: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen beim Vergleich mit den Wassertemperaturen an der Ozeanoberfläche wird innerhalb des 95%-Vertrauensintervalls abgeschätzt mit 0,67°C ± 0,33°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung der Unterschiede zwischen den Schiffen wird mit 0,9°C geschätzt. Folglich sind die in Gegenwart und Vergangenheit gemessenen Wassertemperaturdaten ohne verbesserte Qualitätskontrolle zum größten Teil nur geeignet für allgemeine klimatologische Studien“. Saurs Sorgfalt ist aufschlussreich, wurde aber offensichtlich von Konsens-Wissenschaftlern missbraucht.

Messungen mittels Bathythermographen (BT) und Einmal-Bathythermographen (XBT) haben ebenfalls bedeutend zu den Wassertemperatur-Aufzeichnungen beigetragen (32). Extensive BT und XBT-Kalibrierungs-Experimente zeigten multiple Quellen systematischer Fehler, hauptsächlich durch mechanische Probleme und Kalibrierungsfehler (33 bis 35). Relativ zu einem reversing Thermometer-Standard [?] zeigten BT-Feldmessungen einen Fehler von ±s = 0.34°C ± 0.43°C (35). Diese Standardabweichung ist mehr als doppelt so groß wie wie die vom Hersteller genannte Genauigkeit von ±0,2°C und reflektiert den Einfluss unkontrollierter Feldvariablen.

Die SST-Sensoren in treibenden und festen Bojen wurden während des 20.Jahrhunderts niemals feld-kalibriert, so dass keine allgemeine Schätzung systematischer Messfehler vorgenommen werden konnte.

Allerdings hat Emery einen 1s = ±0.3°C-Fehler geschätzt mittels eines Vergleichs der Wassertemperatur von Treibbojen, die sich nicht weiter als 5 km voneinander entfernt hatten (28). Wassertemperatur-Messungen bei Entfernungen unter 10 km werden als übereinstimmend betrachtet.

Eine ähnliche Größenordnung des Bojenfehlers von ±0,26°C wurde relativ zu den Wassertemperaturdaten gefunden, die aus Advanced Along-Track Scanning Radiometer (AATSR)-Satellitendaten abgeleitet worden waren. Die Fehlerverteilungen waren nicht-normal.

In noch jüngerer Zeit wurden ARGO-Bojen feld-kalibriert gegen sehr genaue CTD-Messungen (CTD = conductivity-temperature-depth). Sie zeigten mittlere RMS-Fehler von ±0,56°C (37). Dies ist größenordnungsmäßig ähnlich der gemessenen mittleren Differenz von ±0,58°C in buoy-Advanced Microwave Scanning Radiometer (AMSR)-Satellitendaten (38).

3.Diskussion

Bis vor Kurzem (39, 40) waren systematische Temperatursensor-Messfehler niemals erwähnt worden bei der Berichterstattung bzgl. Ursprung, Bewertung und Berechnung der globalen mittleren Lufttemperatur. Auch in Fehleranalysen hatten sie niemals Eingang gefunden (15, 16, 39 bis 46). Selbst nach der Nennung systematischer Fehler in der veröffentlichten Literatur in letzter Zeit wird jedoch das Central Limit Theorem herangezogen um abzuschätzen, dass diese sich zu Null mitteln (36). Allerdings sind systematische Temperatursensor-Fehler weder zufällig verteilt noch zeitlich, räumlich oder von Instrument zu Instrument konstant. Es gibt keinen theoretischen Grund zu erwarten, dass diese Fehler dem Central Limit Theorem folgen (47, 48) oder dass solche Fehler reduziert oder eliminiert werden durch Mittelung multipler Messungen; selbst wenn diese Messungen millionenfach durchgeführt werden. Eine vollständige Inventur der Beiträge zur Unsicherheit in den Aufzeichnungen der Lufttemperatur muss den systematischen Messfehler des Temperatursensors selbst enthalten; tatsächlich muss sie damit beginnen (39).

Die WMO bietet nützliche Ratschläge an hinsichtlich systematischer Fehler (20). Es heißt dort in Abschnitt

1.6.4.2.3 Abschätzung des wahren Wertes – zusätzliche Bemerkungen:

In der Praxis enthalten Messungen sowohl zufällige als auch systematische Fehler. In jedem Falle muss der gemessene mittlere Wert um den systematischen Fehler korrigiert werden, soweit dieser bekannt ist. Wenn man das tut, bleibt die Schätzung des wahren Wertes ungenau wegen der zufälligen Fehler und wegen jedweder unbekannter Komponenten des systematischen Fehlers. Der Unsicherheit des systematischen Fehlers sollten Grenzen gesetzt werden. Sie sollten den Zufallsfehlern hinzugefügt werden, um die Gesamt-Unsicherheit zu ermitteln. Solange jedoch die Unsicherheit des systematischen Fehlers nicht in Wahrscheinlichkeits-Termen ausgedrückt und geeignet mit dem Zufallsfehler kombiniert werden kann, ist das Vertrauensniveau unbekannt. Es ist daher wünschenswert, dass der systematische Fehler vollständig bestimmt wird.

Bei der Erstellung der globalen mittleren Lufttemperatur lagen Angaben der WMO bisher bei der Erstellung der globalen mittleren Temperatur brach.

Systematische Sensorfehler bei Messungen der Luft- und Wassertemperatur waren beklagenswert gering geachtet worden, und es gab nur sehr wenige Feld-Kalibrierungen. Nichtsdestotrotz wird aus den berichteten Fällen klar, dass die Aufzeichnung der Lufttemperatur kontaminiert ist mit einem sehr signifikanten Niveau systematischer Messfehler. Die Nicht-Normalität systematischer Fehler bedeutet, dass die Subtraktion eines mittleren Bias‘ die Messungenauigkeit des globalen Temperaturmittels nicht beseitigen wird.

Außerdem ist die Größenordnung des systematischen Fehlerbias‘ der Messungen von Luft- und Wassertemperatur offensichtlich genauso räumlich und zeitlich variabel wie die Größenordnung der Standardabweichung der systematischen Unsicherheit über den mittleren Fehlerbias. Das heißt, der mittlere systematische Fehlerbias über Schnee auf dem Plaine Morte-Gletscher betrug 2°C, jedoch nur 0,4°C über Schnee in Lincoln, Nebraska. Ähnliche Differenzen wurden von Brooks und Saur auch beim Fehlermittelwert von Kühlwasser gemeldet. Daher wird die Eliminierung eines mittleren Bias‘ um einen geschätzten Betrag immer die Größenordnungs-Mehrdeutigkeit des verbleibenden mittleren Bias‘ hinterlassen. In jeder vollständigen Fehler-Evaluierung wird die verbleibende Unsicherheit des mittleren Bias‘ mit der 1s-Standardabweichung der Messunsicherheit zur Gesamt-Unsicherheit verschmelzen.

Eine vollständige Evaluierung systematischer Fehler liegt jenseits dieser Analyse. Allerdings kann ein Satz geschätzter Unsicherheits-Balken infolge des systematischen Fehlers in der Aufzeichnung der globalen mittleren Lufttemperatur berechnet werden – unter der Voraussetzung, dass die oben beschriebenen Fehler repräsentativ sind (Abbildung 12).

Die Unsicherheits-Bandbreite in Abbildung 12 (rechts) reflektiert ein Verhältnis systematischer Fehler zwischen Wasser- und Festlands-Temperatur von 0,7 zu 0,3. Quadriert bildet die Kombination von Eimer- und Kühlwassermessungen die SST-Unsicherheit vor 1990. Im gleichen Zeitintervall bildete der systematische Fehler der PRT/CRS-Sensoren (39, 40) die Unsicherheit der Festlands-Temperaturen. Treibbojen leisteten einen teilweisen Beitrag (0,25) zu der Unsicherheit bei der Wassertemperatur zwischen 1980 und 1990. Nach 1990 wurde die Fehlerbandbreite weiterhin stetig reduziert, was den zunehmenden Beitrag und die kleineren Fehler der MMTS (Festland) und Treibbojen (Wasseroberfläche) reflektiert.

Abbildung 12: Die globale mittlere Lufttemperatur im Jahre 2010, entnommen der Website der Climate Research Unit (CRU), University of East Anglia, UK (hier). Links: Unsicherheits-Bandbreite aufgrund der Beschreibung auf der CRU-Website. Rechts: Fehlerbandbreite der Unsicherheit aufgrund geschätzter systematischer Fehler der Sensormessungen innerhalb der Land- und Wasser-Aufzeichnungen. Weiteres im Text.

Abbildung 12 (rechts) ist sehr wahrscheinlich eine genauere Repräsentation des Wissensstandes als Abbildung 12 (links), jedenfalls was die Rate oder Größenordnung der Änderung der global gemittelten Änderung der Lufttemperatur seit 1850 angeht. Die überarbeitete Unsicherheits-Bandbreite repräsentiert einen nicht-normalen systematischen Fehler. Daher verliert der mittlere Trend der Lufttemperatur jedweden Status als wahrscheinlichster Trend.

Schließlich widmet Abbildung 13 der instrumentellen Auflösung der historischen meteorologischen Thermometer Aufmerksamkeit.

Abbildung 13 provozierte einige wütende Zwischenrufe aus dem Publikum in Sizilien, die nach dem Vortrag gefolgt wurden von einigen sehr groben Angriffen und einer netten E-Mail-Diskussion. Die hier vorgebrachten Argumente waren vorherrschend.

Die instrumentelle Auflösung definiert das Limit der Messgenauigkeit [measurement detection limit]. Beispielsweise waren unter den besten historischen Thermometern vom 19. bis Mitte des 20. Jahrhunderts 1°C-Einteilungen. Die Best-Case-Temperaturauflösung unter Laborbedingungen beträgt daher ±0,25°C. Darüber kann es keinen Streit geben.

Die Standard-Eimermessungen der Wassertemperatur der Challenger-Reise hatte ebenfalls eine 1°C-Abstufung. Damit kommt das gleiche Limit der Auflösung zur Anwendung.

Die besten Thermometer zur Messung des Kühlwassers bei amerikanischen Schiffen enthielten 1°C-Abstufungen; bei britischen Schiffen waren es 2°C. Die beste Auflösung ist demnach ±(0,25 bis 0,5)°C. Dies sind die bekannten Quantitäten. Auflösungs-Unsicherheiten wie systematische Fehler mitteln sich nicht heraus. Kenntnis der Messgrenzen der Instrumente-Klassen gestattet uns die Abschätzung der Auflösungs-Unsicherheit in jeder zusammengestellten historischen Aufzeichnung der Lufttemperatur.

Abbildung 13 zeigt die Grenzen der Auflösung. Darin wird die historische instrumentelle ±2s-Auflösung verglichen mit der ±2s-Unsicherheit in der veröffentlichten Temperatur-Zusammenstellung von Berkeley Earth. Die Analyse lässt sich genauso gut anwenden auf die veröffentlichten Temperaturreihen vom GISS oder der CRU/UKMet, welche die gleichen Unsicherheitsgrenzen aufweisen.

Abbildung 13: Der Trend der globalen gemittelten Lufttemperatur von Berkeley Earth mit den veröffentlichten ±2s-Unsicherheitsgrenzen in grau. Die zeitliche ±2s-Auflösung ist rot eingezeichnet. Rechts findet sich eine Zusammenstellung der best resolution limits in blau der historischen Temperatursensoren, aus denen die globalen Auflösungs-Limits berechnet worden sind.

Die global kombinierte instrumentelle Auflösung wurde mit den gleichen Teilbeiträgen berechnet wie die oben genannte Abschätzung des unteren Limits des systematischen Messfehlers. Das heißt 0,30 zu 0,70 Land- zu Wassertemperatur-Instrumenten, und der veröffentlichte fraktionale Gebrauch jeder Instrumentenart (land: CRS vs. MMTS, and; SS: buckets vs. engine intakes vs. Buoys).

Die Aufzeichnung zeigt, dass während der Jahre von 1800 bis 1860 die veröffentlichten globalen Unsicherheits-Limits von im Feld gemessenen meteorologischen Temperaturen gleich sind der Messungen unter bestmöglichen Laborbedingungen.

Nach etwa 1860 bis zum Jahr 2000 ist die veröffentlichte Auflösung kleiner als die Auflösungs-Limits der Instrumente selbst. Seit mindestens 1860 wurde die Genauigkeit aus dünner Luft hervorgezaubert.

Findet irgendjemand die veröffentlichten Unsicherheiten glaubwürdig?

Alle Ingenieure und Experimentalwissenschaftler könnten nach der Lektüre dieses Beitrags schockiert sein. Zumindest war das bei mir so. Ein Espresso hat mir geholfen.

Die Leute, die die globalen instrumentellen Aufzeichnungen zusammenstellen, haben ein experimentelles Limit stiefmütterlich behandelt, das sogar noch grundlegender ist als systematische Messfehler: Die Messgrenzen [detection limits] ihrer Instrumente. Sie haben dem keinerlei Aufmerksamkeit geschenkt.

Auflösungs-Limits und systematische Messfehler durch das Instrument selbst legen niedrigere Grenzen der Unsicherheit fest. Die in der Konsens-Klimatologie engagierten Wissenschaftler haben beides kaum beachtet.

Das ist fast so, als ob keiner von ihnen jemals eine Messung durchgeführt oder sich jemals mit einem Instrument abgemüht hätte. Es gibt keine andere rationale Erklärung für diese Missachtung als eine ausgeprägte Ignoranz gegenüber experimentellen Verfahren.

Die hier entwickelte Unsicherheits-Abschätzung zeigt, dass die Rate oder die Größenordnung der Änderung der globalen Lufttemperatur seit 1850 nicht genauer bekannt sein kann als mit ±1°C vor 1980 oder innerhalb von ±0,6°C nach 1990, jedenfalls im 95%-Intervall.

Rate und Größenordnung der Temperaturänderung seit 1850 ist buchstäblich unbekannt. Es gibt keinerlei Unterstützung für jedwedes „beispiellos“ in den Aufzeichnungen der Lufttemperatur.

Behauptungen über die höchste Temperatur jemals, selbst auf der Grundlage von 0,5°C-Differenzen, sind völlig unhaltbar und ohne jede Bedeutung.

All diese Debatten um die höchste Lufttemperatur jemals sind nicht besser als theologische Streitereien über das Unaussprechliche. Es sind nach den Worten von William F. Buckley „langweilige Spekulationen über das inhärent Unbekannte“.

Es gibt in den Temperaturaufzeichnungen keinerlei Stützung für irgendwelche Notfälle bzgl. Klima. Außer vielleicht ein Notfall der scheinbaren Kompetenz der AGW-Konsens-Wissenschaftler.

4. Danksagungen: Ich danke Prof. Hendrik Huwald und Dr. Marc Parlange von der Ecole Polytechnique Federale de Lausanne (EPFL), CH-1015 Lausanne, Schweiz, für die großzügige Überlassung der Sensor-Kalibrierungsdaten vom Plaine Morte Gletscher, die Eingang in die Abbildungen 4, 5 und 6 gefunden haben. Diese Arbeit wurde ohne jede externe Zuwendung geleistet.

5. References

[1] JCGM, Evaluation of measurement data — Guide to the expression of uncertainty in measurement 100:2008, Bureau International des Poids et Mesures: Sevres, France.

[2] Frank, P., et al., Determination of ligand binding constants for the iron-molybdenum cofactor of nitrogenase: monomers, multimers, and cooperative behavior. J. Biol. Inorg. Chem., 2001. 6(7): p. 683-697.

[3] Frank, P. and K.O. Hodgson, Cooperativity and intermediates in the equilibrium reactions of Fe(II,III) with ethanethiolate in N-methylformamide solution. J. Biol. Inorg. Chem., 2005. 10(4): p. 373-382.

[4] Hinkley, N., et al., An Atomic Clock with 10-18 Instability. Science, 2013. 341(p. 1215-1218.

[5] Parker, D.E., et al., Interdecadal changes of surface temperature since the late nineteenth century. J. Geophys. Res., 1994. 99(D7): p. 14373-14399.

[6] Quayle, R.G., et al., Effects of Recent Thermometer Changes in the Cooperative Station Network. Bull. Amer. Met. Soc., 1991. 72(11): p. 1718-1723; doi: 10.1175/1520-0477(1991)072<1718:EORTCI>2.0.CO;2.

[7] Hubbard, K.G., X. Lin, and C.B. Baker, On the USCRN Temperature system. J. Atmos. Ocean. Technol., 2005. 22(p. 1095-1101.

[8] van der Meulen, J.P. and T. Brandsma, Thermometer screen intercomparison in De Bilt (The Netherlands), Part I: Understanding the weather-dependent temperature differences). International Journal of Climatology, 2008. 28(3): p. 371-387.

[9] Barnett, A., D.B. Hatton, and D.W. Jones, Recent Changes in Thermometer Screen Design and Their Impact in Instruments and Observing Methods WMO Report No. 66, J. Kruus, Editor. 1998, World Meteorlogical Organization: Geneva.

[10] Lin, X., K.G. Hubbard, and C.B. Baker, Surface Air Temperature Records Biased by Snow-Covered Surface. Int. J. Climatol., 2005. 25(p. 1223-1236; doi: 10.1002/joc.1184.

[11] Hubbard, K.G. and X. Lin, Realtime data filtering models for air temperature measurements. Geophys. Res. Lett., 2002. 29(10): p. 1425 1-4; doi: 10.1029/2001GL013191.

[12] Huwald, H., et al., Albedo effect on radiative errors in air temperature measurements. Water Resorces Res., 2009. 45(p. W08431; 1-13.

[13] Menne, M.J. and C.N. Williams, Homogenization of Temperature Series via Pairwise Comparisons. J. Climate, 2009. 22(7): p. 1700-1717.

[14] Briffa, K.R. and P.D. Jones, Global surface air temperature variations during the twentieth century: Part 2 , implications for large-scale high-frequency palaeoclimatic studies. The Holocene, 1993. 3(1): p. 77-88.

[15] Hansen, J. and S. Lebedeff, Global Trends of Measured Surface Air Temperature. J. Geophys. Res., 1987. 92(D11): p. 13345-13372.

[16] Brohan, P., et al., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850. J. Geophys. Res., 2006. 111(p. D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.

[17] Karl, T.R., et al., The Recent Climate Record: What it Can and Cannot Tell Us. Rev. Geophys., 1989. 27(3): p. 405-430.

[18] Hubbard, K.G., X. Lin, and E.A. Walter-Shea, The Effectiveness of the ASOS, MMTS, Gill, and CRS Air Temperature Radiation Shields. J. Atmos. Oceanic Technol., 2001. 18(6): p. 851-864.

[19] MacHattie, L.B., Radiation Screens for Air Temperature Measurement. Ecology, 1965. 46(4): p. 533-538.

[20] Rüedi, I., WMO Guide to Meteorological Instruments and Methods of Observation: WMO-8 Part I: Measurement of Meteorological Variables, 7th Ed., Chapter 1. 2006, World Meteorological Organization: Geneva.

[21] Berry, D.I. and E.C. Kent, Air–Sea fluxes from ICOADS: the construction of a new gridded dataset with uncertainty estimates. International Journal of Climatology, 2011: p. 987-1001.

[22] Challenor, P.G. and D.J.T. Carter, On the Accuracy of Monthly Means. J. Atmos. Oceanic Technol., 1994. 11(5): p. 1425-1430.

[23] Kent, E.C. and D.I. Berry, Quantifying random measurement errors in Voluntary Observing Ships’ meteorological observations. Int. J. Climatol., 2005. 25(7): p. 843-856; doi: 10.1002/joc.1167.

[24] Kent, E.C. and P.G. Challenor, Toward Estimating Climatic Trends in SST. Part II: Random Errors. Journal of Atmospheric and Oceanic Technology, 2006. 23(3): p. 476-486.

[25] Kent, E.C., et al., The Accuracy of Voluntary Observing Ships’ Meteorological Observations-Results of the VSOP-NA. J. Atmos. Oceanic Technol., 1993. 10(4): p. 591-608.

[26] Rayner, N.A., et al., Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century. Journal of Geophysical Research-Atmospheres, 2003. 108(D14).

[27] Emery, W.J. and D. Baldwin. In situ calibration of satellite sea surface temperature. in Geoscience and Remote Sensing Symposium, 1999. IGARSS ’99 Proceedings. IEEE 1999 International. 1999.

[28] Emery, W.J., et al., Accuracy of in situ sea surface temperatures used to calibrate infrared satellite measurements. J. Geophys. Res., 2001. 106(C2): p. 2387-2405.

[29] Woodruff, S.D., et al., The Evolving SST Record from ICOADS, in Climate Variability and Extremes during the Past 100 Years, S. Brönnimann, et al. eds, 2007, Springer: Netherlands, pp. 65-83.

[30] Brooks, C.F., Observing Water-Surface Temperatures at Sea. Monthly Weather Review, 1926. 54(6): p. 241-253.

[31] Saur, J.F.T., A Study of the Quality of Sea Water Temperatures Reported in Logs of Ships’ Weather Observations. J. Appl. Meteorol., 1963. 2(3): p. 417-425.

[32] Barnett, T.P., Long-Term Trends in Surface Temperature over the Oceans. Monthly Weather Review, 1984. 112(2): p. 303-312.

[33] Anderson, E.R., Expendable bathythermograph (XBT) accuracy studies; NOSC TR 550 1980, Naval Ocean Systems Center: San Diego, CA. p. 201.

[34] Bralove, A.L. and E.I. Williams Jr., A Study of the Errors of the Bathythermograph 1952, National Scientific Laboratories, Inc.: Washington, DC.

[35] Hazelworth, J.B., Quantitative Analysis of Some Bathythermograph Errors 1966, U.S. Naval Oceanographic Office Washington DC.

[36] Kennedy, J.J., R.O. Smith, and N.A. Rayner, Using AATSR data to assess the quality of in situ sea-surface temperature observations for climate studies. Remote Sensing of Environment, 2012. 116(0): p. 79-92.

[37] Hadfield, R.E., et al., On the accuracy of North Atlantic temperature and heat storage fields from Argo. J. Geophys. Res.: Oceans, 2007. 112(C1): p. C01009.

[38] Castro, S.L., G.A. Wick, and W.J. Emery, Evaluation of the relative performance of sea surface temperature measurements from different types of drifting and moored buoys using satellite-derived reference products. J. Geophys. Res.: Oceans, 2012. 117(C2): p. C02029.

[39] Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A Representative Lower Limit. Energy & Environment, 2010. 21(8): p. 969-989.

[40] Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index. Energy & Environment, 2011. 22(4): p. 407-424.

[41] Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

[42] Hansen, J., et al., Global Surface Temperature Change. Rev. Geophys., 2010. 48(4): p. RG4004 1-29.

[43] Jones, P.D., et al., Surface Air Temperature and its Changes Over the Past 150 Years. Rev. Geophys., 1999. 37(2): p. 173-199.

[44] Jones, P.D. and T.M.L. Wigley, Corrections to pre-1941 SST measurements for studies of long-term changes in SSTs, in Proc. Int. COADS Workshop, H.F. Diaz, K. Wolter, and S.D. Woodruff, Editors. 1992, NOAA Environmental Research Laboratories: Boulder, CO. p. 227–237.

[45] Jones, P.D. and T.M.L. Wigley, Estimation of global temperature trends: what’s important and what isn’t. Climatic Change, 2010. 100(1): p. 59-69.

[46] Jones, P.D., T.M.L. Wigley, and P.B. Wright, Global temperature variations between 1861 and 1984. Nature, 1986. 322(6078): p. 430-434.

[47] Emery, W.J. and R.E. Thomson, Data Analysis Methods in Physical Oceanography. 2nd ed. 2004, Amsterdam: Elsevier.

[48] Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

[49] Folland, C.K., et al., Global Temperature Change and its Uncertainties Since 1861. Geophys. Res. Lett., 2001. 28(13): p. 2621-2624.

Link: https://wattsupwiththat.com/2016/04/19/systematic-error-in-climate-measurements-the-surface-air-temperature-record/

Übersetzt von Chris Frey EIKE




Glücklicherweise zeigt eine Umfrage, dass viele Klassenlehrer das Klimawandel-Dogma zurückweisen

[*Der Terminus „Science teacher“ lässt sich nur schwer übersetzen, weil es eben nicht einfach nur „Wissenschafts-Lehrer“ sind. Der Einfachheit halber übersetze ich im Folgenden immer nur mit dem Begriff „Lehrer“, gemeint sind aber immer nur die Lehrer naturwissenschaftlicher Fächer. Anm. d. Übers.]

Etwa 75 Prozent der Lehrer gaben der Umfrage zufolge an, dass sie über globale Erwärmung im Klassenraum reden, typischerweise weniger als eine Stunde oder zwei im Verlauf eines akademischen Jahres. Von jenen, die das tun, propagiert nur etwa die Hälfte aller Lehrer die falsche Behauptung der Alarmisten, der zufolge 97 Prozent aller Wissenschaftler den Verbrauch fossiler Treibstoffe seitens der Menschen als Ursache eines katastrophalen Klimawandels ausgemacht haben. Etwa 30 Prozent aller Lehrer, die über den Klimawandel sprechen sagen, dass der Mensch teilweise verantwortlich ist, räumen aber auch ein, dass natürliche Kräfte eine Rolle spielen. Etwa 10 Prozent weisen zurück, dass die Menschen überhaupt irgendeine Rolle bzgl. des Klimawandels spielen, und etwa 5% all derjenigen, die über Klimawandel im Klassenraum reden, sprechen überhaupt nicht über die Gründe dafür.

Was aber positiv ist: während 68% der Befragten angaben, dass sie persönlich an den Menschen als

Ursache für die globale Erwärmung glauben, sagen viele, dass sie ihre persönliche Meinung nicht vor der Klasse ausbreiten. Vielmehr ziehen sie es vor, die wissenschaftliche Methode zu erläutern und eine ausgeglichene Ansicht der Beweise präsentieren.

Ich habe daran gearbeitet, Parteilichkeit auf beiden Seiten der Klimawandel-Debatte aus Lehrbüchern über soziale Studien herauszuhalten – dennoch hat Texas die Übernahme im Jahre 2014 genehmigt. Außerdem habe ich darum gekämpft zu verhindern, dass ausgewogene Klimawissenschaft aus den Lehrplänen in West Virginia herausgestrichen wird. Aufgrund dieser Erfahrungen habe ich lange befürchtet, dass der Kampf um die Herzen und Gehirne der amerikanischen Jugend bzgl. Klimathemen verloren ist. Die jüngsten Ergebnisse der nationalen Umfrage sollte den Klimarealisten überall neue Hoffnung geben.

Der Klimawandel findet statt. Tatsächlich ändert sich das Klima der Erde immer, aber es gibt derzeit eine bedeutende wissenschaftliche Debatte, ob menschliche Aktivitäten für den gesamten Klimawandel, teilweise oder überhaupt nicht dafür verantwortlich sind. Trotz gegenteiliger Behauptungen einiger Alarmisten der globalen Erwärmung stimmen die Wissenschaftler noch nicht einmal in der Frage überein, ob ein wärmeres Klima vorteilhaft oder schädlich ist.

Was in den Klassenräumen unserer Nation über Klimawandel gelehrt wird, sollte die begrenzte Natur dessen reflektieren, was wir mit Vertrauen bzgl. des zukünftigen Klimas sagen können und die Gründe für jedwede Änderung. Glücklicherweise scheint es so, dass die Hälfte aller Lehrer, die das Thema Klimawandel im Unterricht behandeln, der Ansicht sind, dass man den Kindern unter ihrer Obhut diese Wahrheit lehren müsse.

Falls diese Umfrage ein genaues Bild der wirklichen Vorgänge in den Klassenzimmern der USA ist, gibt es immer noch Raum für Befürworter eines gesunden, ausgewogenen und nuancierten Verständnisses der Klimawissenschaft und der Politik, den Lehrern an Schulen genau dies nahezubringen.

Klimarealisten sollten konzertierte Bemühungen starten, um die Lehrer in die Klimawandel-Debatte einzubeziehen. Die Bemühungen sollten sich konzentrieren auf die Überredung jener 50 Prozent der Lehrer, die leugnen, dass es irgendwelche Unsicherheiten bzgl. der menschlichen Ursachen gebe und sie offener für die Infragestellung katastrophaler Konsequenzen von Klimawandel zu machen. Sie sollten Überzeugungsarbeit leisten, dass diese Lehrer anerkennen, dass natürliche Faktoren zum Klimawandel beitragen, dass ein sich änderndes Klima wahrscheinlich zu Vorteilen und Kostenersparnis führt und dass die Vorschläge, die gegenwärtig von den Regierungen zum Kampf gegen die globale Erwärmung durchgepeitscht werden, einen hohen Preis erfordern und nahezu keinen Einfluss auf steigende Temperaturen oder Wetterbedingungen haben.

Lehrer, die eine ausgewogene Präsentation der Fakten bzgl. des Klimawandels präsentieren, sollte man mit qualitativ hochwertigen Lehrmaterialien versorgen. Man sollte ihnen außerdem erlauben, Außenstehende einzuladen, die eine realistische Ansicht von Klimawissenschaft und Politik präsentieren können. Lehrer, die sich um eine profunde, ausgewogene Darstellung der Wissenschaft bemühen, sollten belohnt und gefördert werden.

Wenn man die Lehrer ermutigt, der wissenschaftlichen Methode zu folgen, für welche die stetige Praxis vernünftigen Skeptizismus‘ erforderlich ist ebenso wie das Testen der Theorie gegen beobachtete Fakten – alles angesichts des Medien-Hypes und des Druckes von Umweltaktivisten, das alarmistische Dogma in den Klassen zu lehren – könnte dies der nachhaltigste Weg sein um sicherzustellen, dass eine misanthropische Klimapolitik nicht auf eine unwissende und falsch informierte Öffentlichkeit losgelassen wird, heute nicht und in Zukunft nicht.

Falls Ihr Schulkind Sie nicht fragt, warum sie zur Zerstörung der Erde beitragen, danken Sie dem Lehrer Ihres Kindes, dass er sich an eine faire und ausgewogene Sicht auf die Klimawissenschaft gehalten hat. Falls Ihr Kind wiederholt falsche Behauptungen der Klimaalarmisten von sich gibt, dann machen Sie ihr Kind (und dessen Lehrer) mit den wissenschaftlichen Fakten vertraut.

Link: http://news.heartland.org/editorial/2016/04/05/thankfully-survey-shows-many-science-teachers-reject-climate-change-dogma

Übersetzt von Chris Frey EIKE