Systematischer Fehler bei Klimamessungen: Die Aufzeichnung der Lufttemperatur an der Erdoberfläche

Es war eine sehr interessante Konferenz, und als Nebenaspekt nahm ich mit nach Hause, dass der kurzfristige Notfall die islamistische Gewalt ist und der langfristige Notfall, dass irgendwelche Riesen-Meteore auf die Erde stürzen. Aber bitte, gleiten Sie bei der Diskussion zu diesem Vortrag nicht in diese beiden Themen ab.

Abstract: Ursprünglich war das Abstract länger, aber hier folgt die Kurzform. Jene, die die globalen gemittelten Lufttemperaturen zusammenstellen, haben nicht nur systematische Messfehler (siehe auch hier) ignoriert, sondern haben sogar auch die Messgenauigkeit der Instrumente selbst in Abrede gestellt. Seit mindestens dem Jahr 1860 wurde die Thermometer-Genauigkeit nur vage berücksichtigt. Ebenfalls seit jenem Jahr sowie im 95%-Vertrauens-Intervall ist die Rate oder Größenordnung des globalen Anstiegs der Lufttemperatur nicht erkennbar. Gegenwärtiger Streit über die Lufttemperatur und seiner Beispiellosigkeit ist spekulative Theologie.

1. Einführung: Systematischer Fehler

Systematische Fehler treten bei experimentell oder anders gemessenen Ergebnissen auf durch unkontrollierte und oftmals kryptische deterministische Prozesse (1). Diese können so einfach sein wie ein konsistenter Fehler des Bedieners. Typischer jedoch entstehen Fehler aus einer unkontrollierten experimentellen Variable oder Ungenauigkeit der Instrumente. Ungenauigkeit der Instrumente resultiert aus einer Fehlfunktion oder dem Fehlen einer Kalibrierung. Unkontrollierte Variable können die Größenordnung einer Messung beeinflussen und/oder den Verlauf eines Experimentes. Abbildung 1 zeigt die Auswirkung einer unkontrollierten Variable. Sie stammt aus meinen eigenen Arbeiten (2, 3):

Abbildung 1: Links: Titration gelösten Eisens [ferrous iron] unter Bedingungen, die ungeplant eine Spur Luft in das Experiment gelangen lassen. Kleine Graphik darin: Die inkorrekten Daten folgen präzise der Gleichgewichts-Thermodynamik. Rechts: das gleiche Experiment, aber mit einer angemessen strikten Abwehr von Luft. Die Daten sind total unterschiedlich. Kleine Graphik rechts: die korrekten Daten zeigen eine ausgesprochen unterschiedliche Thermodynamik.

Abbildung 1 zeigt, dass der unbeabsichtigte Eintritt einer Spur Luft ausreichte, um den Verlauf des Experimentes vollkommen zu verändern. Nichtsdestotrotz zeigen die fehlerhaften Daten ein kohärentes Verhalten und folgen einer Trajektorie, die vollkommen konsistent ist mit der Gleichgewichts-Thermodynamik. In allen Erscheinungen war das Experiment gültig. Isoliert betrachtet sind die Daten überzeugend. Allerdings sind sie vollständig falsch, weil die eingetretene Luft das Eisen chemisch modifiziert hat.

Abbildung 1 zeigt exemplarisch die Gefahr eines systematischen Fehlers. Kontaminierte experimentell oder anders gemessene Ergebnisse können sich genau wie gute Daten verhalten und daherkommen sowie rigoros validen physikalischen Theorien folgen. Lässt man hier keine Vorsicht walten, laden solche Daten zu falschen Schlussfolgerungen ein.

Ein systematischer Fehler ist seiner Natur nach schwer zu erkennen und zu entfernen. Zu den Methoden der Entfernung gehören sorgfältige Kalibrierung der Instrumente unter Bedingungen, die mit der Messung oder dem Experiment identisch sind. Methodisch unabhängige Experimente, die das gleiche Phänomen behandeln, bieten eine Möglichkeit, die Ergebnisse zu prüfen. Sorgfältige Aufmerksamkeit bzgl. dieser Verfahren ist Standard in den experimentellen physikalischen Wissenschaften.

Die jüngste Entwicklung einer neuen und höchst genauen Atomuhr zeigt die extreme Vorsicht, die Physiker walten lassen, wenn sie systematische Fehler eliminieren wollen. Kritisch für die Erreichung einer Genauigkeit von 10^-18 Sekunden war die Ausmerzung eines systematischen Fehlers, den die Schwarzkörperstrahlung des Instrumentes selbst erzeugte (4).

Abbildung 2 [oben rechts]: Nahaufnahme der neuen Atomuhr. Das Zeitmess-Element ist ein Cluster fluoreszierender Strontium-Atome, eingehüllt in ein optisches Netz. Thermisches Rauschen wird entfernt mittels Daten eines Sensors, der die Schwarzkörper-Temperatur des Instrumentes misst.

Abschließend hierzu: Ein systematischer Fehler mittelt sich mit wiederholten Messungen nicht heraus. Die Wiederholung kann den Fehler sogar verstärken. Wenn systematische Fehler nicht eliminiert werden können, um deren Existenz man aber weiß, müssen Angaben zur Unsicherheit zusammen mit den Daten angezeigt werden. In graphischen Präsentationen gemessener oder gerechneter Daten wird der systematische Fehler durch Balken der Fehlerbandbreite repräsentiert (1). Jene Balken geben Aufschluss über die Zuverlässigkeit des Ergebnisses.

2. Systematische Fehler bei Temperaturmessungen

2.1 Lufttemperatur auf dem Festland

Während des größten Teils des 20. Jahrhunderts wurden die Temperaturen auf dem Festland mittels eines Thermometers gemessen, in dem sich eine Flüssigkeit hinter Glas befand. Es war eingebettet in eine Wetterhütte (5, 6). Nach etwa 1985 kamen Thermistoren oder Platin-Widerstands-Thermometer (PRT) zum Einsatz, die sich in einer unbelüfteten zylindrischen Plastikumhüllung befanden. Dies erfolgte in Europa, den Anglo-Pazifischen Ländern und den USA. Seit dem Jahr 2000 platzierte das Climate Research Network der USA Sensoren in einer belüfteten Umhüllung, die ein Trio von PRTs enthielten (5, 7, 8, 9). Eine belüftete Schutzhülle enthält einen kleinen Ventilator, der für einen Austausch der Luft im Inneren der Hülle mit der Außenluft sorgt.

Unbelüftete Sensoren stützen sich auf vorherrschenden Wind zur Ventilation. Sonnenstrahlung kann die Umhüllung des Sensors aufheizen, was die Innenluft um den Sensor erwärmt. Im Winter kann aufwärts gerichtete Strahlung durch die Albedo einer schneebedeckten Erdoberfläche ebenfalls einen Warm-Bias erzeugen (10). Zu bedeutenden systematischen Messfehlern kommt es, wenn die Windgeschwindigkeit unter 5 m/s liegt (9, 11).

Abbildung 3: Der Plaine Morte Glacier in der Schweiz. Hier wird gezeigt, wie das Experiment der Kalibrierung des Lufttemperatur-Sensors von Huwald et al. während der Jahre 2007 und 2008 durchgeführt worden ist (12). Eingebettet: Nahaufnahmen der PRT und Schall-Anemometer-Sensoren. Bild: Bou-Zeid, Martinet, Huwald, Couach, 2.2006 EPFL-ENAC.

Bei den während der Jahre 2007 und 2008 durchgeführten Kalibrierungs-Experimenten auf dem Gletscher (Abbildung 3) wurde die Feld-Genauigkeit des RM Young PRT innerhalb einer unbelüfteten Umhüllung über einer schneebedeckten Oberfläche getestet. Im Labor kann der RM Young Sensor mit einer Genauigkeit von ±0,1°C anzeigen. Die Genauigkeit auf dem Feld wurde bestimmt durch den Vergleich von Lufttemperaturen, gemessen mittels eines Schall-Anemometers, wobei der Effekt ausgenutzt wird, dass die Temperatur Einfluss auf die Schallgeschwindigkeit in der Luft hat. Dies ist unabhängig von Strahlung und Windgeschwindigkeit.

Abbildung 4: Gleichzeitig aufgezeichnete Temperaturtrends auf dem Plaine Morte-Gletscher von Februar bis April 2007. (¾), Sonic anemometer, and; (¾), RM Young PRT probe.

Abbildung 4 zeigt, dass bei identischen Umwelt-Bedingungen der RM Young-Sensor deutlich höhere winterliche Lufttemperaturen aufgezeichnet hat als das Schall-Anemometer. Die Neigung des RM Young-Temperaturtrends ist auch mehr als dreimal größer. Verglichen mit einem üblichen Mittel würde der Fehler von RM Young einen unechten Erwärmungstrend in ein globales Temperaturmittel einbringen. Die noch größere Bedeutung dieses Ergebnisses ist, dass RM Young im Design und der Reaktion sehr ähnlich ist den verbesserten Temperaturmessungen, die weltweit seit etwa 1985 verwendet werden.

Abbildung 5 zeigt ein Histogramm des systematischen Temperaturfehlers, der beim RM Young in Erscheinung tritt.

Abbildung 5: Systematischer Fehler von RM Young auf dem Plaine Morte-Gletscher. Der Fehler tagsüber beträgt 2.0°C ± 1.4°C, der Fehler nachts 0.03°C ± 0.32°C.

Die systematischen Fehler von RM Young bedeuten, dass im Falle des Fehlens eines unabhängigen Kalibrierungs-Instrumentes jedwede gegebene tägliche Mitteltemperatur eine damit verbundene Unsicherheit von 1°C ± 1.4°C aufweist [an 1s uncertainty]. Abbildung 5 zeigt, dass diese Unsicherheit weder zufällig verteilt noch konstant ist. Sie kann nicht entfernt werden durch Mittelung individueller Messungen oder wenn man Anomalien heranzieht. Die Subtraktion des mittleren Bias‘ wird nicht die normale 1s-Unsicherheit [?] entfernen. Fügt man die Temperaturaufzeichnung der RM Young-Station in ein globales Mittel ein, wird dies den mittleren Fehler mit hineintragen.

Vor der Inklusion in einem globalen Mittel werden Temperaturreihen individueller meteorologischer Stationen statistischen Tests der Datenqualität unterzogen (13). Von den Lufttemperaturen weiß man, dass sie eine Korrelation von R = 0,5 über Entfernungen von etwa 1200 km zeigen (14, 15). Der erste Test der Qualitätskontrolle jeder gegebenen Stationsaufzeichnung enthält einen statistischen Check der Korrelation mit Temperaturreihen benachbarter Stationen. Abbildung 6 zeigt, dass eine mit dem RM Young-Fehler kontaminierte Temperaturreihe diesen grundlegendsten aller Tests bestehen wird. Außerdem wird die irrige RM Young-Aufzeichnung jeden einzelnen statistischen Test bestehen, der bzgl. der Qualitätskontrolle von Aufzeichnungen meteorologischer Stationen weltweit durchgeführt wird.

Abbildung 6: Korrelation der RM Young-Temperaturmessungen mit jenen des Schall-Anemometers. Eingebettet: Abbildung 1a aus (14), die Korrelationen von Temperaturaufzeichnungen zeigt von meteorologischen Stationen im terrestrischen Netz 65° bis 70°N, 0° bis 5° E. Bei einer Korrelation von 0,5 beträgt die Länge bis zu 1400 km.

Abbildung 7: Kalibrierungs-Experiment an der University of Nebraska in Lincoln (aus (11), Abbildung 1); E, MMTS shield; F, CRS shield; G, the aspirated RM Young reference.

Abbildung 7 zeigt das screen-type [?] Kalibrierungs-Experiment an der University of Nebraska. Jeder Typ enthielt den identischen HMP45C-Sensor (11). Die Referenz-Temperaturen der Kalibrierung wurden mittels eines belüfteten RM Young PRT erhalten, eingestuft als akkurat bis < ±0.2°C bei einer Sonneneinstrahlung unter 1100 W/m².

Diese unabhängigen Kalibrierungs-Experimente testeten die Auswirkung einer Vielfalt von allgemein verwendeten Typen zur Genauigkeit von Lufttemperatur-Messungen durch PRT (10, 11, 18). Unter den Typen waren auch das allgemeine Cotton Regional Shelter (CRS, Stevenson screen) und der MMTS-Screen, der jetzt allgemein verwendet wird in den USHCN-Daten.

Abbildung 8: Mittlerer systematischer Messfehler eines HMP45C-Sensors innerhalb eines MMTS über einer Gras-Oberfläche (oben) und einer schneebedeckten Oberfläche (unten) (10, 11).

Abbildung 8 oben zeigt den mittleren systematischen Messfehler einer MMTS-Umhüllung, der auf eine PRT-Temperaturmessung angewendet wird. Den Fehler fand man während des Kalibrierungs-Experimentes der Abbildung 7 (11). Abbildung 8 unten zeigt die Ergebnisse einer unabhängigen PRT/MMTS-Kalibrierung über einer schneebedeckten Oberfläche (10). Die mittlere jährliche systematische Unsicherheit, die von dem MMTS erzeugt wird, kann aus diesen Daten berechnet werden zu 1s = 0.32°C ± 0.23°C. Die verzerrte Warm-Bias-Verteilung des Fehlers über Schnee ist größenordnungsmäßig ähnlich der unbelüfteten RM Young-Hülle beim Plaine Morten-Experiment (Abbildung 5).

Abbildung 9 zeigt den mittleren systematischen Messfehler erzeugt von einer PRT-Stichprobe innerhalb einer traditionellen CRS-Umhüllung (11).

Abbildung 9: der mittlere systematische Tag-Nacht-Messfehler, erzeugt von einer PRT-Temperaturstichprobe innerhalb einer traditionellen CRS-Hütte.

Der Warm-Bias in den Daten ist offensichtlich, ebenso wie die Nicht-Normalverteilung des Fehlers. Die systematische Unsicherheit der CRS-Hütte betrug 1s = 0.44°C ± 0.41°C. Die HMP45C-PRT-Stichprobe ist mindestens genauso akkurat wie das traditionelle LiG-Thermometer innerhalb der Wetterhütte (19, 20). Mittels des PRT/CRS-Experimentes kann man dann eine untere Grenze der systematischen Messunsicherheit abschätzen, der in den Festlands-Temperaturaufzeichnungen im gesamten 19. und fast dem ganzen 20. Jahrhundert enthalten ist.

2.2 Wassertemperatur

Obwohl erhebliche Bemühungen aufgewendet wurden, um die Wassertemperaturen besser zu verstehen (21 bis 28), gab es nur sehr wenige Feld-Kalibrierungs-Experimente der Wassertemperatur-Sensoren. Eimermessungen sowie solche in Kühlwasser von Schiffen ergaben den Hauptanteil von Messungen der Wassertemperatur Anfang und Mitte des 20. Jahrhunderts. Auf Fest- und Treibbojen montierte Sensoren kamen seit etwa 1980 immer stärker zum Einsatz. Inzwischen dominieren sie die Messungen der Wassertemperatur (29). Die Aufmerksamkeit gilt den Kalibrierungs-Studien dieser Instrumente.

Die von Charles Brooks im Jahre 1926 durchgeführten Reihen-Experimente sind bei weitem die umfassendsten Feld-Kalibrierungen von Messungen der Wassertemperatur mit Eimern und im Kühlwasser von Schiffen, die jemals von einem einzelnen individuellen Wissenschaftler durchgeführt worden waren (30). Abbildung 10 zeigt typische Beispiele des systematischen Fehlers dieser Messungen, die Brooks gefunden hatte.

Abbildung 10: Systematischer Messfehler in einem Satz von Messungen der Wassertemperatur im Kühlwasser- (links) und mit Eimermessungen (rechts) wie von Brooks beschrieben (30).

Brooks stellte auch einen Mann ab, der die Messungen an Bord des Schiffes überwachen sollte, nachdem er seine Experimente abgeschlossen hatte und von Bord gegangen war. Die Fehler nach seinem Verlassen des Schiffes waren etwa doppelt so groß als mit ihm an Bord. Die einfachste Erklärung hierfür ist, dass die Sorgfalt schwand, vielleicht zurück zum Normalen, wenn niemand schaute. Dieses Ergebnis verletzt die Standard-Hypothese, dass Fehler von Temperatursensoren für jedes einzelne Schiff konstant sind.

Im Jahre 1963 beschrieb Saur das größte Feld-Kalibrierungs-Experiment von Thermometern in Kühlwasser, durchgeführt von Freiwilligen an Bord von 12 Transportschiffen des US-Militärs, die vor der US-Pazifikküste operierten (31). Das Experiment enthielt auch 6826 Beobachtungs-Paare. Abbildung 11 zeigt die experimentellen Ergebnisse einer Fahrt eines Schiffes.

Abbildung 11: Systematischer Fehler in gemessenen Kühlwasser-Temperaturen an Bord eines Militär-Transportschiffes, das im Juni/Juli 1959 operierte. Der mittlere systematische Bias und die Unsicherheit in diesen Daten beträgt 1s = 0.9°C ± 0.6°C.

Saur bezeichnete die Abbildung 11 als „eine typische Verteilung der Unterschiede“, die auf den verschiedenen Schiffen aufgetreten waren. Die ±0.6°C-Unsicherheit hinsichtlich des mittleren systematischen Fehlers ist vergleichbar mit den von Brooks genannten Werten in Abbildung 10.

Saur schloss seinen Bericht mit den Worten: „Der mittlere Bias der gemessenen Meerwasser-Temperaturen beim Vergleich mit den Wassertemperaturen an der Ozeanoberfläche wird innerhalb des 95%-Vertrauensintervalls abgeschätzt mit 0,67°C ± 0,33°C auf der Grundlage einer Stichprobe von 12 Schiffen. Die Standardabweichung der Unterschiede zwischen den Schiffen wird mit 0,9°C geschätzt. Folglich sind die in Gegenwart und Vergangenheit gemessenen Wassertemperaturdaten ohne verbesserte Qualitätskontrolle zum größten Teil nur geeignet für allgemeine klimatologische Studien“. Saurs Sorgfalt ist aufschlussreich, wurde aber offensichtlich von Konsens-Wissenschaftlern missbraucht.

Messungen mittels Bathythermographen (BT) und Einmal-Bathythermographen (XBT) haben ebenfalls bedeutend zu den Wassertemperatur-Aufzeichnungen beigetragen (32). Extensive BT und XBT-Kalibrierungs-Experimente zeigten multiple Quellen systematischer Fehler, hauptsächlich durch mechanische Probleme und Kalibrierungsfehler (33 bis 35). Relativ zu einem reversing Thermometer-Standard [?] zeigten BT-Feldmessungen einen Fehler von ±s = 0.34°C ± 0.43°C (35). Diese Standardabweichung ist mehr als doppelt so groß wie wie die vom Hersteller genannte Genauigkeit von ±0,2°C und reflektiert den Einfluss unkontrollierter Feldvariablen.

Die SST-Sensoren in treibenden und festen Bojen wurden während des 20.Jahrhunderts niemals feld-kalibriert, so dass keine allgemeine Schätzung systematischer Messfehler vorgenommen werden konnte.

Allerdings hat Emery einen 1s = ±0.3°C-Fehler geschätzt mittels eines Vergleichs der Wassertemperatur von Treibbojen, die sich nicht weiter als 5 km voneinander entfernt hatten (28). Wassertemperatur-Messungen bei Entfernungen unter 10 km werden als übereinstimmend betrachtet.

Eine ähnliche Größenordnung des Bojenfehlers von ±0,26°C wurde relativ zu den Wassertemperaturdaten gefunden, die aus Advanced Along-Track Scanning Radiometer (AATSR)-Satellitendaten abgeleitet worden waren. Die Fehlerverteilungen waren nicht-normal.

In noch jüngerer Zeit wurden ARGO-Bojen feld-kalibriert gegen sehr genaue CTD-Messungen (CTD = conductivity-temperature-depth). Sie zeigten mittlere RMS-Fehler von ±0,56°C (37). Dies ist größenordnungsmäßig ähnlich der gemessenen mittleren Differenz von ±0,58°C in buoy-Advanced Microwave Scanning Radiometer (AMSR)-Satellitendaten (38).

3.Diskussion

Bis vor Kurzem (39, 40) waren systematische Temperatursensor-Messfehler niemals erwähnt worden bei der Berichterstattung bzgl. Ursprung, Bewertung und Berechnung der globalen mittleren Lufttemperatur. Auch in Fehleranalysen hatten sie niemals Eingang gefunden (15, 16, 39 bis 46). Selbst nach der Nennung systematischer Fehler in der veröffentlichten Literatur in letzter Zeit wird jedoch das Central Limit Theorem herangezogen um abzuschätzen, dass diese sich zu Null mitteln (36). Allerdings sind systematische Temperatursensor-Fehler weder zufällig verteilt noch zeitlich, räumlich oder von Instrument zu Instrument konstant. Es gibt keinen theoretischen Grund zu erwarten, dass diese Fehler dem Central Limit Theorem folgen (47, 48) oder dass solche Fehler reduziert oder eliminiert werden durch Mittelung multipler Messungen; selbst wenn diese Messungen millionenfach durchgeführt werden. Eine vollständige Inventur der Beiträge zur Unsicherheit in den Aufzeichnungen der Lufttemperatur muss den systematischen Messfehler des Temperatursensors selbst enthalten; tatsächlich muss sie damit beginnen (39).

Die WMO bietet nützliche Ratschläge an hinsichtlich systematischer Fehler (20). Es heißt dort in Abschnitt

1.6.4.2.3 Abschätzung des wahren Wertes – zusätzliche Bemerkungen:

In der Praxis enthalten Messungen sowohl zufällige als auch systematische Fehler. In jedem Falle muss der gemessene mittlere Wert um den systematischen Fehler korrigiert werden, soweit dieser bekannt ist. Wenn man das tut, bleibt die Schätzung des wahren Wertes ungenau wegen der zufälligen Fehler und wegen jedweder unbekannter Komponenten des systematischen Fehlers. Der Unsicherheit des systematischen Fehlers sollten Grenzen gesetzt werden. Sie sollten den Zufallsfehlern hinzugefügt werden, um die Gesamt-Unsicherheit zu ermitteln. Solange jedoch die Unsicherheit des systematischen Fehlers nicht in Wahrscheinlichkeits-Termen ausgedrückt und geeignet mit dem Zufallsfehler kombiniert werden kann, ist das Vertrauensniveau unbekannt. Es ist daher wünschenswert, dass der systematische Fehler vollständig bestimmt wird.

Bei der Erstellung der globalen mittleren Lufttemperatur lagen Angaben der WMO bisher bei der Erstellung der globalen mittleren Temperatur brach.

Systematische Sensorfehler bei Messungen der Luft- und Wassertemperatur waren beklagenswert gering geachtet worden, und es gab nur sehr wenige Feld-Kalibrierungen. Nichtsdestotrotz wird aus den berichteten Fällen klar, dass die Aufzeichnung der Lufttemperatur kontaminiert ist mit einem sehr signifikanten Niveau systematischer Messfehler. Die Nicht-Normalität systematischer Fehler bedeutet, dass die Subtraktion eines mittleren Bias‘ die Messungenauigkeit des globalen Temperaturmittels nicht beseitigen wird.

Außerdem ist die Größenordnung des systematischen Fehlerbias‘ der Messungen von Luft- und Wassertemperatur offensichtlich genauso räumlich und zeitlich variabel wie die Größenordnung der Standardabweichung der systematischen Unsicherheit über den mittleren Fehlerbias. Das heißt, der mittlere systematische Fehlerbias über Schnee auf dem Plaine Morte-Gletscher betrug 2°C, jedoch nur 0,4°C über Schnee in Lincoln, Nebraska. Ähnliche Differenzen wurden von Brooks und Saur auch beim Fehlermittelwert von Kühlwasser gemeldet. Daher wird die Eliminierung eines mittleren Bias‘ um einen geschätzten Betrag immer die Größenordnungs-Mehrdeutigkeit des verbleibenden mittleren Bias‘ hinterlassen. In jeder vollständigen Fehler-Evaluierung wird die verbleibende Unsicherheit des mittleren Bias‘ mit der 1s-Standardabweichung der Messunsicherheit zur Gesamt-Unsicherheit verschmelzen.

Eine vollständige Evaluierung systematischer Fehler liegt jenseits dieser Analyse. Allerdings kann ein Satz geschätzter Unsicherheits-Balken infolge des systematischen Fehlers in der Aufzeichnung der globalen mittleren Lufttemperatur berechnet werden – unter der Voraussetzung, dass die oben beschriebenen Fehler repräsentativ sind (Abbildung 12).

Die Unsicherheits-Bandbreite in Abbildung 12 (rechts) reflektiert ein Verhältnis systematischer Fehler zwischen Wasser- und Festlands-Temperatur von 0,7 zu 0,3. Quadriert bildet die Kombination von Eimer- und Kühlwassermessungen die SST-Unsicherheit vor 1990. Im gleichen Zeitintervall bildete der systematische Fehler der PRT/CRS-Sensoren (39, 40) die Unsicherheit der Festlands-Temperaturen. Treibbojen leisteten einen teilweisen Beitrag (0,25) zu der Unsicherheit bei der Wassertemperatur zwischen 1980 und 1990. Nach 1990 wurde die Fehlerbandbreite weiterhin stetig reduziert, was den zunehmenden Beitrag und die kleineren Fehler der MMTS (Festland) und Treibbojen (Wasseroberfläche) reflektiert.

Abbildung 12: Die globale mittlere Lufttemperatur im Jahre 2010, entnommen der Website der Climate Research Unit (CRU), University of East Anglia, UK (hier). Links: Unsicherheits-Bandbreite aufgrund der Beschreibung auf der CRU-Website. Rechts: Fehlerbandbreite der Unsicherheit aufgrund geschätzter systematischer Fehler der Sensormessungen innerhalb der Land- und Wasser-Aufzeichnungen. Weiteres im Text.

Abbildung 12 (rechts) ist sehr wahrscheinlich eine genauere Repräsentation des Wissensstandes als Abbildung 12 (links), jedenfalls was die Rate oder Größenordnung der Änderung der global gemittelten Änderung der Lufttemperatur seit 1850 angeht. Die überarbeitete Unsicherheits-Bandbreite repräsentiert einen nicht-normalen systematischen Fehler. Daher verliert der mittlere Trend der Lufttemperatur jedweden Status als wahrscheinlichster Trend.

Schließlich widmet Abbildung 13 der instrumentellen Auflösung der historischen meteorologischen Thermometer Aufmerksamkeit.

Abbildung 13 provozierte einige wütende Zwischenrufe aus dem Publikum in Sizilien, die nach dem Vortrag gefolgt wurden von einigen sehr groben Angriffen und einer netten E-Mail-Diskussion. Die hier vorgebrachten Argumente waren vorherrschend.

Die instrumentelle Auflösung definiert das Limit der Messgenauigkeit [measurement detection limit]. Beispielsweise waren unter den besten historischen Thermometern vom 19. bis Mitte des 20. Jahrhunderts 1°C-Einteilungen. Die Best-Case-Temperaturauflösung unter Laborbedingungen beträgt daher ±0,25°C. Darüber kann es keinen Streit geben.

Die Standard-Eimermessungen der Wassertemperatur der Challenger-Reise hatte ebenfalls eine 1°C-Abstufung. Damit kommt das gleiche Limit der Auflösung zur Anwendung.

Die besten Thermometer zur Messung des Kühlwassers bei amerikanischen Schiffen enthielten 1°C-Abstufungen; bei britischen Schiffen waren es 2°C. Die beste Auflösung ist demnach ±(0,25 bis 0,5)°C. Dies sind die bekannten Quantitäten. Auflösungs-Unsicherheiten wie systematische Fehler mitteln sich nicht heraus. Kenntnis der Messgrenzen der Instrumente-Klassen gestattet uns die Abschätzung der Auflösungs-Unsicherheit in jeder zusammengestellten historischen Aufzeichnung der Lufttemperatur.

Abbildung 13 zeigt die Grenzen der Auflösung. Darin wird die historische instrumentelle ±2s-Auflösung verglichen mit der ±2s-Unsicherheit in der veröffentlichten Temperatur-Zusammenstellung von Berkeley Earth. Die Analyse lässt sich genauso gut anwenden auf die veröffentlichten Temperaturreihen vom GISS oder der CRU/UKMet, welche die gleichen Unsicherheitsgrenzen aufweisen.

Abbildung 13: Der Trend der globalen gemittelten Lufttemperatur von Berkeley Earth mit den veröffentlichten ±2s-Unsicherheitsgrenzen in grau. Die zeitliche ±2s-Auflösung ist rot eingezeichnet. Rechts findet sich eine Zusammenstellung der best resolution limits in blau der historischen Temperatursensoren, aus denen die globalen Auflösungs-Limits berechnet worden sind.

Die global kombinierte instrumentelle Auflösung wurde mit den gleichen Teilbeiträgen berechnet wie die oben genannte Abschätzung des unteren Limits des systematischen Messfehlers. Das heißt 0,30 zu 0,70 Land- zu Wassertemperatur-Instrumenten, und der veröffentlichte fraktionale Gebrauch jeder Instrumentenart (land: CRS vs. MMTS, and; SS: buckets vs. engine intakes vs. Buoys).

Die Aufzeichnung zeigt, dass während der Jahre von 1800 bis 1860 die veröffentlichten globalen Unsicherheits-Limits von im Feld gemessenen meteorologischen Temperaturen gleich sind der Messungen unter bestmöglichen Laborbedingungen.

Nach etwa 1860 bis zum Jahr 2000 ist die veröffentlichte Auflösung kleiner als die Auflösungs-Limits der Instrumente selbst. Seit mindestens 1860 wurde die Genauigkeit aus dünner Luft hervorgezaubert.

Findet irgendjemand die veröffentlichten Unsicherheiten glaubwürdig?

Alle Ingenieure und Experimentalwissenschaftler könnten nach der Lektüre dieses Beitrags schockiert sein. Zumindest war das bei mir so. Ein Espresso hat mir geholfen.

Die Leute, die die globalen instrumentellen Aufzeichnungen zusammenstellen, haben ein experimentelles Limit stiefmütterlich behandelt, das sogar noch grundlegender ist als systematische Messfehler: Die Messgrenzen [detection limits] ihrer Instrumente. Sie haben dem keinerlei Aufmerksamkeit geschenkt.

Auflösungs-Limits und systematische Messfehler durch das Instrument selbst legen niedrigere Grenzen der Unsicherheit fest. Die in der Konsens-Klimatologie engagierten Wissenschaftler haben beides kaum beachtet.

Das ist fast so, als ob keiner von ihnen jemals eine Messung durchgeführt oder sich jemals mit einem Instrument abgemüht hätte. Es gibt keine andere rationale Erklärung für diese Missachtung als eine ausgeprägte Ignoranz gegenüber experimentellen Verfahren.

Die hier entwickelte Unsicherheits-Abschätzung zeigt, dass die Rate oder die Größenordnung der Änderung der globalen Lufttemperatur seit 1850 nicht genauer bekannt sein kann als mit ±1°C vor 1980 oder innerhalb von ±0,6°C nach 1990, jedenfalls im 95%-Intervall.

Rate und Größenordnung der Temperaturänderung seit 1850 ist buchstäblich unbekannt. Es gibt keinerlei Unterstützung für jedwedes „beispiellos“ in den Aufzeichnungen der Lufttemperatur.

Behauptungen über die höchste Temperatur jemals, selbst auf der Grundlage von 0,5°C-Differenzen, sind völlig unhaltbar und ohne jede Bedeutung.

All diese Debatten um die höchste Lufttemperatur jemals sind nicht besser als theologische Streitereien über das Unaussprechliche. Es sind nach den Worten von William F. Buckley „langweilige Spekulationen über das inhärent Unbekannte“.

Es gibt in den Temperaturaufzeichnungen keinerlei Stützung für irgendwelche Notfälle bzgl. Klima. Außer vielleicht ein Notfall der scheinbaren Kompetenz der AGW-Konsens-Wissenschaftler.

4. Danksagungen: Ich danke Prof. Hendrik Huwald und Dr. Marc Parlange von der Ecole Polytechnique Federale de Lausanne (EPFL), CH-1015 Lausanne, Schweiz, für die großzügige Überlassung der Sensor-Kalibrierungsdaten vom Plaine Morte Gletscher, die Eingang in die Abbildungen 4, 5 und 6 gefunden haben. Diese Arbeit wurde ohne jede externe Zuwendung geleistet.

5. References

[1] JCGM, Evaluation of measurement data — Guide to the expression of uncertainty in measurement 100:2008, Bureau International des Poids et Mesures: Sevres, France.

[2] Frank, P., et al., Determination of ligand binding constants for the iron-molybdenum cofactor of nitrogenase: monomers, multimers, and cooperative behavior. J. Biol. Inorg. Chem., 2001. 6(7): p. 683-697.

[3] Frank, P. and K.O. Hodgson, Cooperativity and intermediates in the equilibrium reactions of Fe(II,III) with ethanethiolate in N-methylformamide solution. J. Biol. Inorg. Chem., 2005. 10(4): p. 373-382.

[4] Hinkley, N., et al., An Atomic Clock with 10-18 Instability. Science, 2013. 341(p. 1215-1218.

[5] Parker, D.E., et al., Interdecadal changes of surface temperature since the late nineteenth century. J. Geophys. Res., 1994. 99(D7): p. 14373-14399.

[6] Quayle, R.G., et al., Effects of Recent Thermometer Changes in the Cooperative Station Network. Bull. Amer. Met. Soc., 1991. 72(11): p. 1718-1723; doi: 10.1175/1520-0477(1991)072<1718:EORTCI>2.0.CO;2.

[7] Hubbard, K.G., X. Lin, and C.B. Baker, On the USCRN Temperature system. J. Atmos. Ocean. Technol., 2005. 22(p. 1095-1101.

[8] van der Meulen, J.P. and T. Brandsma, Thermometer screen intercomparison in De Bilt (The Netherlands), Part I: Understanding the weather-dependent temperature differences). International Journal of Climatology, 2008. 28(3): p. 371-387.

[9] Barnett, A., D.B. Hatton, and D.W. Jones, Recent Changes in Thermometer Screen Design and Their Impact in Instruments and Observing Methods WMO Report No. 66, J. Kruus, Editor. 1998, World Meteorlogical Organization: Geneva.

[10] Lin, X., K.G. Hubbard, and C.B. Baker, Surface Air Temperature Records Biased by Snow-Covered Surface. Int. J. Climatol., 2005. 25(p. 1223-1236; doi: 10.1002/joc.1184.

[11] Hubbard, K.G. and X. Lin, Realtime data filtering models for air temperature measurements. Geophys. Res. Lett., 2002. 29(10): p. 1425 1-4; doi: 10.1029/2001GL013191.

[12] Huwald, H., et al., Albedo effect on radiative errors in air temperature measurements. Water Resorces Res., 2009. 45(p. W08431; 1-13.

[13] Menne, M.J. and C.N. Williams, Homogenization of Temperature Series via Pairwise Comparisons. J. Climate, 2009. 22(7): p. 1700-1717.

[14] Briffa, K.R. and P.D. Jones, Global surface air temperature variations during the twentieth century: Part 2 , implications for large-scale high-frequency palaeoclimatic studies. The Holocene, 1993. 3(1): p. 77-88.

[15] Hansen, J. and S. Lebedeff, Global Trends of Measured Surface Air Temperature. J. Geophys. Res., 1987. 92(D11): p. 13345-13372.

[16] Brohan, P., et al., Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850. J. Geophys. Res., 2006. 111(p. D12106 1-21; doi:10.1029/2005JD006548; see http://www.cru.uea.ac.uk/cru/info/warming/.

[17] Karl, T.R., et al., The Recent Climate Record: What it Can and Cannot Tell Us. Rev. Geophys., 1989. 27(3): p. 405-430.

[18] Hubbard, K.G., X. Lin, and E.A. Walter-Shea, The Effectiveness of the ASOS, MMTS, Gill, and CRS Air Temperature Radiation Shields. J. Atmos. Oceanic Technol., 2001. 18(6): p. 851-864.

[19] MacHattie, L.B., Radiation Screens for Air Temperature Measurement. Ecology, 1965. 46(4): p. 533-538.

[20] Rüedi, I., WMO Guide to Meteorological Instruments and Methods of Observation: WMO-8 Part I: Measurement of Meteorological Variables, 7th Ed., Chapter 1. 2006, World Meteorological Organization: Geneva.

[21] Berry, D.I. and E.C. Kent, Air–Sea fluxes from ICOADS: the construction of a new gridded dataset with uncertainty estimates. International Journal of Climatology, 2011: p. 987-1001.

[22] Challenor, P.G. and D.J.T. Carter, On the Accuracy of Monthly Means. J. Atmos. Oceanic Technol., 1994. 11(5): p. 1425-1430.

[23] Kent, E.C. and D.I. Berry, Quantifying random measurement errors in Voluntary Observing Ships’ meteorological observations. Int. J. Climatol., 2005. 25(7): p. 843-856; doi: 10.1002/joc.1167.

[24] Kent, E.C. and P.G. Challenor, Toward Estimating Climatic Trends in SST. Part II: Random Errors. Journal of Atmospheric and Oceanic Technology, 2006. 23(3): p. 476-486.

[25] Kent, E.C., et al., The Accuracy of Voluntary Observing Ships’ Meteorological Observations-Results of the VSOP-NA. J. Atmos. Oceanic Technol., 1993. 10(4): p. 591-608.

[26] Rayner, N.A., et al., Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century. Journal of Geophysical Research-Atmospheres, 2003. 108(D14).

[27] Emery, W.J. and D. Baldwin. In situ calibration of satellite sea surface temperature. in Geoscience and Remote Sensing Symposium, 1999. IGARSS ’99 Proceedings. IEEE 1999 International. 1999.

[28] Emery, W.J., et al., Accuracy of in situ sea surface temperatures used to calibrate infrared satellite measurements. J. Geophys. Res., 2001. 106(C2): p. 2387-2405.

[29] Woodruff, S.D., et al., The Evolving SST Record from ICOADS, in Climate Variability and Extremes during the Past 100 Years, S. Brönnimann, et al. eds, 2007, Springer: Netherlands, pp. 65-83.

[30] Brooks, C.F., Observing Water-Surface Temperatures at Sea. Monthly Weather Review, 1926. 54(6): p. 241-253.

[31] Saur, J.F.T., A Study of the Quality of Sea Water Temperatures Reported in Logs of Ships’ Weather Observations. J. Appl. Meteorol., 1963. 2(3): p. 417-425.

[32] Barnett, T.P., Long-Term Trends in Surface Temperature over the Oceans. Monthly Weather Review, 1984. 112(2): p. 303-312.

[33] Anderson, E.R., Expendable bathythermograph (XBT) accuracy studies; NOSC TR 550 1980, Naval Ocean Systems Center: San Diego, CA. p. 201.

[34] Bralove, A.L. and E.I. Williams Jr., A Study of the Errors of the Bathythermograph 1952, National Scientific Laboratories, Inc.: Washington, DC.

[35] Hazelworth, J.B., Quantitative Analysis of Some Bathythermograph Errors 1966, U.S. Naval Oceanographic Office Washington DC.

[36] Kennedy, J.J., R.O. Smith, and N.A. Rayner, Using AATSR data to assess the quality of in situ sea-surface temperature observations for climate studies. Remote Sensing of Environment, 2012. 116(0): p. 79-92.

[37] Hadfield, R.E., et al., On the accuracy of North Atlantic temperature and heat storage fields from Argo. J. Geophys. Res.: Oceans, 2007. 112(C1): p. C01009.

[38] Castro, S.L., G.A. Wick, and W.J. Emery, Evaluation of the relative performance of sea surface temperature measurements from different types of drifting and moored buoys using satellite-derived reference products. J. Geophys. Res.: Oceans, 2012. 117(C2): p. C02029.

[39] Frank, P., Uncertainty in the Global Average Surface Air Temperature Index: A Representative Lower Limit. Energy & Environment, 2010. 21(8): p. 969-989.

[40] Frank, P., Imposed and Neglected Uncertainty in the Global Average Surface Air Temperature Index. Energy & Environment, 2011. 22(4): p. 407-424.

[41] Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

[42] Hansen, J., et al., Global Surface Temperature Change. Rev. Geophys., 2010. 48(4): p. RG4004 1-29.

[43] Jones, P.D., et al., Surface Air Temperature and its Changes Over the Past 150 Years. Rev. Geophys., 1999. 37(2): p. 173-199.

[44] Jones, P.D. and T.M.L. Wigley, Corrections to pre-1941 SST measurements for studies of long-term changes in SSTs, in Proc. Int. COADS Workshop, H.F. Diaz, K. Wolter, and S.D. Woodruff, Editors. 1992, NOAA Environmental Research Laboratories: Boulder, CO. p. 227–237.

[45] Jones, P.D. and T.M.L. Wigley, Estimation of global temperature trends: what’s important and what isn’t. Climatic Change, 2010. 100(1): p. 59-69.

[46] Jones, P.D., T.M.L. Wigley, and P.B. Wright, Global temperature variations between 1861 and 1984. Nature, 1986. 322(6078): p. 430-434.

[47] Emery, W.J. and R.E. Thomson, Data Analysis Methods in Physical Oceanography. 2nd ed. 2004, Amsterdam: Elsevier.

[48] Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

[49] Folland, C.K., et al., Global Temperature Change and its Uncertainties Since 1861. Geophys. Res. Lett., 2001. 28(13): p. 2621-2624.

Link: https://wattsupwiththat.com/2016/04/19/systematic-error-in-climate-measurements-the-surface-air-temperature-record/

Übersetzt von Chris Frey EIKE




Glücklicherweise zeigt eine Umfrage, dass viele Klassenlehrer das Klimawandel-Dogma zurückweisen

[*Der Terminus „Science teacher“ lässt sich nur schwer übersetzen, weil es eben nicht einfach nur „Wissenschafts-Lehrer“ sind. Der Einfachheit halber übersetze ich im Folgenden immer nur mit dem Begriff „Lehrer“, gemeint sind aber immer nur die Lehrer naturwissenschaftlicher Fächer. Anm. d. Übers.]

Etwa 75 Prozent der Lehrer gaben der Umfrage zufolge an, dass sie über globale Erwärmung im Klassenraum reden, typischerweise weniger als eine Stunde oder zwei im Verlauf eines akademischen Jahres. Von jenen, die das tun, propagiert nur etwa die Hälfte aller Lehrer die falsche Behauptung der Alarmisten, der zufolge 97 Prozent aller Wissenschaftler den Verbrauch fossiler Treibstoffe seitens der Menschen als Ursache eines katastrophalen Klimawandels ausgemacht haben. Etwa 30 Prozent aller Lehrer, die über den Klimawandel sprechen sagen, dass der Mensch teilweise verantwortlich ist, räumen aber auch ein, dass natürliche Kräfte eine Rolle spielen. Etwa 10 Prozent weisen zurück, dass die Menschen überhaupt irgendeine Rolle bzgl. des Klimawandels spielen, und etwa 5% all derjenigen, die über Klimawandel im Klassenraum reden, sprechen überhaupt nicht über die Gründe dafür.

Was aber positiv ist: während 68% der Befragten angaben, dass sie persönlich an den Menschen als

Ursache für die globale Erwärmung glauben, sagen viele, dass sie ihre persönliche Meinung nicht vor der Klasse ausbreiten. Vielmehr ziehen sie es vor, die wissenschaftliche Methode zu erläutern und eine ausgeglichene Ansicht der Beweise präsentieren.

Ich habe daran gearbeitet, Parteilichkeit auf beiden Seiten der Klimawandel-Debatte aus Lehrbüchern über soziale Studien herauszuhalten – dennoch hat Texas die Übernahme im Jahre 2014 genehmigt. Außerdem habe ich darum gekämpft zu verhindern, dass ausgewogene Klimawissenschaft aus den Lehrplänen in West Virginia herausgestrichen wird. Aufgrund dieser Erfahrungen habe ich lange befürchtet, dass der Kampf um die Herzen und Gehirne der amerikanischen Jugend bzgl. Klimathemen verloren ist. Die jüngsten Ergebnisse der nationalen Umfrage sollte den Klimarealisten überall neue Hoffnung geben.

Der Klimawandel findet statt. Tatsächlich ändert sich das Klima der Erde immer, aber es gibt derzeit eine bedeutende wissenschaftliche Debatte, ob menschliche Aktivitäten für den gesamten Klimawandel, teilweise oder überhaupt nicht dafür verantwortlich sind. Trotz gegenteiliger Behauptungen einiger Alarmisten der globalen Erwärmung stimmen die Wissenschaftler noch nicht einmal in der Frage überein, ob ein wärmeres Klima vorteilhaft oder schädlich ist.

Was in den Klassenräumen unserer Nation über Klimawandel gelehrt wird, sollte die begrenzte Natur dessen reflektieren, was wir mit Vertrauen bzgl. des zukünftigen Klimas sagen können und die Gründe für jedwede Änderung. Glücklicherweise scheint es so, dass die Hälfte aller Lehrer, die das Thema Klimawandel im Unterricht behandeln, der Ansicht sind, dass man den Kindern unter ihrer Obhut diese Wahrheit lehren müsse.

Falls diese Umfrage ein genaues Bild der wirklichen Vorgänge in den Klassenzimmern der USA ist, gibt es immer noch Raum für Befürworter eines gesunden, ausgewogenen und nuancierten Verständnisses der Klimawissenschaft und der Politik, den Lehrern an Schulen genau dies nahezubringen.

Klimarealisten sollten konzertierte Bemühungen starten, um die Lehrer in die Klimawandel-Debatte einzubeziehen. Die Bemühungen sollten sich konzentrieren auf die Überredung jener 50 Prozent der Lehrer, die leugnen, dass es irgendwelche Unsicherheiten bzgl. der menschlichen Ursachen gebe und sie offener für die Infragestellung katastrophaler Konsequenzen von Klimawandel zu machen. Sie sollten Überzeugungsarbeit leisten, dass diese Lehrer anerkennen, dass natürliche Faktoren zum Klimawandel beitragen, dass ein sich änderndes Klima wahrscheinlich zu Vorteilen und Kostenersparnis führt und dass die Vorschläge, die gegenwärtig von den Regierungen zum Kampf gegen die globale Erwärmung durchgepeitscht werden, einen hohen Preis erfordern und nahezu keinen Einfluss auf steigende Temperaturen oder Wetterbedingungen haben.

Lehrer, die eine ausgewogene Präsentation der Fakten bzgl. des Klimawandels präsentieren, sollte man mit qualitativ hochwertigen Lehrmaterialien versorgen. Man sollte ihnen außerdem erlauben, Außenstehende einzuladen, die eine realistische Ansicht von Klimawissenschaft und Politik präsentieren können. Lehrer, die sich um eine profunde, ausgewogene Darstellung der Wissenschaft bemühen, sollten belohnt und gefördert werden.

Wenn man die Lehrer ermutigt, der wissenschaftlichen Methode zu folgen, für welche die stetige Praxis vernünftigen Skeptizismus‘ erforderlich ist ebenso wie das Testen der Theorie gegen beobachtete Fakten – alles angesichts des Medien-Hypes und des Druckes von Umweltaktivisten, das alarmistische Dogma in den Klassen zu lehren – könnte dies der nachhaltigste Weg sein um sicherzustellen, dass eine misanthropische Klimapolitik nicht auf eine unwissende und falsch informierte Öffentlichkeit losgelassen wird, heute nicht und in Zukunft nicht.

Falls Ihr Schulkind Sie nicht fragt, warum sie zur Zerstörung der Erde beitragen, danken Sie dem Lehrer Ihres Kindes, dass er sich an eine faire und ausgewogene Sicht auf die Klimawissenschaft gehalten hat. Falls Ihr Kind wiederholt falsche Behauptungen der Klimaalarmisten von sich gibt, dann machen Sie ihr Kind (und dessen Lehrer) mit den wissenschaftlichen Fakten vertraut.

Link: http://news.heartland.org/editorial/2016/04/05/thankfully-survey-shows-many-science-teachers-reject-climate-change-dogma

Übersetzt von Chris Frey EIKE




Ist die Globale Erwärmung neu für Sie? James Hansen räumt einige Dinge über die globalen Temperaturen und den Meeresspiegel ein, die Sie kennen sollten.

Das Interview finden Sie hier:

James Hansen, die Wissenschaft verlangt Aktivismus für das Klima auf YaleEnvironment360. Das Interview wurde in The Guardian wiederholt mit dem Titel: "Ich glaube nicht, dass ich ein Alarmist bin“.

Zunächst waren die globalen Oberflächentemperaturen während der letzten Zwischeneiszeit wärmer als heute. Ein Interglacial ist eine Zeit zwischen zwei Eiszeiten. Das wird neu für viele Leser sein.

Wie dann, werden sich viele fragen, wissen wir sicher, dass die jüngste Erwärmung durch vom Menschen verursachte Treibhausgase verursacht wurde, da wir immer noch im Bereich der natürlichen Variabilität sind?

Natürlich ist die Antwort: Die Klimamodelle sagen es uns, auch wenn diese Klimamodelle nicht das Klima der Erde simulieren, wie es in der Vergangenheit bestand, wie es jetzt ist und wie es in der Zukunft sein könnte … Klimamodelle simulieren nicht natürlich vorkommende Ozean-Atmosphäre-Prozesse, welche globale Erwärmung verursachen können.

Hansen‘s zweite Anerkennung war, dass der Meeresspiegel während der letzten Zwischeneiszeit 6 bis 9 Meter höher war als heute.

Hier ist eine Illustration aus meinem E-Book:

On Global Warming and the Illusion of Control – Part 1

700 Seiten, 25MB, pdf  [Über die globale Erwärmung und die Illusion von Kontrolle]

 

Pegelstände während und zwischen den Eiszeiten und Heute

Aber Hansen versäumte zu erzählen, dass paläoklimatologische Studien gezeigt haben, dass es einige Tausend Jahre dauerte, bis der Meeresspiegel um 6 bis 9 Meter anstieg, als die Temperaturen höher als heute waren:

 Dutton & Lambeck (2012) Ice volume and sea level during the last interglacial.

   [Eisvolumen und Meeresspiegel während der letzten Zwischeneiszeit]

Der entsprechende Teil des Interviews mit Hansen (Fettdruck und Klammern von Bob Tisdale)

James Hansen: Wir wissen aus der Geschichte der Erde, dass 2 Grad [mehr] schließlich zum Anstieg des Meeresspiegels von mehreren Metern führen würden. Die letzte innere glaziale (Seufzer) Zeit vor 120.000 Jahre (das sollte Interglaziale Periode heißen), das war das letzte Mal, dass es wärmer war als heute, war der Meeresspiegel 6 bis 9 Meter höher – das würde den Verlust von fast allen Küstenstädten bedeuten. Es ist undenkbar, dass wir offenen Auges in eine solche Situation laufen und ja, die Wissenschaft versteht das sehr gut.

Es gibt keinen Streit über die Tatsache, dass wir die Küstengebiete verlieren, die jetzt von den meisten der großen Städte der Welt besetzt sind. Es ist nur eine Frage, wie bald. Ich glaube nicht, dass diese Botschaft den politischen Entscheidungsträgern und der Öffentlichkeit klar rüber gebracht wurde…

Wenn ich neu wäre bei Diskussionen über die globale Erwärmung und den Anstieg des Meeresspiegels, dann hätte ich das Interview weit genug gelesen. Er hätte mich genau damit zu einem Skeptiker gemacht.

Aber im Gegensatz zu seinen Behauptungen über Alarmismus, führt Hansen dann weiter fort einen Alarmisten zu spielen und zu diskutieren, wie seine jüngsten Bemühungen mit der Modellierung und dem daraus resultierenden Paper zeigen, dass der Anstieg – vielleicht –sogar – abrupt auftreten könnte.

 … Mehr als 190 Nationen vereinbarten [auf der Pariser Klimakonferenz im vergangenen Dezember], dass wir den gefährlichen, vom Menschen verursachten Klimawandel vermeiden sollten. Der Verlust von Küstenstädten wäre ein gefährliches Ergebnis. Es ist schwer vorstellbar, dass die Welt regierbar sein wird, wenn dies relativ schnell geschieht. Was wir feststellen ist, dass die Zeitscala für den Zerfall der Eisdecke wahrscheinlich viel kürzer ist, als es in den Diskussionen zwischen den Regierungen angenommen wird.

Natürlich, auch die Befürworter der Hypothese der vom Menschen verursachten globalen Erwärmung empfanden die jüngste Hansen et al. (2016) Studie als Unsinn (Eisschmelze, Anstieg des Meeresspiegels und Superstürme: Beweise aus Paleoklimatischen Daten, Klimamodellierung und moderne Beobachtungen, dass 2 ° C globale Erwärmung gefährlich sein könnte)

[Aber alarmistisch im Handelsblatt vom 22. April wiederholt; der Übersetzer].

Schon der Titel des Papers enthält die oft gebrauchte zweideutige Ausdrucksweise „könnte". Lesen sie hier Beiträge bei WattsUpWithThat:

· James Hansen’s latest doomsday paper falls flat on its face, grounds his ‘flying boulders’
[James Hansen neuestes Weltuntergangs Paper fällt flach auf die Nase, holt seinen "fliegenden Schutt“ auf die Erde zurück

· Schism on the Left: James Hansen’s climatic ‘canon’ gets fired from a cannon
[Schisma auf der Linken: James Hansen Klima ‚Kanon‘ wird aus einer Kanone abgefeuert]

Feststellungen:

Zwei Kapitel aus meinem o.g. E-book: On Global Warming and the Illusion of Control – Part 1.

Von der Festellung bis Kapitel 1.16 – der Meeresspiegel steigt

  • Dieses Kapitel beginnt: Für viele Menschen, vor allem für Personen die in der Nähe der Küsten leben, ist der Meeresspiegel kritische verknüpft mit der globalen Erwärmung und dem Klimawandel.

Der Meeresspiegel ist seit dem Höhepunkt der letzten Eiszeit gestiegen, und wenn sich die Geschichte wiederholt, wird er auch weiterhin steigen bis zur Höhe während der letzten Zwischeneiszeit: 5 bis 10 Meter höher.

Aber wie in diesem Kapitel beschrieben, gibt es eine Vielzahl von Faktoren, die zum Anstieg beitragen können oder in den lokalen Meeresspiegel fallen [z.B. Absenkung der tektonischen Platten]. Der Anstieg des Meeresspiegels ist daher ein lokales Problem, sowie die Maßnahmen, um das Problem zu bekämpfen, wie ich in diesem Kapitel bereits viele Male erwähnt habe. Viele Länder und Gemeinden führen bereits Maßnahmen durch, um die Auswirkungen des steigenden Meeresspiegels zu reduzieren – mit Methoden, die speziell für ihren Standort entworfen sind.

Unter der Annahme, dass vom Menschen verursachte Treibhausgase die Rate, mit der der  globale Meeresspiegel steigt, verursacht, würde eine Reduzierung der mensch-gemachten Treibhausgas-Emissionen die Steigerungsrate nur verlangsamen, aber nicht stoppen. Doch nochmal, die Houston & Dean Studie (2010): Meeresspiegel-Beschleunigung, basierend auf dem US-Küstenpegel und Erweiterungen der bisherigen Globalen-Pegel Analyse, stellt fest, dass der Anstieg des Meeresspiegels sich nicht mit der globalen Erwärmung beschleunigt hat.

Und nach der Einleitung, die ich mit Diskussion unter der Überschrift des Meeresspiegels anfing, gibt es AUF DER ANDEREN SEITE, ein völlig anderes Problem:

Nochmals, auch wenn wir den CO2-Gehalt auf vorindustrielle Werte zurückdrehen könnten, der Meeresspiegel würde weiter steigen. Der Meeresspiegel steigt seit dem Ende der letzten Eiszeit und wird dies auch weiterhin tun, bis die Erde wieder abkühlt und wir in Richtung der nächsten Eiszeit kommen. Das heißt, der einzige Weg, den Anstieg des Meeresspiegels zu verhindern, ist Wasser auf dem Land in Form von Eis zu akkumulieren.

Ferner ist die Geschwindigkeit, mit der der globale Meeresspiegel steigt, in Reaktion auf die hypothetischen Auswirkungen der vom Menschen verursachten Treibhausgase, Gegenstand von weiten Bereichen der Unsicherheit und der offenen Debatte … und das Thema zu viel mehr Alarmismus von Aktivisten und den Medien, wenn das überhaupt möglich ist.

Und ich schließe die Diskussion mit dieser Aussage:

Die lächerlichen Vorschläge von Politikern und Panikmachern, dass wir den Anstieg des Meeresspiegels durch Reduzierung der Treibhausgase steuern könnten, ist einer der Hauptgründe für den Titel dieses Buches: Über die globale Erwärmung und die Illusion von Kontrolle.

Erschienen auf WUWT am 13. April 2016

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2016/04/13/are-you-new-to-the-global-warming-debate-james-hansen-admits-a-couple-of-things-about-global-temperatures-and-sea-levels-you-should-know/




U.A.w.g- arte Sendung: Die große Stromlüge -verlogener kann eine Sendung nicht sein

Peter Würdig, Oberreihe 5, 21782 Bülkau-Aue

Infoo@pww.dewww.pww.de

Datum: 9.4.2016

Sendung: Die Stromlüge

im Kanal Arte der ARD

Stellungnahme.

Bei dieser Sendung muss man sich fragen, ist es tatsächlich die Stromlüge oder ist nicht vielmehr die Sendung selbst die Lüge, zumindest fällt auf, dass die Sendung eine verworrene Anhäufung von fragwürdigen Teil-Aspekten des Themas ist und dass den Autoren eine fachliche Beratung insbesondere im Bereich der Ingenieurwissenschaften wohl gefehlt hat, anders kann man sich die vielen Fehler nicht recht erklären.

Video der arte Doku: Die große Stromlüge; In der Mediathek gibt arte fälschlich den 19.4.16 als Termin der Erstausstrahlung an (hier)

Es werden im folgenden Beispiele von fragwürdigen Teilen der Sendung besprochen, ohne Anspruch auf Vollständigkeit. 

Punkt eins.

Im Anfang der Sendung wird gezeigt, dass durch die hohen Preise für elektrische Energie Menschen in der Folge zu leiden haben, da sie dadurch ihre Wohnung nicht ausreichend beheizen können. Der Fehler ist, dass elektrische Energie eigentlich nicht für Zwecke der Beheizung von Wohnungen verwendet werden sollte, denn dabei würde Edel-Energie in minderwertige Energie umgewandelt. Stattdessen wäre es besser, die Wohnung mit fossilen Brennstoffen, am besten mit Holz zu beheizen, und wenn die Dame nun zu alt und zu gebrechlich ist um selbst Holz zu sammeln oder zu beschaffen, dann müssten das ihre Kinder tun oder eine soziale Einrichtung. Hohe Strompreise haben auf die Kosten von Brennholz nur eine untergeordnete Wirkung.

Nun wird in der Sendung auch davon gesprochen, dass die Preise für Gas zu hoch sind, aber diese wiederum sind nicht eine unmittelbare Folge der Preise für elektrischen Strom, und das ist ein Beispiel, wie in der Sendung verschiedene Dinge ziemlich unreflektiert zusammengeworfen werden. Fragwürdig auch, warum man gerade England als Beispiel für Kälte-Tote heranzieht, der Winter bringt in Ländern wie Estland oder Norwegen ganz andere Anforderungen als der verhältnismäßig milde Winter auf der britischen Insel. 

Punkt zwei

„Strom sollte billiger werden und verstärkt aus erneuerbaren Energien gewonnen werden.“ Das ist ein Widerspruch in sich. Die sog. „erneuerbaren Energien“ konnten von Anfang an nur durch massive Subventionsversprechen in Gang gebracht werden, diese Subventionen muss am Ende der Verbraucher bezahlen, die Teuerung war das politische Ziel, einzig der Umfang der Teuerung wurde bewusst nicht klar dargestellt. Bekannt ist die Aussage von Trittin, diese Teuerung wäre nur vergleichbar mit dem Preis einer Eiswaffel pro Monat für eine Familie, und für so einen bescheidenen Aufpreis sollte man sich eine Energieerzeugung, die aus ideologischen Gründen im Sinne einer Heilsbotschaft als besonders edel dargestellt wurde, wohl leisten können. Bei dem Aufpreis in Höhe einer Eiswaffel ist es geblieben, aber eben nicht pro Monat sondern pro Tag oder pro Stunde oder in noch kürzeren Zeitabschnitten.

Lüge also hier: billiger werden war gar nicht beabsichtigt, teurer sollte es werden, fragt sich nur, wie viel  teurer.

Allen Anhängern von „grünen“ Energien war immer bewusst, dass sie das, was da als Botschaft verkündet wurde, ziemlich teuer sein würde, und deshalb kam immer wieder die Hoffnung und die Prognose, dass die konventionellen Energien sich verknappen und teurer werden würden sodass sich dann ihr Lieblingskind auch ökonomische rechnen würde. Diese Prognose ist allerdings nicht aufgegangen, die konventionellen Energien haben ihren Preis einigermaßen halten können oder wurden nur maßvoll teurer, und da die „grünen“ Energien auch jetzt  nicht mithalten können versucht man, die konventionellen Energien künstlich zu verteuern, indem man ihnen sog. „externe“ Kosten zurechnet (was weitgehend ein Phantasieprodukt ist) oder indem man sie mit zusätzlichen Abgaben belastet um den Preis irgendwie in die Höhe zu treiben. 

Punkt drei.

„Liberalisierung des Strommarktes“. Über Liberalisierung  auf europäischer Ebene kann man nachdenken, aber die Voraussetzung ist schon mal die Liberalisierung im nationalen Rahmen, und schon daran fehlt es, insbesondere der politische Wille dazu. In Deutschland wurde Liberalisierung und Marktwirtschaft praktisch abgeschafft, vor allem durch das EEG und den Atomausstieg. Statt Marktwirtschaft gab es den Einstieg in eine Planwirtschaft mit weitgehend staatlichen Vorgaben, Unternehmen, die in der Lage waren, Strom sehr preiswert anzubieten wurden durch staatliche Gewalt gezwungen ihre Anlagen stillzulegen, und sog. Erneuerbare Energien wurden durch ein sehr kostspieliges Subventionssystem in die Produktion gebracht, dadurch wiederum wurden sehr moderne Anlagen wie Gaskraftwerke unrentabel und zum Aufgeben gezwungen, ebenso kommunale Anbieter, insgesamt ein desaströses System, das mit „Liberalisierung“ nichts hat, es ist das Gegenteil davon.

In Frankreich wiederum ist die Situation ganz anders, es gibt ein staatliches Monopol, die EDF, und damit hat man alle Vorteile, die ein marktwirtschaftliches System hätte gar nicht erst angefangen.

Liberalisierung auf europäischer Ebene ist auch nur eine Sprechblase, denn alle, die das schwafeln übersehen geflissentlich, dass es technische Gegebenheiten sind, die das vereiteln, denn elektrische Energie kann man über sehr große Entfernungen eben nur mit erheblichen Verlusten transportieren, daher scheitert das von Anfang an. Typisch ist jedoch, dass alle die, die von Technik nichts verstehen, weiter in diesem Sinne schwadronnieren, wie das real aussehen soll und wo die Kosten liegen, das hat da noch keiner ausgerechnet.

Punkt vier

„Positives Gefühl mit der Energiewende“, das ist zunächst richtig, denn einerseits gibt es eine massive Propaganda in den staatlich gelenkten Medien, die den Menschen Illusionen vorgaukelt, und zweitens ist es eben nur „das Gefühl“, man fühlt zwar, aber man denkt nicht nach, und gerechnet wird schon gar nicht, das heißt, der Verstand ist weitgehend ausgeschaltet. 

Punkt fünf

„97 % der Jugendlichen wollen nur eneuerbare Energien“. Hier wird die Unwissenheit von jungen Menschen rücksichtslos ausgenutzt. Wenn diese jungen Menschen ihr Haus an erneuerbare Energien anschließen würden sie sehr bald merken, was es heißt, mit der Stromversorgung vom Wetter abhängig zu sein und manchmal Stunden und Tage im Dunkeln und in Kälte zu sitzen, da würde sich die Einstellung zu dieser Energieart sehr schnell ändern. Es stellt sich nur die Frage, warum man diese Frage nicht diesem Schwätzer, dem Herrn Fell, einmal gestellt hat und welche Ausreden er dann von sich gibt. 

Punkt sechs

„Man hat nicht gegen gesteuert durch Klimaschutzinstrumente“. Wie sollen denn diese „Instrumente“ aussehen ? Man will (oder soll) durch Abgaben die Kohle teurer machen, aber das nützt nichts, das würde nur den Preis weiter in die Höhe treiben, denn nachts ist es dunkel, Photovoltaik liefert also nichts, und Wind ist auch nur manchmal da, also müssen Kohle und/oder Kernenergie weiter liefern und auch ständig in Bereitschaft gehalten werden, was auch schon enorm kostet. Aus diesem Dilemma gibt es keinen Ausweg, und da hilft auch alle Schwätzerei der Kempfert nicht. Das war übrigens von Anfang an allen Beteiligten bekannt, aber man hat sich selbst was in die Tasche gelogen (und tut das erst mal weiter so).

Auch Zertifikate als „Klimaschutzinstrumente“ helfen hier nicht, der Sinn der Zertifikate ist es ja, den Produzenten auf eine Alternative der Energieerzeugung zu schieben, aber diese Alternative ist technisch nicht realisierbar, denn zuverlässige elektrische Energie gibt es eben nur durch Kohle oder Atom. Auch der Gedanke, durch verbesserte Effizienz noch etwas zu erreichen geht fehl, denn dieses Potential ist in aller Regel inzwischen weitgehend ausgenutzt, da ist das Ende der technischen Möglichkeiten nahezu überall erreicht.

Punkt sieben

Die angeblichen Gefahren der Kohle-Energie werden übertrieben, denn die Filter-Elemente stehen auf dem neuesten Stand der Technik. Von diesen Leuten (BUND und andere) werden gerade der Bau neuerer Kraftwerke mit verbesserter Technik so weit wie möglich verhindert, aber einen sinnvollen Ausweg können diese Leute auch nicht vorweisen.

Punkt acht.

„Viertausend Todesfälle pro Jahr“. Ist natürlich eine rein hypothetische Zahl, andere Untersuchungen kommen zu anderen Ergebnissen oder zu keinen Todesfällen. Selbst wenn das in etwa stimmen sollte,wäre das ziemlich bescheiden, das Rauchen kostet 100.000 Todesfälle pro Jahr, also sehr viel mehr, und die Leute hören auch mit dem Rauchen nicht auf. Also, wollen wir nun Strom haben oder nicht ? Auch hier gibt es wieder keine brauchbare Antwort. 

Punkt neun

Braunkohlentagebau und die Umsiedlung von Dörfern. Braunkohle wird seit Jahrhunderten im Tagebau gewonnen, das ist nun nicht neu und für die Betroffenen, die eine Umsiedlung verkraften müssen, nicht so angenehm. Man versteht nicht, warum die Jammerei eines Einzelnen in der Sendung einen so breiten Raum einnimmt, der hat sich wohl einen sehr preiswerten Baugrund ausgesucht obwohl er die Folgen kannte. Hier piekst die Sendung in unverantwortlicher Weise auf das Gefühl von Menschen an, obwohl jedem klar ist, dass es anders nicht geht. Diese Teile der Sendung sind insgesamt eigentlich überflüssig und dumm, eine ziemlich blöde Rührduselei. „Das Geld, der Kapitalismus“ ? So ein Unfug. Es soll Strom produziert werden, und die, die so klagen, wollen auch eine Steckdose im Haus haben. Die Heuchelei kennt keine Grenzen. 

Punkt zehn

Wenn man selbst nicht produziert, dann muss man importieren. Das ist richtig. Schön, dass in der Sendung nach dieser endlos langen Duselei auch mal wieder etwas Vernünftiges gesagt wird. 

Punkt elf

Das Hin- und Her mit dem Abschalten der Kernenergie ist ein Nonsens, insgesamt unvernünftig. Das einzig Richtige wäre hier, den Markt regieren zu lassen, das heißt, Kernkraftwerke werden dann abgeschaltet, wenn günstigere Alternativen zur Verfügung stehen, wann das ist, weiß heute niemand. So mischt sich der Staat in die Energiewirtschaft ein, für seine Fehler beschimpft er auch noch die anderen, und für uns alle wird das dann ziemlich teuer, natürlich. 

Punkt zwölf

„Achtzig Euro die Tonne“. Sehr hypothetische Rechnereien, weitgehend Phantasiewerte um die eigene Ideologie zu unterstützen. Die CO2-Propaganda ist eine höchst fragwürdige Geschichte. Tatsächlich steigt der CO2-Anteil in der Luft, aber es wird verschwiegen, dass CO2 die Voraussetzung für das Pflanzenwachstum ist und dass eine höhere Konzentration dieses Spurengases überwiegend positive Wirkungen hat. Das ist die größte Lüge in dieser Szenerie (und auch in der Sendung).

Punkt dreizehn

Dass die Sendung das Beispiel Spanien gebracht hat, ist sehr lehrreich. Es ist richtig, dass eine große Produktion von Solarstrom das ganze Stromsystem ruinieren würde, das wusste man auch vorher, dass man das zunächst anders dargestellt hat ist ein politisches Problem, allerdings hätte jeder der Anleger wissen müssen, dass er sich auf ein politisches Spielchen eingelassen hatte, die Sucht auf schnellen Reibach hat die Leute blind gemacht, da ist Mitgefühl nicht angebracht. Es ist allerdings nicht der Unterschied von 50 Euro oder 90 Euro, der Punkt liegt ganz woanders. Jeder dieser Sonnenenergie-Anleger hat immer noch die Möglichkeit, sein Produkt im Markt anzubieten, und nun endlich kommt die Wahrheit heraus (die immer klar war), dieses Produkt ist praktisch wertlos. Niemand kauft freiwillig spanischen Solarstrom, auch die Autoren der Sendung würden das nicht tun. Strom ist erst dann marktfähig, wenn er rund ums Jahr im Rhythmus 24/7 zur Verfügung steht, das heißt, diese Solar-Anleger  hatten „vergessen“, ihre Anlagen mit Speichereinheiten auszustatten. Das ist das wahre Problem der „erneuerbaren Energien“, und wenn man die notwendigen Speichereinheiten dazu stellt, dann wird die Sache so teuer, dass das niemals wettbewerbsfähig wird. Also müssten diese Solaranlagen eigentlich verschrottet werden, das ist die Wahrheit, wird leider in der Sendung nicht ausgesprochen. Wenn das für Solaranlagen im sonnenreichen Spanien schon so ist, wie trübe sehen die Marktchancen für Solaranlagen im sonnenärmeren Deutschland aus ? Das ist die Realität, und die wird erst mal mit einem riesigen Aufkommen von Subventionen verschleiert, und an dieser Verschleierung beteiligt sich auch diese Sendung. 

Später wird in der Sendung gesagt, dass die erneuerbaren spanischen Energien nun anfangen wettbewerbsfähig zu werden. Wenn dem so ist, warum tun sie es denn nicht ? Offensichtlich sind diese eben nicht wettbewerbsfähig, deshalb kauft niemand den solaren Strom. Man sieht, was herauskommt, wenn Wirtschaftsfachleute fabulieren, die von technischen Gegebenheiten nichts verstehen. 

Punkt vierzehn

Der Drehtüreffekt wird in der Sendung zu Recht angesprochen. Allerdings, die Einkommen, die hier gezahlt werden sind geradezu spartanisch im Vergleich zu dem, was von den deutschen Bankern abkassiert wird oder von Fußball-Funktionären, und die Energiefirmen liefern wenigstens ein volkswirtschaftlich wertvolles Produkt, was man von den anderen nicht sagen kann. 

Punkt fünfzehn

Man redet vom „Klimaschutz“, aber nirgends wird klar gemacht, dass die erneuerbaren Energien für den Klimaschutz unbrauchbar sind (weil eben die Speichereinheiten fehlen, die unbezahlbar sind). Das zeigt das Beispiel Deutschlands, denn man hat sehr hohe Subventionen für die erneuerbaren Energien ausgegeben, jedoch nichts Brauchbares erreicht, denn der Ausstoß von CO2 ist nicht wirklich vermindert worden, eher leicht gestiegen. Man will das nicht zugeben, weil man dann eingestehen müsste, dass die ganze Energiewendepolitik von Anfang an ein einziger Schwindel war. 

Punkt sechzehn

 

Die Investitionen der EdF. Eine Firma kann investieren oder auch nicht, und es kann passieren, dass die Investitionen verloren gehen. Dabei kann sich eine Firma total ruinieren, und dann muss sie Konkurs anmelden, und das bezahlen nicht die Stromkunden, sondern die Aktionäre. Der einzige Fehler ist hier, die EdF ist ein staatliches Unternehmen, ist für das System unverzichtbar und deswegen kann man die nicht in den Konkurs gehen lassen. Mit „Stromlüge“ hat das also nichts zu tun sondern mit der Tatsache, dass es in Frankreich eben keinen Markt gibt, hier hätte man rechtzeitig aufteilen und privatisieren müssen. Man sieht an diesem Beispiel, wie fragwürdig es ist, wenn man statt eines Marktes mit vielen Anbietern ein staatliches Monopol hat, diesem ist der Konsument am Ende hilflos ausgeliefert, von daher nicht zu verstehen warum in der Sendung für einen Übergang zu einem staatlichen Versorgungssystem geworben wird. 

Punkt siebzehn

„Spanien findet keinen Markt für seinen (erneuerbaren) Strom“. Warum verbrauchen sie den denn nicht im eigenen Land, da gibt es für diese Energien auch keinen Markt, wie wir vorher am Beispiel der spanischen Photovoltaik-Produzenten gesehen haben.

„Dieser kann nicht nach Frankreich transportiert werden, weil die nötige Infrastuktur fehlt“. Aber die Frage ist, warum soll denn Frankreich zu enormen Kosten erneuerbaren Strom einkaufen, den man in Spanien auch nicht haben will ? Und diese „nötige Infrastruktur“ würde ja ganz erhebliche Kosten bringen, die dann auch der Verbraucher zu tragen hätte, also ist das, was hier vorgeschlagen wird nur ein Modell für eine weitere erhebliche Kostensteigerung.

Man will die Kapazität um das 10-fache erhöhen (welche Kapazität gemeint ist wird nicht gesagt) und man will das Verbundziel um 15% erhöhen, alles dies auch nur Sprechblasen ohne jede Realität. 

Punkt achtzehn

„Ein Sechstel des europäischen Marktes soll vernetzt werden“. Wie soll denn das geschehen, internationale Stromleitungen hoher Kapazität, in denen große Mengen elektrischer Energie hin- und hergeschoben werden ? Das würde natürlich weitere erhebliche Kosten mit sich bringen, aber es würde keinen Nutzen bringen, denn nachts ist es dunkel, und zwar in ganz Europa, da kann man dann nicht solaren Strom durch die Netze schieben wollen. Also auch nur hohle Sprüche ohne jede sinnvolle Realisierung.

Punkt neunzehn

Die Ile de Sein. Die wollen auf erneuerbare Energien umsteigen, warum machen die denn das nicht, wenn das so toll ist ? Das Netz gehört der EdF, aber wer hindert denn die daran, ihr eigenes Netz aufzubauen und den Umstieg zu machen ? Offensichtlich haben die mal nachgerechnet und festgestellt, das wird dann unbezahlbar, aber auch dazu äußert sich die Sendung nicht. 

Punkt zwanzig

„Liberalisierung mit gleichzeitiger Regulierung stellt den Wettbewerb her“. Das ist ja ein Widerspruch in sich. Wer und was wird denn da „reguliert“, und wie soll diese Liberalisierung konkret aussehen ? Das wird nicht erklärt.  Also auch nur eine Sprechblase. 

Punkt einundzwanzig

Am Schluss heißt es, „eine saubere, unabhängige und erneuerbare Energie“.

Im Norden weht der Wind (der weht da aber beileibe nicht immer) und im Süden scheint die Sonne (die scheint nachts auch im Süden nicht). Mit schönen Bildern und einschmeichelnder Musik werden Illusionen aufgebaut, offensichtlich weit von jeder Realisierung. Das ist dann wirklich die „Stromlüge“, verlogener geht es nicht.

Punkt zweiundzwanzig

Zum Schluss zeigt man stimmungsvolle Bilder mit Windmühlen. Angesichts dessen, was man eigentlich über diese Technik hätte wissen müssen schon eine ziemliche Heuchelei. 

Es gibt noch viele weitere technisch offensichtlich unsinnige Aussagen in dieser Sendung, ich muss hier jedoch Schluss machen.

Peter Würdig

 




7 umweltliche Prophezeiungen vom Ersten Earth Day 1970, die sich als total falsch erwiesen haben

Ist irgendeine dieser düsteren Prophezeiungen eingetreten? Nein, aber das hat die Aktivisten nicht davon abgehalten, sich weiter Sorgen zu machen. Von Prophezeiungen bzgl. dem Ende der Zivilisation bis zu klassischen Bedenken bzgl. Peak Oil folgen hier sieben Prophezeiungen von Umweltaktivisten aus jener Zeit, die einfach nur total falsch waren.

1: „Während der nächsten 15 bis 30 Jahre wird die Zivilisation zusammenbrechen“

Der Harvard-Biologe Dr. George Wald warnte kurz vor dem Ersten Earth Day 1970, dass die Zivilisation bald zu Ende gehen wird, „es sei denn, sofortige Maßnahmen werden ergriffen gegen die Probleme, vor denen die Menschheit steht“. Drei Jahre vor dieser seiner Projektion wurde ihm der Nobelpreis für Physiologie oder Medizin verliehen (hier).

Wald war lautstarker Gegner des Vietnam-Krieges und des nuklearen Wettrüstens. Er flog sogar einmal nach Moskau, um den Führer der Sowjetunion bzgl. der Umwelt zu beraten.

Trotz seiner Hilfestellung für eine kommunistische Regierung besteht die Zivilisation immer noch. Der prozentuale Anteil der Amerikaner, die sich mit dem Zusammenbrechen der Zivilisation über Umweltbedrohungen Sorgen machen, ist stark zurückgegangen (hier).

2: „100 bis 200 Millionen Menschen pro Jahr werden während der nächsten zehn Jahre verhungern“

Der Stanford-Professor Dr. Paul Ehrlich erklärte im April 1970, dass eine Massenhungersnot unmittelbar bevorstehe. Seine düsteren Prophezeiungen haben sich jedoch nie materialisiert, ist doch die Anzahl der in Armut lebenden Menschen signifikant zurückgegangen (hier), und die Menge an Nahrungsmitteln pro Person ist stetig gestiegen (hier). Das BIP der Welt pro Person hat unermesslich zugenommen trotz der Bevölkerungszunahme (hier).

[Natürlich gibt es immer noch sehr viel Armut. Das liegt aber mit Sicherheit nicht an der Klimaentwicklung! Anm. d. Übers.]

Ehrlich ist zum allergrößten Teil für diesen Standpunkt verantwortlich (hier), fungierte er doch als Mitautor der Veröffentlichung „The Population Bomb“ zusammen mit dem Sierra Club im Jahre 1968. In dem Buch wurde eine Reihe von Behauptungen erhoben einschließlich der Aussage, dass Millionen von Menschen während der siebziger und achtziger Jahre verhungern würden; dass Massenhungersnöte England in den Untergang führen würden und dass ökologische Zerstörungen den Planeten verheeren würden, was zu einem Zusammenbruch der Zivilisation führen wird.

3: „Egal welche geringen Fortschritte der Versorgung mit Nahrungsmitteln erreicht werden – der Bevölkerungszuwachs wird dies unvermeidlich und vollständig übertreffen“

Ebenfalls Paul Ehrlich erhob diese Behauptung im Jahre 1970 kurz vor einer landwirtschaftlichen Revolution, die zu einer rapiden Zunahme der Nahrungsmittelversorgung der Welt führte (hier).

Ehrlich hat sich standhaft geweigert, seine Prophezeiungen zu korrigieren, nachdem er mit der Tatsache konfrontiert worden war, dass sie nicht eingetroffen sind. Im Jahre 2009 konstatierte er nur, dass „der vielleicht größte Flop in The Bomb war, dass die Zukunft viel zu optimistisch beurteilt worden ist“.

4: „Die Demographen stimmen fast völlig überein … in dreißig Jahren wird die ganze Welt in einer Hungersnot stecken“.

Umweltaktivisten aller Couleur glaubten wirklich an einen wissenschaftlichen Konsens, dem zufolge eine globale Hungersnot prophezeit wurde wegen des Bevölkerungswachstums in den Entwicklungsländern, vor allem Indien.

„Die Demographen stimmen fast einhellig hinsichtlich des folgenden düsteren Zeitplanes überein: bis 1975 werden in Indien verbreitet Hungersnöte ausbrechen, welche sich bis zum Jahr 1990 auf das gesamte Gebiet von Indien, Pakistan, China und den Nahen Osten ausbreiten werden. Bis zum Jahr 2000, wahrscheinlich aber schon eher, werden Süd- und Mittelamerika unter permanenter Hungersnot leben“. Dies sagte Peter Gunter, ein Professor an der North Texas State University in einer Ausgabe des Magazins The Living Wilderness [Die lebendige Wildnis] im Jahre 1970. „Um das Jahr 2000, also in dreißig Jahren, wird die gesamte Welt unter Hunger leiden, außer Westeuropa, Nordamerika und Australien“.

Indien, wo die Hungersnöte vermeintlich beginnen sollten, wurde jüngst zum weltgrößten Exporteur landwirtschaftlicher Produkte (hier), und das Nahrungsangebot pro Person in dem Land hat während der letzten Jahre drastisch zugenommen (hier). Tatsächlich ist die Anzahl der Menschen in jedem von Gunter gelisteten Land seit 1970 dramatisch gestiegen (hier).

5: „In einem Jahrzehnt werden Stadtbewohner Gasmasken tragen müssen, um die Luftverschmutzung zu überleben“.

Im Januar 1970 hieß es im Life Magazine, dass Wissenschaftler „solide und theoretische Beweise“ dafür hätten, dass „Stadtbewohner in einem Jahrzehnt werden Gasmasken tragen müssen, um die Luftverschmutzung zu überleben … bis 1985 wird die Luftverschmutzung die Menge der auf die Erde treffenden Sonneneinstrahlung um die Hälfte reduziert haben“.

Im Gegensatz zu dieser Prophezeiung hat sich die Luftqualität weltweit verbessert, wie die World Health Organization hier schreibt. Die Luftverschmutzung hat ebenfalls in den industrialisierten Ländern stark abgenommen (hier)*. Kohlendioxid, also das Gas, um das sich die Umweltaktivisten heutzutage sorgen, ist geruchlos, unsichtbar und in normalen Mengen für Menschen harmlos.

[*Na ja, in einigen begrenzten Gebieten ist die Luftverschmutzung aber doch zu einer Gefahr geworden. Anm. d. Übers.]

6: „Das Gebären von Kindern wird ein strafwürdiges Verbrechen gegen die Gesellschaft sein, es sei denn, die Eltern erhalten eine Lizenz von der Regierung“.

David Brower, der erste geschäftsführende Direktor des Sierra Clubs, stellte diese Behauptung hier auf und fuhr fort: „alle Eltern sollten gesetzlich verpflichtet werden, empfängnisverhütende Chemikalien einzunehmen. Die Regierung stellt Eltern, die zum Gebären von Kindern ausgewählt wurden, ein Gegenmittel zur Verfügung“. Brower war auch maßgeblich an der Gründung von Friends of the Earth [Ableger in D ist der BUND, Anm. d. Übers.] beteiligt sowie der League Of Conservation Voters. Außerdem prägte er in weiten Teilen die heutige Umweltbewegung.

Brower glaubte, dass die meisten Umweltprobleme ultimativ neuen Technologien zuzuschreiben waren, die es den Menschen erlaubten, natürliche Grenzen der Bevölkerungsmenge zu überwinden. Berühmt ist seine Behauptung vor seinem Tod im Jahre 2000, dass „jedwede Technologie schuldig gesprochen werden sollte, bis sie sich als unschuldig erweist“. Wiederholt plädierte er für eine gesetzliche Geburtenkontrolle.

Heute ist die einzige Regierung, die sich dieser Vision ansatzweise genähert hat, China. Dort jedoch hat man die Ein-Kind-Politik im Oktober vorigen Jahres abgeschafft (hier).

7:„Im Jahr 2000 wird es keinen Tropfen Rohöl mehr geben“.

Am Earth Day 1970 prophezeite der Ökologe Kenneth Watt prominent, dass der Welt das Öl ausgehen werde, und beschrieb dies so: „Man wird an eine Tankstelle fahren und sagen ,einmal auffüllen bitte!‘, und er wird sagen ,tut mir leid, hier gibt es nichts mehr!’“

Zahlreiche Akademiker wie Watt prophezeiten, dass die Ölerzeugung in Amerika um das Jahr 1970 ihren Höhepunkt überschreiten und dann graduell abnehmen werde, was vermutlich zu einem ökonomischen Einbruch führen würde. Allerdings hat die erfolgreiche Anwendung massiven hydraulischen Brechens oder Fracking zu einer massiven Renaissance der amerikanischen Ölerzeugung geführt, und gegenwärtig gibt es viel zu viel Öl auf dem Markt (hier).

Die amerikanischen Öl- und Erdgasreserven befinden sich auf ihrem höchsten Niveau seit 1972, und dank Fracking lag die amerikanische Ölerzeugung im Jahre 2014 um 80 Prozent höher als 2008.

Außerdem kontrollieren die USA inzwischen auch die größte, noch unangetastete Ölreserve der Welt (hier), nämlich die Green River Formation in Colorado. Diese Formation allein enthält 3 Billionen Barrel Schieferöl, von dem die Hälfte zum Abbau geeignet erscheint. Das ist fünfeinhalb mal so viel wie die nachgewiesenen Reserven von Saudi Arabien (hier). Diese einzelne geologische Formation könnte mehr Öl enthalten als alle nachgewiesenen Reserven der Welt zusammen.

(H/T, Ronald Bailey at Reason and Mark Perry at the American Enterprise Institute).

Link: http://dailycaller.com/2016/04/22/7-enviro-predictions-from-earth-day-1970-that-were-just-dead-wrong/

Übersetzt von Chris Frey EIKE

Bemerkung des Übersetzers: Bei diesen Vorhersagen geht es zwar nicht um die Bereiche Klima oder Energie, aber die Qualität der Prophezeiungen als solche kann man wohl auch auf die Erwärmungs-Fetischisten übertragen.