Eine geringe Fehler­bandbreite

Ich werde darauf aufmerksam, dass Zeke Hausfather neben vielen Anderen behauptet, dass das Jahr 2018 das wärmste Jahr jemals hinsichtlich der Ozeane gewesen sei, und zwar bis zu einer Tiefe von 2000 m. Er drückte es so aus:

Abbildung 1: Änderung des ozeanischen Wärmegehaltes von 1955 bis 2018. Daten vom Institute for Applied Physics (IAP).

Als ich die Graphik in Zekes Tweet sah, leuchtete mein innerer Detektor für schlechte Zahlen sofort grell rot auf. Was mir verdächtig erschien war, dass die Vertrauens-Intervalle viel zu klein aussahen. Nicht nur das, sondern auch, dass die Graphik Einheiten verwendet, die für die Meisten bedeutungslos sind. Nun ja …

Die Einheiten in dieser Graphik sind „Zettajoules“, abgekürzt ZJ. Ein Zettajoule sind 110 Joule. Das wollte ich in eine allgemein bekanntere Einheit umrechnen, nämlich Grad Celsius (°C). Dazu musste ich berechnen, wie viele Zettajoules man braucht, um die Temperatur in den obersten 2000 Meter der Ozeane um 1°C zu erhöhen.

Man betrachte die zugehörige Mathematik im Anhang [wird hier nicht übernommen. Wer nachrechnen möchte, klicke auf den Link zum Original. Anm. d. Übers.] Es genügt an dieser Stelle zu sagen, dass man etwa 2600 Zettajoule braucht, um die Temperatur in dieser Ozeanschicht um 1°C zu erhöhen. Noch einmal: 2600 ZJ pro Grad.

Jetzt betrachte man noch einmal Abbildung 1. Sie behaupten, dass ihre Fehlerbandbreite der Werte von 1955 plus/minus 95 Zettajoules ausmacht … und das rechnet sich um zu ± 0.04°C. Vier Hundertstel eines Grades Celsius … tatsächlich …

Man mag mich für dumm halten, aber ich glaube einfach NICHT, dass wir die Wassertemperatur der oberen 2000 Meter der Ozeane bis auf plus/minus vier Hundertstel Grad genau kennen.

Es kommt aber noch schlimmer. Im Jahre 2018 behaupten sie, dass die Fehlerbandbreite eine Größenordnung von plus/minus neun Zettajoules aufweist … was umgerechnet drei Tausendstel Grad Celsius sind – 0,003°C. Also wirklich! Man frage irgendeinen Verfahrenstechniker – die Bestimmung der mittleren Wassertemperatur in einem normalen Swimmingpool auf drei Tausendstel Grad genau würde mindestens ein Dutzend Thermometer erfordern …

Sie begründen ihre Behauptung, diesen Grad an Genauigkeit zu erreichen, mit den ARGO-Bojen. Diese Bojen treiben in verschiedenen Tiefen im Ozean. Alle zehn Tage steigen sie langsam an die Oberfläche und messen auf dem Weg dorthin die Temperatur. Gegenwärtig, das heißt vor drei Tagen, waren 3835 Bojen in Betrieb.

Abbildung 2: Verteilung aller aktiven ARGO-Bojen am 8. Januar 2019

Das sieht nach einer ziemlich großen Abdeckung aus in dieser Graphik, nicht wahr? Vielleicht nicht ein paar Dutzend Thermometer pro Swimmingpool, aber dicht … Tatsächlich ist es aber so, dass auf jeweils 93.500 km² Ozean nur eine ARGO-Boje kommt. Das ist ein Kasten mit jeweils 300 km Seitenlänge und einer Tiefe von 2 km … die genau ein Thermometer enthält.

Das ihrer Schätzung der Fehlerbandbreite zugrunde liegende Problem ist Folgendes: Wenn die Anzahl der Messungen steigt, nimmt die Fehlerbandbreite um 1 geteilt durch die Quadratwurzel der Anzahl der Beobachtungen ab. Und das heißt, falls wir mehr Dezimalstellen in unserer Fehlerbandbreite haben wollen, müssen wir einhundert mal die Anzahl der Messpunkte haben.

Beispiel, falls wir einen Fehler von – sagen wir – einem Zehntelgrad Celsius aus zehn Messungen haben wollen, dann brauchen wir eintausend Messungen, um den Fehler um ein Hundertstel Grad zu reduzieren …

Umgekehrt ist es genauso. Nehmen wir also einmal an, dass ihre Schätzung der Fehlerbandbreite von ± 0.003°C der Daten aus dem Jahr 2018 korrekt ist und das dies der ausgezeichneten Abdeckung mit 3835 ARGO-Bojen geschuldet ist.

Das würde bedeuten, dass wir eine zehn mal so große Fehlerbandbreite bekommen, also ± 0.03°C, falls es nur 38 ARGO-Bojen gäbe …

Tut mir leid, das glaube ich nicht. 38 Thermometer, von denen jedes drei Vertikalprofile der Temperatur pro Monat aufzeichnet, um die Temperatur der oberen 2000 Meter der gesamten globalen Ozeane zu messen – auf plus/minus drei Hundertstel Grad genau?

Mein Detektor für schlechte Zahlen leuchtete immer noch rot. Also führte ich eine Art „Monte Carlo“-Analyse durch. Benannt nach dem berühmten Casino impliziert eine Monte Carlo-Analyse, dass man Zufallsdaten einer Analyse unterzieht, um zu sehen, ob die Antwort vernünftig ist.

In diesem Falle nahm ich mir ein Gitternetz von 1° Breite mal 1° Länge vor und betrachtete die Ozeantemperaturen in verschiedenen Tiefen bis zu 2000 m aus dem Levitus World Ocean Atlas. Dieser enthält die monatlichen langzeitlichen Mittelwerte in jeder Tiefe für jedes Gitterquadrat für jeden Monat. Dann berechnete ich das globale Mittel für jeden Monat von der Oberfläche bis zu einer Tiefe von 2000 m.

Nun gibt es 33.713 Gitterquadrate von 1° x 1° mit Ozeandaten. (Die Gebiete jenseits der beiden Polarkreise habe ich mal außen vor gelassen, weil es dort fast keine Bojen gibt). Und es gibt 3825 ARGO-Bojen. Im Mittel befinden sich etwa 5% davon in einem normalen Gitterquadrat. Die ARGO-Bojen vermessen also größenordnungsmäßig zehn Prozent der Gitterquadrate … was bedeutet, dass trotz der vielen ARGO-Bojen zu jeder gegebenen Zeit 90% der 1°x1°-Gitterquadrate in den Ozeanen nicht vermessen werden! Ich meine ja nur …

Um zu sehen, welchen Unterschied das ausmacht, unterzog ich 3825 zufällig ausgewählte Ozean-Gitterquadrate wiederholten Analysen. Dabei machte ich genau das Gleiche wie zuvor – errechnete die Mittelwerte in jeder Tiefe und berechnete dann die globale mittlere Temperatur Monat für Monat für jene Gitterquadrate. Hier folgt eine Graphik typischer Zufallsorte für simulierte ARGO-Punkte für einen Lauf:

Abbildung 3: Typische simulierte Verteilung von ARGO-Bojen für einen Lauf einer Monte Carlo-Analyse.

Und dabei fand ich das, was zu finden ich mir gedacht hatte. Ihre behauptete Genauigkeit stammt nicht aus Experimenten. Abbildung 4 zeigt die Ergebnisse eines typischen Laufs. Das 95%-Vertrauensintervall der Ergebnisse variierte zwischen 0,05°C und 0,1°C:

Abbildung 4: Typischer Lauf, mittlere globale Ozean-Temperatur von der Oberfläche bis 2000 m tief, aus dem Levitus World Ocean Atlas (rote Punkte) und den 3825 simulierten ARGO-Punkten. Weiße Federstriche zeigen das 95%-Vertrauensintervall (95% CI). Für diesen Lauf betrug das 95% CI 0,07°C. Der kleine Federstrich unten Mitte zeigt das behauptete 95% CI aus dem Jahr 2018 von 0,03°C.

Wie man sieht, erhält man mittels der simulierten ARGO-Messpunkte eine Antwort, die dem tatsächlichen Temperaturmittel ziemlich nahe kommt. Monatliche Mittelwerte liegen innerhalb eines Zehntelgrades des tatsächlichen Mittelwertes … aber weil die ARGO-Bojen nur etwa 10% der 1° x 1°-Ozean-Gitterquadrate vermessen, ist das immer noch eine Größenordnung mehr als das für das Jahr 2018 behauptete 95% CI der Daten in Abbildung 1.

Also denke ich, dass mein Detektor für schlechte Zahlen weiter angeschaltet bleiben sollte …

Und schließlich sagt Zeke, dass die Ozeantemperatur im Jahre 2018 die Temperatur des Jahres 2017 um eine „komfortable Spanne“ übertrifft. Aber in Wirklichkeit ist es nur 8 Zettajoule wärmer … was geringer ist als die für 2018 behauptete Fehlerbandbreite. Oh nein, das ist keine „komfortable Spanne“. Es liegt noch deutlich innerhalb ihres behaupteten unglaublich geringen Fehlers, den sie mit ± 9 ZJ für das Jahr 2018 angeben.

Letzte Bemerkung: Man mache bitte nicht Zeke hierüber Vorwürfe. Er ist einer der Guten, und wir alle liegen mitunter falsch. Wie ich immer wieder nachgewiesen habe, hatte der amerikanische Wissenschaftler Lewis Thomas völlig recht mit seiner Bemerkung „Wir sind erschaffen, um Fehler zu machen, programmiert auf Irrtümer…“

Link: https://wattsupwiththat.com/2019/01/11/a-small-margin-of-error/

Übersetzt von Chris Frey EIKE




Die Glaubwür­digkeits-Lücke zwischen prophe­zeiter und tatsäch­licher globaler Erwärmung

Fangen wir mit den Prophezeiungen bzgl. der globalen Erwärmung seitens des IPCC an. Im Jahre 2013 wurden vier Szenarien definiert, von denen eines, nämlich RCP 8.5, von dessen Autoren (Riahi et al, 2007; Rao & Riahi, 2006) selbst als absichtlich extrem gehaltenes Szenario eingestuft worden ist. Es basiert auf so absurden Kriterien der Bevölkerungsentwicklung und des Energieverbrauchs, dass es getrost ignoriert werden kann.

Für das weniger unvernünftige, am oberen Ende der plausiblen Szenarien liegende RCP 6.0 soll der gesamt-anthropogene Antrieb im 21. Jahrhundert 3,8 Watt pro Quadratmeter betragen (2000 bis 2100):

Die CO2-Konzentration von 370 ppmv im Jahre 2000 sollte den Prophezeiungen zufolge beim RCP 6.0-Szenario bis zum Jahr 2100 auf 700 ppmv steigen (AR 5, Abb. 8.5). Folglich wäre der hundertjährige prophezeite CO2-Antrieb 4,83 ln(700/370) oder 3,1 W/m², also fast fünf Sechstel des Gesamtantriebs. Die prophezeite hundertjährige Referenz-Sensitivität (d. h. Erwärmung vor Rückkopplungen) ist das Produkt von 3,8 W/m² und des Planck-Parameters von 0,3 K/Wm², also 1,15 K.

Die CMIP5-Modelle prophezeien eine mittelfristige Gleichgewichts-Sensitivität bei einer CO2-Verdoppelung von 3,37 K (Andrews+ 2012) im Vergleich zu einer Referenz-Sensitivität von 1 K vor Berücksichtigung von Rückkopplungen, was eine mittelbreite Transfer-Funktion [a midrange transfer function] von 3,37/1 = 3,37 impliziert. Die Transfer-Funktion, also das Verhältnis von Gleichgewichts- und Referenz-Temperatur, umfasst definitionsgemäß die gesamte Auswirkung von Rückkopplungen auf das Klima.

Daher beträgt die Erwärmung im 21. Jahrhundert, welche das IPCC prophezeien sollte, beim RCP 6.0-Szenario und auf der Grundlage der eigenen Schätzung der CO2-Konzentration sowie der Modell-Schätzungen des CO2-Antriebs und der Charney-Sensitivität 3,37 x 1,15 oder 3,9 K.

Tatsächlich aber prophezeit das IPCC nur eine Erwärmung von 1,4 bis 3,1 K im 21.Jahrhundert unter dem RCP 6.0-Szenario. Das ergibt eine mittelfristige Schätzung von gerade mal 2,2 K und impliziert eine Transfer-Funktion von 2,2/1,15 = 1,9. Das ist etwas höher als die Hälfte der mittelbreiten Transfer-Funktion von 3,37, welche implizit in den Projektionen der Gleichgewichts-Sensitivität im CMIP5-Ensemble enthalten ist.

Man beachte, dass in Abb. 2 jeder Hinweis darauf fehlt, dass die globale Erwärmung „settled science“ ist. Das IPCC prophezeit mit allen Szenarien und der Absicherung seiner Angaben eine Temperaturänderung zwischen -0,2 K und +4,5 K bis zum Jahr 2100. Dessen Best Estimate ist die mittelbreite Schätzung von 2,2 K.

Im Endeffekt impliziert also bei einer gegebenen Referenz-Sensitivität von 1 K bei einer CO2-Verdoppelung die dem IPCC zufolge zu erwartende Erwärmung im 21. Jahrhundert eine Charney-Sensitivität von 1,9 K. Das ist das Standardmaß für Studien zur Klimasensitivität, welche die Gleichgewichts-Sensitivität bei CO2-Verdoppelung ist, nach Einwirkung aller kurzfristig agierenden Rückkopplungen. Es sind nicht die 3,4 (2,1; 4,7) K der CMIP5-Modelle.

Da die offiziellen Prognosen also folglich untereinander erheblich inkonsistent sind, ist es schwierig, aus ihnen einen Eckwert abzuleiten für die offiziell prophezeite Erwärmung für das 21. Jahrhundert. Er liegt irgendwo zwischen den 2,2 K, die das IPCC aufgrund seiner RCP 6.0-Schätzung gibt, und den 3,9 K, abgeleitet aus dem anthropogenen Antrieb im 21. Jahrhundert mittels der mittelbreiten CMIP5-Transfer-Funktion.

So viel zu den Prophezeiungen. Aber was geht in Wirklichkeit vor sich, und passt die beobachtete Erwärmung zur Prophezeiung? Hier folgen die gemessenen Erwärmungsraten während der 40 Jahre von 1979 bis 2018. Fangen wir mit GISS an. Dort zeigt sich, dass sich die Welt während der 40 Jahre mit einer Rate erwärmt hat äquivalent nicht zu 3,9°C/Jahrhundert, nicht einmal zu 2,2°C/Jahrhundert, sondern lediglich zu 1,7°C/Jahrhundert:

Als nächstes zum NCEI: Dieser Datensatz – vielleicht aus politischen Gründen – ist plötzlich nicht mehr verfügbar:

Als nächstes der vom IPCC bevorzugte Datensatz vom HadCRUT4. Die University of East Anglia ist ziemlich betulich hinsichtlich der Aktualisierung seiner Informationen, läuft doch der 40-Jahre-Zeitraum dort von Dezember 1978 bis November 2018. Die Erwärmung ist aber mit derjenigen vom GISS identisch mit 1,7°C/Jahrhundert:

Als nächstes die von Satelliten gemessenen Trends, zuerst RSS. Es ist bemerkenswert, dass seit der Überarbeitung des RSS-Datensatzes zur Eliminierung des Stillstands dieser Datensatz dazu tendiert, die höchste Rate der globalen Erwärmung zu zeigen, nämlich 2°C/Jahrhundert. Der Chef-Wissenschaftler dort nennt alle, die nicht mit ihm bzgl. Klima übereinstimmen, „Leugner“:

Und schließlich noch UAH. Diesen sieht Prof. Ole Humlum (climate4you.com) als den Goldenen Standard für globale Temperaturaufzeichnungen an. Bevor UAH seinen Datensatz änderte, zeigte dieser gewöhnlich mehr Erwärmung als die anderen. Jetzt zeigt er die geringste Erwärmungsrate, nämlich 1,3°C/Jahrhundert:

Wie viel globale Erwärmung hätte es geben müssen während der 40 Jahre seit Beginn der Satellitenmessungen? Die CO2-Konzentration ist um 72 ppmv gestiegen. Der CO2-Antrieb während dieses Zeitraumes beträgt folglich 0,94 W/m². Dies impliziert einen Gesamt-Antrieb von 0,94 x 6/5 = 1,13 W/m² von allen Quellen. Entsprechend liegt die Referenz-Sensitivität dieses Zeitraumes bei 1,13 x 0,3 oder 0,34 K, und die Gleichgewichts-Sensitivität laut der CMIP5-Transfer-Funktion 3,37 sollte 1,14 K ergeben. Und doch betrug die Erwärmung über diesen Zeitraum 0,8 K (RSS), 0,7 K (GISS & HadCRUT4) oder 0,5 K (UAH) – gibt im Mittel eine Erwärmung von etwa 0,7 K.

Ein realistischeres Bild könnte man zeichnen, wenn man den Beginn der Berechnungen in das Jahr 1950 verlegt, als unser Einfluss erstmals bemerkbar war. Die HadCRUT4-Aufzeichnung sieht so aus:

Der CO2-Antrieb seit 1950 beträgt 4,83 ln(410/310) oder 1,5 W/m². Dies wird zu 1,8 W/m², nachdem man nicht-anthropogene CO2-Antriebe zugelassen hat. Dieser Wert ist konsistent mit dem IPCC (2013, Abb. SPM.5.). Daher beträgt die Referenz-Sensitivität über den Zeitraum 1950 bis 2018 1,8 x 0,3 oder 0,54 K, ist 0,54 x 3,37 = 1,8 K, von denen lediglich 0,8 K eingetreten sind. Zieht man die überarbeitete Transfer-Funktion 1,9, abgeleitet aus der prophezeiten Erwärmung nach dem RCP 6.0 heran, sollte die Erwärmung nach 1950 0,54 x 1,9 = 1,0 K betragen haben.

Man sollte hier auch die Temperaturaufzeichnung aus Mittelengland im Zeitraum der 40 Jahre von 1694 bis 1733 betrachten. Während dieses Zeitraumes war die Temperatur in den meisten Gebieten von England mit einer Rate äquivalent zu 4,33°C/Jahrhundert gestiegen im Vergleich zu den lediglich 1,7°C/Jahrhundert während der 40 Jahre von 1979 bis 2018. Daher ist die gegenwärtige Erwärmungsrate keineswegs beispiellos.

Aus dieser Aufzeichnung geht klar hervor, dass selbst die große Temperaturänderung aufgrund natürlicher Ursachen nicht nur in England, sondern weltweit gering ist im Vergleich zu den großen jährlichen Temperaturschwankungen der globalen Temperatur.

Der einfachste Weg, die sehr große Diskrepanz zwischen prophezeiter und gemessener Erwärmung während der letzten 40 Jahre darzustellen ist es, die Ergebnisse auf einer Scheibe zu zeigen:

Sich überlappende Projektionen des IPCC (gelbe & gelbbraune Zonen) und der CMIP5-Modelle (gelbbraune & orange Bereiche) der globalen Erwärmung von 1850 bis 2011 (dunkelblaue Skala), 1850 bis 2 x CO2 (dunkelrote Skala) und 1850 bis 2100 (schwarze Skala) gehen über die gemessene Erwärmung von 0,75 K im Zeitraum 1850 bis 2011 (HadCRUT4) hinaus. Sie liegt zwischen der Referenz-Sensitivität von 0,7 K bis zum anthropogenen Antrieb in IPCC (2013, Abb. SPM.5) (blaugrüner Zeiger) und der zu erwartenden Gleichgewichts-Sensitivität in diesem Zeitraum von 0,9 K nach Adjustierung des Strahlungs-Ungleichgewichtes (Smith et al. 2015) (blauer Zeiger). Die Projektion der CMIP5-Modelle einer Charney-Sensitivität von 3,4 K (roter Zeiger) liegt etwa drei mal so hoch wie der Wert aus den Beobachtungen. Das überarbeitete Intervall der Prophezeiungen globaler Erwärmung (grüner Bereich) korrigiert um einen physikalischen Fehler in den Modellen, deren Rückkopplungen nicht auf die Emissions-Temperatur reagieren, liegt nahe der beobachteten Erwärmung.

Anmerkungen: Ich verpflichtete mich, über den Fortschritt der Studie meines Teams zu berichten, in welcher der physikalische Fehler der offiziellen Klimatologie betrachtet wird, der darin bestand, die schlichte Tatsache, dass die Sonne scheint, in den Berechnungen der Rückkopplungen nicht zu berücksichtigen. Ursprünglich ist die Studie Anfang vorigen Jahres abgelehnt worden mit der Begründung, dass der Herausgeber des führenden Journals, bei dem sie eingereicht worden war, offenbar niemanden finden konnte, der kompetent genug war, die Studie zu begutachten. Wir vereinfachten die Studie und reichten sie erneut ein, und nach einer Verzögerung von vielen Monaten kamen nur zwei Begutachtungen zurück. Bei der ersten handelte es sich um die Begutachtung eines Begleit-Dokuments, in welchem die Ergebnisse der Experimente beschrieben worden waren, die in einem Labor der Regierung durchgeführt wurden. Es war jedoch klar, dass der Begutachter den Laborbericht nie gelesen hat, worin sich auch die Antwort auf die Frage befand, die der Begutachter gestellt hatte. Die zweite war angeblich eine Begutachtung der Studie, aber der Begutachter gab an, dass er sich nicht die Mühe gemacht habe, die Gleichungen zu lesen, welche jene Schlussfolgerungen gerechtfertigt haben, weil er diese Schlussfolgerungen unlogisch fand.

Wir protestierten. Der Herausgeber holte dann eine dritte Begutachtung ein. Aber das war wie die beiden ersten keine Begutachtung der vorliegenden Studie. Es handelte sich um die Begutachtung einer anderen Studie, welche im Jahr zuvor bei einem anderen Journal eingereicht worden war. Alle in dieser Begutachtung aufgeworfenen Fragen sind schon seit Langem umfassend beantwortet. Keiner dieser drei Begutachter kann also die Studie gelesen haben, die sie angeblich begutachtet hatten.

Nichtsdestotrotz meinte der Herausgeber die Studie ablehnen zu müssen. Als Nächstes kontaktierte uns das Management des Journals des Inhalts, dass man hoffe, wir wären einverstanden mit der Ablehnung, und man lud uns ein, künftig weitere Studien einzureichen. Ich erwiderte, dass wir keineswegs mit der Ablehnung einverstanden waren wegen der offensichtlichen Tatsache, dass keiner der Begutachter die Studie überhaupt gelesen hatte, welche der Herausgeber ablehnte. Wir bestanden daher auf das Recht, die Studie zu veröffentlichen.

Der Herausgeber stimmte zu, die Studie noch einmal zur Begutachtung zu stellen, und wählte diesmal die Begutachter mit größerer Sorgfalt aus. Wir schlugen vor – und der Herausgeber stimmte dem zu – dass wir angesichts der Schwierigkeiten, welche die Begutachter mit dem Verständnis des Punktes hatten, um den es geht und welcher sie eindeutig überraschte, der Studie eine umfassende mathematische Beweisführung hinzufügen, dass die Transfer-Funktion, welche die gesamte Wirkung der Rückkopplungen auf das Klima umfasst, sich nicht nur als das Verhältnis der Gleichgewichts-Sensitivität nach Rückkopplungen und der Referenz-Sensitivität ausdrücken lässt, sondern auch als das Verhältnis der gesamten absoluten Gleichgewichts-Temperatur zur gesamten absoluten Referenz-Temperatur.

Wir sagten, dass wir detaillierter erklären sollten, dass die Gleichung der Klimatologie nicht brauchbar ist – obwohl beide Gleichungen der Transfer-Funktion der offiziellen Klimatologie und unsere eigenen valide sind – weil selbst geringe Unsicherheiten in den Sensitivitäten, die um zwei Größenordnungen geringer sind als die absoluten Temperaturen, zu einer großen Unsicherheit der Werte der Transfer-Funktion führen, während sogar große Unsicherheiten bei den absoluten Temperaturen zu geringer Unsicherheit in der Transfer-Funktion führen. Diese kann folglich sehr einfach und sehr zuverlässig abgeleitet werden ohne den Gebrauch der allgemeinen Zirkulationsmodelle.

Ich habe den Eindruck, dass der Herausgeber erkannt hat, dass wir recht haben. Wir warten jetzt auf einen neuen Abschnitt unseres Professors der Kontroll-Theorie zur Ableitung der Transfer-Funktion aus der Energiebilanz-Gleichung mittels einer Ausdehnung einer Taylor-Reihe von führender Größenordnung. Das wird uns Ende des Monats vorliegen, und der Herausgeber wird die Studie dann noch einmal einer Begutachtung zuführen. Falls wir recht haben und die Charney-Sensitivität (Gleichgewichts-Sensitivität im Verhältnis zu verdoppeltem CO2) 1,2 (1,1; 1,3)°C beträgt, was viel zu gering ist, um von Bedeutung zu sein und nicht wie die Modelle zeigen 3,4 (2,1; 4,7)°C, dann wird dies, wissenschaftlich gesprochen, das Ende des Klima-Betrugs sein.

Link: https://wattsupwiththat.com/2019/01/10/the-credibility-gap-between-predicted-and-observed-global-warming/

Übersetzt von Chris Frey EIKE




GRÜNE Energie­weisheit würde die Strom­kosten um ca. 2,5 EUR/kWh erhöhen

Künftige Stromkosten bei Akkuspeicherung

Es gibt viele, welche in Akkus die einfache Lösung des latenten EEG-Speicherproblems sehen. Allen gemeinsam ist, dass dies nur einfach erscheint, so lange die Kosten dafür nicht angegeben werden.

In einer Information des Autors zum berühmten und hochgelobten Tesla-Akkuspeicher in Australien:
[2] EIKE 01. Oktober 2018:

Nun muss nicht alle 12 Jahre alles vollständig erneuert werden. Nehme man also nur die Hälfte davon an. Dann sind trotzdem noch alleine für die Akkuspeicherung, also zusätzlich zum aktuellen Strompreis, für die „Frau Baerbock-Speicherlösung“ zu bezahlen:
Zusatzkosten der kWh: 1,67 … 2,5 EUR oder
Jahres-Zusatzkosten pro Einwohner: 9.655 … 14.341 EUR

Da anzunehmen ist, dass die Industrie ihre anteiligen Kosten nicht voll übernehmen wird, dürfte der Betrag für die Privathaushalte eher deutlich höher ausfallen.
Manche mögen einwenden, dass die enormen Kosten für die zusätzlich erforderliche Infrastruktur noch fehlen. Aber beim EEG fehlt so viel (auch an Verstand), dass es darauf wirklich nicht mehr ankommt.

Werden die Speicherkosten heimlich zu den Elektroautos „verlagert“?

Solche Kosten werden sich nicht einfach vermitteln lassen. Während beherzte (hier ein sich besonder klimahysterisch gebender [4]) Verfechter der Energiewende sagen: Weil es nicht lösbar ist, am Besten einfach ignorieren, sonst wird noch nachgedacht und das ganze Konstrukt käme vielleicht ins Wanken:
[4] [5].

Es könnte aber auch sein, dass die kleine Episode nur der Auftakt zu einem neuen EEG-Speichermodell wird: Erzwingen und subventionieren der 100 % Elektromobilität, um „auf Teufel komm raus“ Speicher zu generieren, ohne die Kosten direkt benennen zu müssen.
Nach bewährter EEG Umlage-Subventionssitte würden die E-Auto-Besitzer davon profitieren und die daran gewöhnten, sonstigen privaten Strombezieher dafür wieder abgezockt. Diese sind das schon lange gewohnt, weshalb es in Deutschland dagegen kaum Proteste geben dürfte.
Und es lässt sich auch wie gewohnt als besonders bürgernah verkaufen, denn ein Teil der Bürger profitiert ja davon. Ach ja: Die Welt rettet es bestimmt auch ein ganz, ganz kleines bisschen vor dem Klimatod, weshalb die Gute Tat dieser Bürger noch draufgeschlagen werden kann.

Es wäre also nicht verwunderlich, wenn Frau Baerbock spontan gar nicht – wie man es bei der rein technisch/monetären Betrachtung meinen würde -, eine besondere Dummheit von sich gegeben hat, sondern nur ein bereits vorbereitetes (hochsubventioniertes) EEG-Lösungsmodell ausplauderte. Die Politik – weil sie bald eine Lösung braucht – und die Profiteure warten schon lange darauf, dass es endlich gestartet wird.
In diesem Sinn wäre Frau Baerbock wieder genial, nämlich mit dem richtigen Versprecher zur richtigen Zeit am richtigen Ort.

Quellen

[1] EIKE 18. Dezember 2018: Annalena Baerbock: In Deutschland emittiert jeder Bürger 9 Gigatonnen CO2

[2] EIKE 01. Oktober 2018: 90 Millionen US-Dollar für eine Tesla-Batterie in Süd-Australien, 28.224 Milliarden EUR dafür in Deutschland

[3] EIKE 2. Januar 2018: Das Elektroauto erzeugt nur Gewinner – und man verdient sogar Geld damit

[4] EIKE 30. Juli 2017: Der Visionär E. Musk (Tesla) rettet Südostaustralien für 32 Sekunden vor dem Blackout

[5] EIKE 06.02.2016: Nachgefragt: Ein lokaler Versorger bricht die Macht der Stromgiganten




Das Spiel „Klima Betrug“ rechtfertigt alle Mittel, denn das Ziel ist die Schlagzeile.

Quellen zu obigen Schlagzeilen:

Sie bezogen sich auf einen Brief, der in Nature von Resplandy et al. mit 9 weiteren Autoren veröffentlicht wurde. Ich bin automatisch vorsichtig, wenn es eine Vielzahl von Autoren gibt. Meine zweite Vorsicht war die 60% Zahl. Ich bin mir der absurden und extremen Behauptungen in Bezug auf der Ausbeutung von Umwelt und Klima bewusst, aber 60% sind auffällig. Für mich war dies ein Hinweis, dass die Wissenschaft nicht korrekt sein kann, aber für diejenigen, die diese Zahl erfanden, war die Schlagzeile alles, worauf es ankam. Außerdem, haben sie den Artikel „als Brief“ veröffentlicht. Vor einigen Jahren  war das eine Möglichkeit, eine Idee schnell zu unters Volk zu bringen, einen Vertrauensvorschuss herzustellen oder auf Kritik zu reagieren. In Beantwortung auf die Frage zum Peer-Review von Briefen schrieb John Flavin :

Augenscheinlich werden die Artikel weniger begutachtet als Sie es vermuten würden. In einigen Fällen wird die Illegitimität eines Artikels nach der Veröffentlichung festgestellt. Der Springer-Verlag (ab 2015 Springer Nature) war gezwungen, Artikel zurück zuziehen, von denen man annehmen würde, dass sie im Vorfeld durch das Peer-Review-Verfahren geprüft würden.

Die Geschichte der Veröffentlichung von Peer-Review-Artikeln in Nature, die später als falsch erkannt wurden, ist ein Beleg für dabei verwendete durchlässige Methoden. Die Geschichte des Journals spiegelt die Neigung der Redakteure zu Pro-AGW-Artikeln und Briefen wider. Natürlich können sie diese Absichten erweitern, indem sie Material an Rezensenten senden, die ein gewünschtes Ergebnis liefern – was ich redaktionelle Zensur nenne.

Es scheint, dass es eine Eile gab, diesen Befund in eine Schlagzeile zu bringen, um den jüngsten Alarmismus des IPCC) zu unterstützen. Dieses Dokument zeigt bereits im Titel eine klare Darstellung des Extremismus.

 „Globale Erwärmung um 1,5 ° C, ein IPCC-Sonderbericht über die Auswirkungen der globalen Erwärmung auf 1,5 ° C über dem vorindustriellen Niveau und den damit verbundenen globalen Treibhausgasemissionen im Zusammenhang mit der Stärkung der globalen Reaktion auf die Bedrohung durch den Klimawandel, der nachhaltigen Entwicklung und der Bemühungen zur Beseitigung der Armut. “

Die Pressemitteilung verstärkte den Extremismus und die Dringlichkeit.

Die Öffentlichkeit soll Skeptiker der globalen Erwärmung als Beleidigung begreifen. Die Wahrheit ist, dass ein Mensch kein Wissenschaftler ist, wenn er kein Skeptiker ist. Wie Thomas Huxley erklärte,

„Der Forscher zum besseren Verständnis der Zusammenhänge in der Natur weigert sich absolut, Autorität als solche anzuerkennen. Skepsis ist für ihn die höchste Pflicht; blinder Glaube eine unverzeihliche Sünde. “

Weitere Dringlichkeit pusht die bevorstehende Konferenz der Vertragsstaaten (COP 24) in Katowice, Polen. Das erklärte Ziel ist:

Das Hauptziel des Treffens ist die Verabschiedung von Umsetzungsleitlinien des Pariser Klimaschutzabkommens. Dies ist von entscheidender Bedeutung, da dadurch sichergestellt wird, dass das wahre Potenzial des Pariser Abkommens entfesselt werden kann, einschließlich der Verstärkung der Klimaschutzmaßnahmen, um das zentrale Ziel des Abkommens zu erreichen, nämlich die globale Durchschnittstemperatur auf 1,5 Grad Celsius zu halten .

Alles steht auf dem Spiel. Umfragen zufolge ist die Öffentlichkeit nicht besorgt, das Geld fließt nicht in den Green Climate Fund und Trump zog die Unterstützung der USA für das Pariser Abkommen zurück. Drastische Zeiten erfordern drastische Maßnahmen. Dies ist die Wissenschaft von Emotionen und der Politik, die „mit allen Mitteln“ eine Beeinflussung der Mentalität rechtfertigt, die die Befürworter der AGW antreibt.

Wenn Skepsis die wichtigste Eigenschaft eines Wissenschaftlers ist, gilt dies für alle Forschungen, einschließlich der eigenen Arbeit eines Wissenschaftlers. Mein Vater brachte mir als wichtigste Lektion bei, dass ich mein härtester Kritiker bin. Leider macht mich der Missbrauch des Klimas für eine politische Agenda zynisch. Ich bin jetzt ein selbsternannter Zyniker der globalen Erwärmung, insbesondere über die von einer Regierung finanzierte Arbeit von wissenschaftlichen Bürokraten.

Einige sagten, das Ergebnis sei „zu gut, um wahr zu sein“. Das hängt natürlich von Ihrem Blickwinkel ab. Für einen zynischen Wissenschaftler oder sogar für einen gesunden Skeptiker setzen die Daten, die Methode oder die Analyse „rote Fahnen“ oder alle zusammen davon. Ein normaler Wissenschaftler, der nur die Hälfte der 60% Differenz feststellt, würde die Ergebnisse viele Male überprüfen und so viele objektive Kollegen wie möglich dazu bringen, dies zu überprüfen. Für eine Person, deren Perspektive und Objektivität durch finanzielle oder politische Überzeugungen stark verzerrt ist, ist dies ein hervorragendes Ergebnis.

Die Leute loben den Autor Ralph Keeling, der Studie für die Anerkennung des Fehlers, aber es gab keine Wahl. Wenn Sie einen Fehler finden, geben Sie ihn zu und machen Sie weiter, oder verdoppeln Ihre Verteidigung.

Es gibt eine interessante Parallele zu einem anderen Beispiel eines Fehlers in der Täuschung mit der globalen Erwärmung. Das 60% -Fehlerpapier wurde nach per-review in Nature veröffentlicht. Es nutzte das, was ein Medienunternehmen als „eine neuartige Methode zur Messung der von den Ozeanen der Welt aufgenommenen Wärmemenge“ bezeichnete. Eine andere Studie mit einem ähnlichen Schockpotential wie die Studie zur Temperatur des Ozeans erschien auch in Nature in 1998. Mann, Bradley und Hughes (MBH98) haben eine Peer-Reviewed Studie verfasst, die eine neuartige statistische Methode verwendete, um dieses Ergebnis zu erzielen.

Der Wegman-Report untersuchte was mit MBH98 und dem berüchtigten „Hockeyschläger“ passiert ist.  Es zeigen sich Parallelen zum Scripps-Debakel. Hier sind die Empfehlungen von Wegman:

Empfehlung 1. Vor allem wenn es um massive öffentliche Gelder und das Leben der Menschenheit geht, sollte die akademische Arbeit intensiver überprüft und nachgeprüft werden. Insbesondere sollten Autoren politikrelevanter Dokumente wie der IPCC-Bericht „Climate Change 2001: The Scientific Basis“ nicht die gleichen Personen sein wie diejenigen, die die wissenschaftlichen Arbeiten erstellt haben.

Schlussfolgerung 2. Als Statistiker waren wir beeindruckt von der Isolation der Paläoklima-Kollektive, die sich stark auf statistische Methoden stützt, aber scheinbar nicht mit den statistischen Mainstream Gruppen zu interagieren scheint. Die Auswirkungen dieser Debatte auf die Politik sind finanziell umwerfend, und offensichtlich wurde kein unabhängiges statistisches Gutachten gesucht oder genutzt.

Empfehlung 3. Bei klinischen Studien für Arzneimittel und Produkte, die von der FDA für die Verwendung durch Menschen zugelassen werden sollen, wird eine Überprüfung und Konsultation der Statistiker erwartet. In der Tat ist es üblich, Statistiker in den Antrag auf Genehmigung aufzunehmen. Wir halten dies für eine gute Politik, wenn es um die öffentliche Gesundheit und auch um erhebliche Geldbeträge geht, beispielsweise wenn wichtige politische Entscheidungen auf der Grundlage statistischer Bewertungen getroffen werden sollen. In solchen Fällen sollte die Bewertung durch Statistiker üblich sein. Diese Bewertungsphase sollte ein obligatorischer Bestandteil aller Finanzhilfeanträge sein und entsprechend finanziert werden.

Schlussfolgerung 4. Während die Rekonstruktion des Paläoklimas durch die Verstärkung seiner politischen Agenda viel Bekanntheit erlangt hat, bietet die Studie keine Einsicht und Verständnis für die physikalischen Mechanismen des Klimawandels. Baumringe, Eisbohrkerne und ähnliches sind keine physikalische Beweise für die allgemeine Wirkung von Treibhausgasen. Was wir brauchen, ist ein tieferes Verständnis der physikalischen Mechanismen des Klimawandels.

Aufgrund der Geschichte von Ralph Keeling und des Scripps Oceanographic Institute ist es schwer zu akzeptieren, dass ein derart großer Fehler mit großen Auswirkungen auf die [angeblich] vom Menschen verursachte globale Erwärmungsagenda auftreten kann. Sein Vater Charles Keeling war zu Beginn der gesamten AGW-Geschichte ein wichtiger Spieler. In seinem Nachruf sagt er

 „… Löste die aktuellen Bedenken hinsichtlich der globalen Erwärmung aus, indem in den 1950er Jahren Messungen durchgeführt wurden, die stetig steigende Mengen an Kohlendioxid in der Luft zeigten.“

„Es wurde sehr schnell klar, dass der gemessene CO2-Anstieg proportional zu den Emissionen fossiler Brennstoffe war und dass nur der Mensch die Ursache der Veränderung war“, sagte Dr. James E. Hansen, Direktor des Goddard Institute for Space Studies der NASA in New York. „Er änderte unsere Sichtweise dahingehend, inwieweit die Erde die menschlichen Angriffe kompensieren kann.“

Die Keeling-Familie besitzt das Patent für die Ausrüstung mit Kohlendioxidmessgeräten in Mauna Loa. Die jährlichen Schätzungen des atmosphärischen CO2 werden vom IPCC produziert und kontrolliert.

In einem FAQ-Abschnitt erklärt das IPCC:

„Mit Hilfe der IPCC-Verfahren verfassen nominierte Experten aus der ganzen Welt die Berichte, die dann zweimal eingehend geprüft werden, bevor sie vom IPCC genehmigt werden.“

 

Screenshot; Der Wissenschaftler Ralph Keeling am 15.Okt. 2007 in einer Pressekonferenz in der Scripps Institution of Oceanograpy , anlässlich der Verleihung des Nobelpreises:

Dave Keelings Sohn, Ralph Keeling, war einer der Gutachter des vierten IPCC-Berichts.“Ich spielte eine eher untergeordnete Rolle“, sagte er am Freitag. „Aber ich bin stolz auf meine Kollegen und ich bin stolz auf Al Gore und seine Rolle bei der Vermittlung der Wichtigkeit dieses Problems.“

Gore hat einige Details falsch verstanden, und die Wissenschaftler haben es ihm gesagt, sagte Somerville. Insgesamt ist „An Inconvenient Truth“ ein guter Film und eine gute Einführung in die globale Erwärmung, fügte der Scripps-Forscher hinzu. „Niemand hat mehr getan, um die Leute auf die Probleme aufmerksam zu machen“.

 

Ralph Keeling war ein Gutachter des Fünften IPCC-Bewertungsberichts (AR5). Naomi Oreskes machte unbegründete und statistisch irreführende Behauptungen über den „Konsens“ in der AGW-Debatte. Scripps ist ein Institut im Herzen der AGW-Täuschung, bei der Objektivität, die für gute Wissenschaft unerlässlich ist, nie im Spiel war.

Wir danken dem Mathematiker Nic Lewis dafür, dass er den mathematischen Fehler bemerkt hat. Er schrieb in seinem Artikel auf der Website von Judith Curry :

„Es dauerte nur ein paar Stunden Analyse und Berechnungen … das war ausreichend, um anscheinend gravierende (aber sicherlich unbeabsichtigte) Fehler in den zugrunde liegenden Berechnungen aufzudecken.“

Dies ähnelt der Entdeckung des Missbrauchs von MBH98-Statistiken durch Steve McIntyre, der, obwohl er zu dieser Zeit noch nicht mit der Klimatologie vertraut war, die Fehler in der Grafik des „Hockeyschläger“ erkannte.

Zuerst unterstellte McIntyre der Studie MBH98 den Vorteil eines unbeabsichtigten Fehlers, aber das änderte sich dann nach und nach durch die Reaktionen, die er darauf erhielt. Lewis unterstellte der Scripps-Studie einen ähnlichen unbeabsichtigten Fehler, als er sie als „ernste (aber sicherlich unbeabsichtigte) Fehler“ bezeichnete. Hier unterschieden sich die Scripps-Leute. Die MBH98-Autoren leugnen immer noch ihre Fehler. Ralph Keeling hat den Fehler schnell erkannt und seine Revision an Nature übermittelt.

Alles scheint gelöst, aber meiner Meinung nach ist es das nicht. Die Los Angeles Times zitiert Lewis.

„Es genügte eine kurze Revision der ersten Seite der Studie, um Zweifel an der Genauigkeit der Ergebnisse aufkommen zu lassen.“

Dies impliziert, dass der Fehler offensichtlich war. Der Fehler war auch sehr groß. Beide Faktoren deuten darauf hin, dass die Autoren entweder unglaublich inkompetent waren, so von ihrer Befangenheit geblendet, dass es keine Wissenschaft mehr ist, oder sie glaubten, sie könnten damit durchkommen. In jedem Fall sollten sie ihre Positionen [Posten] nicht länger behalten.

Meiner Meinung nach stimme ich für die letzte Möglichkeit. Keeling und diejenigen, die mit der Täuschung zu tun haben, wissen, dass das, was in der Öffentlichkeit bleiben wird, die ursprüngliche Schlagzeile von 60% ist. Wie alle Korrekturen werden diese niemals die gleichen Schlagzeilen auf der Frontseite wie die ursprüngliche Story erhalten. Meines Erachtens haben viele Medien die Korrektur überhaupt nicht veröffentlicht. Das Ziel rechtfertigt die Mittel und das Ziel von COP24 ist der Beweis, dass sie die Wissenschaft weiterhin pervertieren und missbrauchen werden. Wir haben das in den durchgesickerten Emails von Climategate gesehen.

Jedoch, beziehen Sie meine Worte nicht einfach auf die tief verwurzelte Korruption der Wissenschaft. Denken Sie an die Worte eines anderen Lewis, emeritierter Professor für Physik an der University of California, dem verstorbenen Hal Lewis. In seinem Kündigungsschreiben vom Oktober 2010 an die American Physical Society (APS), [ähnlich der Deutschen Physikalischen Gesellschaft – ähnlich auch in deren Handeln], nachdem deren Führungskräfte die IPCC-Wissenschaft ohne Rücksprache mit den Mitgliedern unterstützt hatten:

 „… Der Betrug der globalen Erwärmung mit den (buchstäblich) Billionen Dollar, die ihn antreiben, hat so viele Wissenschaftler korrumpiert und die APS wie eine Welle von Schurken davor getragen. Es ist der größte und erfolgreichste pseudowissenschaftliche Betrug, den ich in meinem langen Leben als Physiker gesehen habe. “

Gefunden auf WUWT vom 17.11.2018

Übersetzt durch Andreas Demmig

https://wattsupwiththat.com/2018/11/17/in-the-climate-deception-game-where-the-end-justifies-the-means-the-objective-is-the-headline/

 

Zu diesem Thema erschien bereits früher ein Kommentar von Dr. Tim Ball auf WUWT, hier übersetzt auf Eike




Alarm-Sirenen unter Wasser !

Ausgerechnet im Lande des global größten CO2-Emittenten China entdeckt man jetzt [1] :

„Die Weltmeere heizen sich immer schneller und immer stärker auf. Das geht aus einem Bericht der Chinesischen Akademie der Wissenschaften in der Fachzeitschrift „Science“ hervor.“

Das hörte sich doch vor wenigen Jahren noch ganz anders an [2] :

Klimaforscher rätseln über Meereskälte Die Erde erwärmt sich. Aber das Meer? Klimaforscher vermuten, daß sich die Ozeane seit sieben Jahren nicht mehr erhitzen…“.

Nun plötzlich – wenigen Jahre später – ist alles ganz anders (?) [1] :

„Laut der Untersuchung habe die Temperatur der Ozeane in einer Tiefe von bis zu 2000 Metern zwischen 1971-2010 um 0,1 Grad Celsius zugenommen.“

Wie bitte, haben wir das richtig verstanden (?) :

In 40(!) Jahren hat die Temperatur der Meere um 0,1 Grad(!) zugenommen ? … in Worten: um „Null-Komma-Eins“ Grad !?

Jeder, der sich schon mal mit Messungen verschiedener    Meßinstrumente beschäftigt hat, der weiß: Genau in diesem Bereich liegt die Fehlergrenze jedweder Temperatur-Meßinstrumente!

Doch damit nicht genug [1] :

„Die starke(!?) Erhitzung der Ozeane lasse den Meeresspiegel weiter ansteigen, so die Forscher in dem „Science“-Beitrag. Der Grund dafür liegt in der wärmebedingt stärkeren Ausdehnung des Meereswassers. Allein dieser Effekt führe zu einem Anschwellen des Meeresspiegels um bis zu 30 Zentimeter.“ …

„Außerdem führt die Erwärmung des Meerwassers zu einer weiteren Zerstörung der Korallenriffe und reduziert den Sauerstoffgehalt in den Ozeanen.“

Darf man in einer „auf Klima-Katastrophe gleich geschalteten Welt“ überhaupt noch konkret nachfragen, ob das alles durch Messungen verifiziert ist (?) :

==>  WENN denn die Meere sich derart erwärmt hätten über 40(!) Jahre mit den publizierten Folgen [1] [3], dann „müßte/sollte“ man d a s doch wohl in den Meßwerten der Pegel und Satelliten über die genannten „40 Erwärmungsjahre“ wieder finden – oder ?

Wir schauen uns das in Folgendem kurz + knapp anhand von Meßwerten und Graphiken an:

(1) Nordsee-Pegel

(2) Globale Pegel

Eine Übersicht und Auswertung der global 1.200 Küsten-Pegel sowie der SAT-Daten kommt zu diesem Ergebnis [4] : 

„Zahlreiche Auswertungen von Küsten-Pegel-Messungen über 200 Jahre sowie neuerdings von Schwere-Messungen der GRACE-Satelliten ergeben immer wieder einen Meeres-Anstieg von etwa 1,6 mm/yr. Dagegen stehen die seit 1992 publizierten Altimeter-Messungen mit den Satelliten-Systemen TOPEX/POSEIDON/JASON mit doppelt so hohen Werten von 3,2 mm/yr. Die erhebliche Diskrepanz ist bis heute ungeklärt. Dabei stimmen jedoch immerhin die Trends überein: Der Meeres-Anstieg verläuft seit wenigstens 100 Jahren linear, es gibt keine Beschleunigung des Anstieges. Ein Signal durch anthropogenes CO2 (AGW) ist nirgends erkennbar. Das alles steht in krassem Widerspruch zu den Verlautbarungen und insbesondere zu den alarmistischen Prognosen des Klimarates IPCC und einiger Klima-Institute.“

Diese Arbeit [4] enthält zahlreiche Daten und Graphiken, eine mag hier genügen:

Meeres-Trend 1807-2009; 1277 Pegel [5]

In dieser Graphik ist zwar von den Autoren weder eine Regressions-Gerade eingefügt noch ein Polynom, aber auch so ist „durch Augenschein“ gut erkennbar:

()  In der ersten Hälfte des 19. Jh. ist der Meeresspiegel um ca. 15 cm abgesunken;

()  Seit ca.1860 steigt der Meeresspiegel wieder – wie schon vor 1800 über die Jahrtausende ;

()  Seit 1860 sind dekadale Phasen rascheren und verlangsamten Anstieges erkennbar, eine Trend-Beschleunigung über den Gesamtzeitraum seit 1860 ist nicht erkennbar.

Daher steht im Abstract der Arbeit [5] :

„The new reconstruction suggests a linear trend of 1.9 ± 0.3 mm/yr during the 20th century, with 1.8 ± 0.5 mm/yr since 1970.“

Daraus folgt:

Die mittlere jährliche Anstiegsrate für den Teil-Zeitraum ab 1970 ist geringer als die Anstiegsrate für das gesamte 20. Jahrhundert! Es hat folglich eine Verlangsamung des Anstieges im 20. Jahrhundert bis heute statt gefunden.

(3) Satelliten-Messungen

Auch die Satelliten-Messungen zeigen keine Beschleunigung beim Meeres-Anstieg :

F a z i t :

Alle diese realen vieljährigen Meßwerte sind im WEB verfügbar, für jeden einsehbar – auch für die deutschen Medien: An der deutschen Nordsee-Küste zeigen die Pegel eine säkulare Verlangsamung des Meeres-Anstieges. Auch zahlreiche Auswertungen von 1200 Pegeln global sowie der Satelliten-Daten zeigen keine Beschleunigung des Meeres-Anstieges. Für die von der Chinesischen Universität prognostizierten Folgen einer angeblich über 40 Jahren währenden Meeres-Erwärmung (0,1 Grad) gibt es keine Anzeichen in den weltweiten Messungen des Meeres-Anstieges.

Das hindert die geballte, freiwillig auf „Klima-Katastrophe geschaltete“ Medien-Landschaft nicht daran, die zitierte „Null-Komma-Eins-Katastrophe“ ungeprüft in die Welt zu blasen.

=======================================

)1 Aktueller Nachtrag :

Wie hatten wir doch gleich w.o. eingangs gesagt (?):

Mit den aktuellen Schnee-Lawinen in Deutschland und Österreich in diesem Januar 2019 läßt sich die anthropogene Erwärmungs-Katastrophe derzeit wohl nicht überzeugend unters Volk bringen.

Welch ein Irrtum unsererseits, den das PIK in bewährtem Schulterschluß mit den Medien soeben offen legt [6] [7] [8] :

FAZ-net [6] :

Winterlicher Klimawandel“ … „Tatsächlich läßt sich im Schnee inzwischen nicht nur sehr viel über die Konsequenzen der beschleunigten Erderwärmung erfahren…“

FOCUS-online [7] :

„Erst der Klimawandel führt zur Schnee-Zange, die Deutschland im Griff hat“.

Und nochmals Müller-Jung in FAZ-net [6] :

„Eigentlich sind die Luftmassen für den Januar viel zu warm …“.

DAS werden die betroffenen Menschen in den Schneegebieten wohl anders beobachten und empfinden [7] :

„Auch im übrigen Europa hatten die Menschen mit dem ungewöhnlichen Winterwetter zu kämpfen. …. In Griechenland herrschen Temperaturen von minus 20 Grad Celsius. Weiße Flocken sanken auf die Athener Altstadt samt der Akropolis. In Rumänien sank das Thermometer sogar bis auf minus 24 Grad.“

Und so sanken auch die Temperaturen auch in den deutschen und österreichischen Schneefallgebieten zeitweise unter minus 10 Grad.

Am 11.01.2019 ist auf ScienceScepticalBlog [8] , zu dem PIK- und Medien-Unfug. Dort [8] ist u.a. zu lesen :

Dagegen (KRÜGER a.a.O.):

Sein F a z i t :

So gilt denn längst ein ehernes Gesetz bei den Alarmisten :

Ob WARM oder KALT; ob TROCKEN oder FEUCHT; ob REGEN, SONNE oder SCHNEE –

stets ist es der mensch-gemachte Klimawandel. Hätte es noch eines Beweises bedurft – PIK und die Medien legen ihn vor!

=================================================

Q u e l l e n :

[1] http://www.spiegel.de/wissenschaft/natur/klimawandel-ozeane-heizen-sich-immer-schneller-auf-a-1247512.html

[2] http://www.spiegel.de/wissenschaft/natur/phaenomen-fehlende-waerme-klimaforscher-raetseln-ueber-meereskaelte-a-694719.html

[3] https://www.pnas.org/content/early/2019/01/04/1808838115

[4] https://www.eike-klima-energie.eu/2015/08/28/globale-ueberschwemmung-vor-paris-oder-eben-200-jahre-spaeter-oder-eben-nie/

[5] JEVREJEVA, S., et al.: Global Sea Level Behavior of the Past Two Centuries; Global and Planetary Change 113: 11-22; (2014); http://kaares.ulapland.fi/home/hkunta/jmoore/pdfs/Jevrejevaetal2013GPChange.pd

[6] https://www.faz.net/aktuell/wissen/erde-klima/schneechaos-in-den-alpen-winterlicher-klimawandel-15977471.html

[7] https://www.focus.de/wissen/klima/was-den-extremwinter-beschert-erst-der-klimawandel-fuehrt-zur-schnee-zange-die-deutschland-im-griff-hat_id_10173974.html

[8] (a) http://www.science-skeptical.de/klimawandel/das-potsdam-institut-fuer-klimafolgenforschung-pik-schliesst-einen-zusammenhang-zwischen-den-aktuellen-schneemassen-in-den-alpen-und-dem-klimawandel-nicht-aus/0017346/ (b) https://www.eike-klima-energie.eu/2019/01/12/das-potsdam-institut-fuer-klimafolgenforschung-pik-schliesst-einen-zusammenhang-zwischen-den-aktuellen-schneemassen-in-den-alpen-und-dem-klimawandel-nicht-aus/

=====================================

PDF im Anhang dieses Beitrages verfügbar :

Puls.MSp.2019.Tx(X)kpl