Die traurigen Geschichten der Wikipedia Bande im Krieg gegen WUWT – ‚gruselig und ein wenig beaengstigend „

Lesen Sie hier mehr: The-ClintonObama-War-The-Battle-of-Wikipedia [Der-Clinton-Obama-Krieg: Die-Schlacht-in-Wikipedia]

Dies veranschaulicht die grundlegenden Probleme mit der Zuverlässigkeit von Wikipedia in einem Eintrag, in denen die Meinung der Menschen beteiligt ist. Es gibt umherziehende Banden (und manchmal Menschen, die Banden-artig erscheinen aufgrund ihres Output-levels, wie der in Ungnade gefallene Wikipedia-Editor William Connolley, der ohne Zweifel wehklagen wird über diese Anmerkung, [hier und hier und hier] , und dann fortfahren wird mit dem posten der üblichen Verunglimpfungen auf seinem „Stoat Blog, den Naturwissenschaften an die Gurgel“) [Staot: Hermelin, Anspielung auf einen selbsternannten König] und Personen, die als Hüter der eigenen Vision von “ Wahrheit „handeln, unabhängig davon, ob diese Wahrheit richtig ist oder nicht. Einige dieser Leute werden einfach als Politarbeiter bezahlt. Andere sind Eiferer, die den Glauben haben, dass sie Teil einer „gerechten Sache“ sind, etwas, das wir aus Climate Gate als “noble cause corruption“ kennen [der Zweck heiligt die Mittel, … Selbstjustiz].

Viele der beteiligten Personen verwenden nicht einmal ihren richtigen Namen, und verstecken sich natürlich hinter dieser Anonymität. Meiner Meinung nach, ist es wirklich eine verantwortungslose und feige Art und Weise, um „Wahrheit“ zu definieren ohne Verantwortung für Ihr Handeln aufzubringen.

Gerade jetzt herrscht ein Krieg über WUWTs Eintrag auf Wikipedia, mit der klaren Absicht eine Schmutzkampagne loszutreten. Ich habe dazu eine große Menge von E-Mail bekommen. Hier einige Beispiele:

Nur eine Vorwarnung, dass eine gemeinsame Anstrengung im Gange ist, um Sie und WUWT als „ein Blog den Klimawandel Leugnern gewidmet“ zu kennzeichnen (erste Zeile in der Anzeige, WUWT Artikel) und vom Klimatologen Michael E. Mann in „Der Hockey-Stick und die Klimakriege“ beschrieben als: „überholt Climate Audit als führender Klimawandel Lügner-Blog“. (letzte Zeile in Ihrem Wikibio).[1] Ein Doppelangebot! Seufz.

Es ist eine bestimmte Gruppe, und die Dinge (wie Sie sich erinnern können) werden durch Kopf-Zählungen entschieden. „Sie“ haben mehr Köpfe als wir ….

Von einem anderen betroffenen Leser

Ich habe gerade versucht es richtig zu stellen und wurde lahmgelegt. Jene Leute kümmern sich wirklich mehr um „Informationsregulation“ der Öffentlichkeit als nur die Tatsachen zu berichten. Es ist gruselig und ein wenig beängstigend. Ein bisschen wie Doppelzüngigkeit. Das Spiel scheint zu sein, die Suche nach einer „Quelle“, die ihren eigenen Standpunkt vertritt und dann dieser Quelle „hohe Glaubwürdigkeit“ zuerkennen, während alles andere verunglimpft wird. Ich bin über den Klimawandel tatsächlich ambivalent und irgendwo in der Mitte, es ist ein großes Problem. So viel ist unbekannt, wenn es um die Naturwissenschaften geht. Aber wenn ich das oben beschriebene Verhalten sehe, macht mich das richtig, richtig krank, unabhängig davon, um welche Seite es geht. Wie auch immer, ich wollte nur dieses nur zu Ihrer Aufmerksamkeit bringen, für den Fall Sie würden es nicht bereits kennen.

Und das noch:

Anthony, ich weiß nicht, ob Sie es sich bewusst sind, bei der Suche nach WUWT mit Bing [2] erscheint ein Profil am rechten Rand, von dem der erste Satz lautet: “Watts Up With That? is a blog dedicated to climate change denial created in 2006 by Anthony Watts” [ .. ist ein Blog, dem Leugnen des Klimawandels gewidmet …]

[Bing.com funktioniert von einem deutschen PC nur mit deutschen Text, Verweis auf Wikipedia.org, hier der aktuelle, deutsche Text:

„Watts Up With That (abgekürzt WUWT) ist ein Blog, der im November 2006 vom früheren TV-Wetterkommentator Anthony Watts begonnen wurde und sich aus einer klimaskeptischen Position heraus mit der Kontroverse um die globale Erwärmung beschäftigt.“]

Ich habe ihr Feedback Formular genutzt um darauf zu protestieren, aber ohne Zweifel wird es ignoriert. Keine Möglichkeit, darauf zu reagieren.

Natürlich bin ich nicht berechtigt, Änderungen selbst zu machen, denn die Wikipedia-Regeln verhindern solche Dinge wegen möglicher „Voreingenommenheit“. (Hinweis: In einigen Fällen wird sogar die Wikipedia Verwaltung nicht einmal versuchen, Unwahrheiten zu korrigieren, die einen öffentlichen Aufruf erfordern, wie dieser Offener Brief an Wikipedia.

Aber seltsamerweise sind wir für Menschen, die ein absichtliches Vorurteil gegen mich und WUWT haben, Freiwild für solche Änderungen. Die Zitate Liste auf der WUWT Wikipedia-Seite liest sich wie ein „Who is Who“ der Hasser.

Für die Aufzeichnung:

Ich streite Klimawandel oder globale Erwärmung „nicht ab“, es ist mir klar, dass die Erde sich im letzten Jahrhundert erwärmt hat, das ist unbestritten. Ich glaube auch, dass zunehmende Mengen von CO2 in Erdatmosphäre Bestandteil dieser Erwärmung sind, aber das CO2 ist nicht der einzige Treiber des Klimas, wie manche uns glauben machen wollen. Jedoch, was umstritten ist (und von der Mainstream-Klimawissenschaft in Frage gestellt) ist sowohl die Klimasensitivität von CO2 als auch die Lücke in der globalen Erwärmung, auch als „Pause“ bekannt. Da ich die Idee der Erwärmung annehme und CO2 ein Faktor ist, zusammen mit anderen Treibern, einschließlich natürlicher Variabilität, ist das Label „Lügner“ rein für die Verunglimpfung angewendet und reflektiert meine Position in Bezug auf das Klima nicht.

Der Absatz oben, sollte als eigener Eintrag in den Wikipedia Zitaten stehen.

Da es sich um ein Spiel mit Zahlen handelt und weil jeder Wikipedia-Artikel bearbeiten kann, frage ich WUWT Leser in dieser Angelegenheit zu helfen. Hier sind einige Anweisungen wie dies zu tun ist, einschließlich der offiziellen Wikipedia Tutorials. Nachdem Sie ein Konto erstellt haben, können Sie Änderungen vornehmen.

Wenn Sie mitmachen, halten Sie sich bitte an Tatsachen, nicht an Meinungen. Vielen Dank für Ihre Aufmerksamkeit

Erschienen am 25. Mai 2015 auf WUWT

http://wattsupwiththat.com/2015/05/25/the-sad-tales-of-the-wikipedia-gang-war-regarding-wuwt-creepy-and-a-little-scary/

Übersetzt durch Andreas Demmig

Recherche des Übersetzers:

[1] Wiki siehe hier: Jump up to: a b c d e Mann, Michael (1 October 2013). The Hockey Stick and the Climate Wars: Dispatches from the Front Lines. Columbia University Press. pp. 27, 72, 222. „Since then, a number of other amateur climate change denial bloggers have arrived on the scene. Most prominent among them is Anthony Watts, a meteorologist…and founder of the site „Watts Up with That?“ which has overtaken climate audit as the leading climate change denial blog.“

[2] Ich habe mal u.g. Suchmaschinen getestet:

Bing.com; Google.de; Yahoo.com; T-Online.de; AOL.de; Search.com; ASK.de

„WUWT“ an erster Stelle, Wiki-WUWT an 2. und 3.;
Bing außerdem rechtes extra Feld Wiki-WUWT
Nur Ask bietet keinen Wiki Hinweis

„Eike“ an erster Stelle, Wiki-Eike an 2. Und / bzw. 3. Stelle
Ask und Search erstmal viele Eike-Namen, unten dann Eike.eu, kein Wiki Hinweis.

Obwohl also nur die Abkürzungen „WUWT“ und „EIKE“ eingeben werden, erhält der Suchende auch Artikel „in Wikipedia“, das ist etwas anderes als „Eike“ Namensanzeigen.

Normal 0 21 false false false DE X-NONE X-NONE




Verzweifelte neue NOAA-Studie: Gibt es am Ende doch keinen ,Stillstand‘?

Die wesentliche Behauptung [2] der Autoren, dass sie einen bedeutenden gegenwärtigen Erwärmungstrend enthüllt haben, ist dubios. Das Signifikanz-Niveau, das sie für ihre Ergebnisse in Anspruch nehmen (0,10) ist kaum normativ, und die Verwendung desselben sollte die Mitglieder der wissenschaftlichen Gemeinschaft sofort veranlassen, die Begründungen für die Verwendung eines solchen laxen Standards zu hinterfragen.

Außerdem war die Behandlung der Bojenmessdaten bzgl. der Wassertemperatur seitens der Autoren geeignet, garantiert einen Erwärmungstrend zu erzeugen. Die Daten wurden um 0,12°C nach oben korrigiert, um sie mit längerfristigen Messungen der Temperatur des zum Kühlen der Maschinen einströmenden Wassers von Schiffen zu „homogenisieren“.

Wie zahlreiche Wissenschaftler inzwischen eingeräumt haben, sind die so gewonnenen Daten eindeutig beeinflusst durch die Abwärme der Struktur und dürften als solche niemals für wissenschaftliche Zwecke verwendet werden. Andererseits ist die Überwachung der Umwelt die spezielle Aufgabe der Bojen. Adjustiert man gute Daten, damit sie zu schlechten Daten passen, ist das fragwürdig, und die Tatsache, dass das Bojen-Netzwerk während der letzten zwei Jahre immer dichter geworden ist, bedeutet, dass eine solche Adjustierung den Daten einen Erwärmungstrend verleihen muss.

Die Ausweitung von Festlandsdaten in hohen arktischen Breiten auf den Arktischen Ozean ist ebenfalls fragwürdig. Weite Gebiete des Arktischen Ozeans sind auch im Sommer mit Eis bedeckt, was bedeutet, dass die Lufttemperatur darüber in der Nähe des Gefrierpunktes verharren muss. Extrapoliert man Festlandsdaten auf den Ozean, muss es zwangsläufig zu übertrieben hohen Temperaturwerten kommen.

Außerdem gibt es viele verschiedene Messungen in vielen verschiedenen Bereichen der unteren Atmosphäre, unabhängig von Messungen an der Oberfläche, welche die Existenz des „Stillstands“ zeigen [3]. Wären die Daten von Karl et al. wirklich robust, könnte das nur bedeuten, dass die Disparität zwischen Oberfläche und mitteltroposphärischen Temperaturen sogar noch größer ist als zuvor beschrieben.

Bildet man die vertikale Verteilung der Temperatur falsch ab, wird praktisch jede Vorhersage des Wetters durch ein Klimamodell ungültig, da die meisten Wettererscheinungen (einschließlich Regenmenge) der vertikalen Struktur der Atmosphäre geschuldet ist.

Stattdessen wäre es logischer, das Ergebnis von Karl et al. ernsthaft in Frage zu stellen angesichts der Tatsache, dass es im Vergleich mit jenen Temperaturen im Großteil der Atmosphäre ein Ausreißer ist und dass es einen Erwärmungstrend in jüngster Zeit zeigt, der nicht mit allen anderen globalen Aufzeichnungen übereinstimmt.

Abbildung: Die Verteilung der Trends der projizierten globalen mittleren Temperatur im Zeitraum 1998 bis 2014 aus 108 Läufen von Klimamodellen, die im letzten Bericht des IPCC verwendet wurden (blaue Balken). Die Modelle liefen bis 2005 mit historischen Klimaantrieben und wurden bis 2014 erweitert mit dem RCP4.5-Szenario. Der Temperaturtrend im gleichen Zeitraum nach Karl et al. 2015 ist in rot dargestellt. Er fällt beim Perzentil 2,4 der Modellverteilung und zeigt einen Wert, der (statistisch) deutlich unter der mittleren Modellprojektion liegt.

[1] Karl, T. R., et al., Possible artifacts of data biases in the recent global surface warming hiatus. Scienceexpress, embargoed until 1400 EDT June 4, 2015.

[2] “It is also noteworthy that the new global trends are statistically significant and positive at the 0.10 significance level for 1998-2012…”

[3] Both the UAH and RSS satellite records are now in their 21st year without a significant trend, for example

Link: http://wattsupwiththat.com/2015/06/04/noaas-new-paper-is-there-no-global-warming-hiatus-after-all/

Übersetzt von Chris Frey EIKE




Warum ein Ausstieg aus der Kohle schädlich ist

Dabei ist allen seriösen Forschern klar, dass Karl nur zu diesem Ergebnis gelangen konnte, weil er massiv ältere Daten verfälscht und alle anderen Datensätze wegließ. (Erste Details hier) Lesen Sie daher das Plädoyer von Fritz Fahrenholt auch unter diesem Aspekt

 Warum ein Ausstieg aus der Kohle schädlich ist

von Fritz Vahrenholt

Der norwegische Staatsfond, einer der größten Investoren der Welt, soll nach dem Willen des norwegischen Parlamentes nicht mehr in Unternehmen investieren, die bei mehr als 30 Prozent ihres Geschäftes abhängig von Kohle sind.

Umweltaktivisten sind in Feierlaune, die Medien berichten ausführlich über den Anfang des Ausstiegs aus fossilen Energieträgern, die Finanzbranche horcht auf.

Nun hat der Boykott von Unternehmen durch Nachhaltigkeitsfonds, sei es in der Zigaretten- oder Rüstungsindustrie, noch nie dazu geführt, dass die Produkte verschwinden. Solange profitable Ergebnisse produziert werden, findet sich Kapital, das investiert.

Interessant ist allerdings, woher die rund 900 Milliarden Dollar des norwegischen Staatsfonds stammen : Es ist der Ertrag aus dem lukrativen Öl-und Gasgeschäft Norwegens. Die Begründung für den Ausstieg aus der Kohle ist die mutmaßliche Klimabeeinträchtigung durch CO2 -Emissionen beim Verbrennen der Kohle. Doch beim Ersatz der Kohle durch Öl oder Gas entsteht immerhin mindestens 50 Prozent der durch Kohle bedingten Emissionen. Nicht einberechnet sind dabei die Emissionen aus Gas-Pipeline-Leckagen durch das mehr als 20 mal mehr klimabeeinflussende Erdgas.

Doch die grüne Umweltlobby in Deutschland will es gerne noch radikaler: Carbonfree ist das Ziel, also weg von Kohle, Öl und Gas. 100 Prozent der Energieerzeugung soll aus erneuerbaren Energien erzeugt werden. Sind wir wirklich sicher, dass Windkraftanlagen per se die umweltfreundlichere Energieerzeugung darstellt? Um die gleiche Menge Strom zu erzeugen, bräuchte es eines Flächenverbrauchs mit entsprechender Naturzerstörung in astronomischem Ausmaß. Allein um die Strommengen des Kohlekraftwerks in Hamburg-Moorburg zu ersetzen, benötigt man die Fläche des gesamten Landes Hamburg.

Wie realistisch ist es, nicht nur Strom, sondern auch die Heizwärme und die Kraftstoffe für den Verkehr auf absehbare Zeit ohne fossile Energieträger weltweit von China bis Brasilien zu erzeugen? Nach wie vor geht in China alle 14 Tage ein Kohlekraftwerk ans Netz und Indien ist auf dem Weg, es dem Nachbar gleichzutun. Weiter beim manager magazin




Eisbohrkern-Daten: der ach so gefürchtete 2°C-„Tipping Point“ ist bereits überschritten…

Zusammenfassung

Betrachtet man die Größenordnung der Temperaturänderungen, die die Alarmisten aufgrund der vom Menschen verursachten globalen Erwärmung erwarten sowie ihre Ansichten über die desaströsen Auswirkungen der menschlichen CO2-Emissionen, ist es besonders aufschlussreich, einen Klimawandel mal in einem größeren Zeitmaßstab zu betrachten, Jahrhundert für Jahrhundert oder aus einer Jahrtausend-Perspektive.

Hier folgt eine Graphik, in der das Profil unserer gegenwärtigen Holozän-Epoche mit Temperatur-Mittelwerten Jahrhundert für Jahrhundert verglichen wird mit dem Maximum der vergangenen Eemian-Epoche und den alarmistischen Vorhersagen einer katastrophalen globalen Erwärmung in diesem Jahrhundert:

Der viel gerühmte und viel gefürchtete „fatale“ Tipping Point von +2°C würde lediglich die globalen Temperaturen auf das Niveau des sehr angenehmen Klimas der „Römischen Warmzeit“ heben.

Falls es möglich wäre, dass „potentiell schreckliche“ Niveau von +6°C zu erreichen, welches von den Warmisten postuliert wird, durch die Berücksichtigung wesentlicher positiver Rückkopplungen durch zusätzlichen Wasserdampf in der Atmosphäre, würde uns dieses extreme Niveau hinsichtlich der Temperatur immer noch lediglich auf das Niveau des Eemian-Maximums zuvor heben.

Der Zusammenhang

Die Eisbohrkerne Wostok und EPICA aus der Antarktis zeigen, dass es 5 Zwischeneiszeit-Epochen während der letzten 450.000 Jahre gegeben hatte. Sie variierten sowohl hinsichtlich der Temperaturintensität als auch der Dauer. Einige frühere Interglazial-Epochen waren wesentlich kürzer als die Norm von 10.000 Jahren. Diese Klimaänderungen sind durch Überlagerung der beiden Eisbohrkerne aus der Antarktis erkennbar.

Die Perioden von Vereisung und Zwischeneiszeiten zeigen eine ziemlich regelmäßige Verteilung. Die beiden Eisbohrkerne aus der Antarktis zeigen zumeist eine gute Übereinstimmung während der letzten 200.000 Jahre. Davor scheint es eine ähnliche Verteilung gegeben zu haben, jedoch mit einigen wesentlichen Zeitunterschieden zwischen vor 200.000 und 450.000 Jahren. Jene beiden antarktischen Aufzeichnungen sind während der jüngsten Holozän-Epoche nicht so gut koordiniert.

Warme Zwischeneiszeiten scheinen grob geschätzt etwa 10.000 Jahre lang zu dauern, und die dazwischen liegenden Perioden voller Vereisung etwa 100.000 Jahre.

Vor der Holozän-Epoche dauerte eine Periode umfassender Vereisung über 100.000 Jahre. Eine solche Vereisung bedeutete, dass Kilometer dicke Eisschilde New York und große Gebiete der derzeit bewohnten Nordhemisphäre überdeckt haben. Jener Vereisung war die Zwischeneiszeit der Eemian-Epoche vorausgegangen. Diese erreichte vor 120.000 Jahren ihr Wärme-Maximum. Es war etwa +3°C wärmer als das „Klimaoptimum“ des Holozäns vor nur etwa 8000 Jahren.

Auf der Grundlage dieser Abfolge radikaler Klimaänderungen könnte unser gegenwärtiges angenehmes Holozän-Interglazial sehr gut seinem Ende entgegen gehen.

Den nordhemisphärischen Grönland-Eisbohrkernen zufolge war das letzte Millenium der Jahre von 1000 bis 2000 das kälteste Jahrtausend der gegenwärtigen Holozän-Epoche mit einer Milleniums-Mitteltemperatur, die um etwa 1,8°C niedriger lag als das frühe „Holozän-Klimaoptimum“ etwa im Jahre 6000 vor Christus.

Seitdem war es zu einer vergleichsweise geringen Temperatur-Erholung gekommen seit der Kleinen Eiszeit vor etwa 300 Jahren.

Allerdings ist es nur diese geringe Erholung der Temperatur, die kürzlich zur Anzettelung der „Großen Globale-Erwärmungs-Angst“ geführt hat.

Die Holozän-Epoche

Der Temperaturverlauf des gegenwärtigen Holozän-Interglazials der letzten 10.000 Jahre ist interessant als ein Pegel für alle der jüngsten Warmisten- und Alarmisten-Vorhersagen, die sich während der letzten 40 bis 50 Jahre entwickelt haben.

Das Holozän-Interglazial lässt sich in zwei Phasen unterteilen:

● Das frühe Holozän mitsamt seinem höchsten „Klimaoptimum“ war im Maßstab von Jahrtausenden ziemlich stabil und zeigte lediglich eine moderate Abkühlung von etwa 0,05°C pro Millenium von 8000 vor Christus bis 1000 vor Christus.

● Während der darauf folgenden 3000 Jahre von 1000 vor Christus bis zum Jahr 2000 zeigt sich eine viel schnellere Abkühlung mit einer Rate von etwa 0,5°C pro Jahrtausend (d. h. zehnmal die frühere Rate).

Urteilt man nach der Länge vergangener Zwischeneiszeiten, sollte das Holozän nach 10.000 bis 11.000 Jahren seinem Ende entgegen gehen. Eine Klimaumkehr zu einer vollen, weit reichenden Vereisung ist daher vorhersehbar, wenn nicht schon überfällig; in diesem Jahrhundert, im nächsten Jahrhundert oder in diesem Jahrtausend.

Vom Standpunkt der jüngsten 3 Jahrtausende aus, während derer es zu einer beschleunigten Abkühlung gekommen war, ist ein fortgesetzter Trend hin zu einem kälteren Klima noch mehr und nicht weniger wahrscheinlich geworden.

Abkühlung würde zu intensiveren und widrigen Wetterereignissen führen: es gibt gute Gründe für diese Einschätzung, einfach weil der allgemeine Wärmeunterschied zwischen den Polen und den Tropen bei einer Abkühlung nur größer werden kann, und dies allein würde schon zu instabileren atmosphärischen Bedingungen führen.

Zusätzlich zu mehr widrigem Wetter wird jede kommende Abkühlung auch zu sehr ernsten Entbehrungen für die Menschheit und die Biosphäre allgemein führen. Wachstumsperioden werden sich verkürzen, und die zur Landwirtschaft erforderlichen Flächen werden sich verkleinern.

Aber die gesamte Klimawandel-Diskussion und -propaganda konzentriert sich ausschließlich auf kurzfristige Temperaturvariationen, oftmals mit der Betonung auf geringfügige kurzfristige Erwärmungen. Damit wird versucht zu betonen, dass die globalen Temperaturen immer und ewig weiter steigen. Aber sie werden oftmals gemessen in nahezu unauffindbaren Hundertstel Grad Celsius.

Die Prophezeiungen der Alarmisten hinsichtlich einer katastrophalen Erwärmung sollten in den Zusammenhang gesetzt werden mit dem Temperaturverlauf des gegenwärtigen Holozän-Interglazials.

Der viel gerühmte und viel gefürchtete „fatale“ Tipping Point von +2°C würde lediglich die globalen Temperaturen auf das Niveau des sehr angenehmen und produktiven Klimas der „Römischen Warmzeit“ heben. Ein weiterer Anstieg von +2°C würde nur positive ökonomische Vorteile bringen für den größten Teil der Nordhemisphäre.

Die Alarmisten einer katastrophalen globalen Erwärmung postulieren, dass der Temperaturanstieg das „potentiell schreckliche“ Niveau von +6°C erreicht durch die Berücksichtigung wesentlicher positiver Rückkopplungen durch zusätzlichen Wasserdampf in der Atmosphäre, doch würde uns dieses extreme Niveau hinsichtlich der Temperatur immer noch lediglich auf das Niveau des Eemian-Maximums zuvor heben.

Die Eemian-Zwischeneiszeit vor etwa 120.000 Jahren war eine warme und sehr fruchtbare Periode in der jüngeren Weltgeschichte: Flusspferde tummelten sich im Rheindelta. Infolge des Rückzugs der Eisschilde während der Eemian-Epoche lag der Meeresspiegel etwa 3 Meter höher als derzeit. Aber jener Prozess des Rückzugs der Eisschilde würde Jahrtausende in Anspruch nehmen.

Aber den Alarmisten zufolge ist diese gesamte radikale und destruktive Temperaturzunahme in einem Zeitraum von weniger als 100 Jahren zu erwarten, nämlich in diesem Jahrhundert von 2000 bis 2100. Und er ist ausschließlich dem Verbrennen fossiler Treibstoffe seitens der Menschheit geschuldet mit der zusätzlichen Freisetzung von Kohlendioxid in der Atmosphäre.

Während der letzten 20 Jahre:

sind die anthropogenen CO2-Emissionen um etwa 14% gestiegen,

hat die CO2-Konzentration in der Atmosphäre um etwa 8% zugenommen,

aber es gab keine wahrnehmbare Zunahme der globalen Temperatur.

Die Alarmisten der globalen Erwärmung, darunter

● das IPCC

● die Vereinten Nationen

● viele westliche Regierungen

● und grüne NGOs usw.,

bestehen aggressiv auf einer Katastrophe mit exzessiven Anstiegen der Temperatur. Aber es ist eine extreme Hybris zu erwarten, dass die Menschheit eine komplette Umkehr des weltweiten Klimaprozesses der letzten 3000 Jahre erreichen kann, geschweige denn einen Temperaturanstieg von +6°C während dieses Jahrhunderts.

Setzt man die postulierte Erwärmung in diesem Jahrhundert, wie sie vom IPCC und anderen Alarmisten der globalen Erwärmung propagiert wird, in den Zusammenhang mit dem tatsächlichen Temperaturverlauf im Holozän, wird die absolute Implausibilität der Hypothese von der anthropogenen globalen Erwärmung nur zu offensichtlich.

Link: http://wattsupwiththat.com/2015/06/01/ice-core-data-shows-the-much-feared-2c-climate-tipping-point-has-already-occurred/

Übersetzt von Chris Frey EIKE




Ein erster Blick auf eine Studie von Karl et al. in Science, 4. Juni 2015

Bild rechts: Ozeanriesen vor der Kugelbake in Cuxhaven. Bild: © Chris Frey 2015

Hintergrund

Der Gedanke, dass es seit Ende der neunziger Jahre einen Stillstand der globalen Erwärmung gegeben hatte, stammt aus Analysen vieler verschiedener Datensätze:

HadCRUT(land surface + ocean)

NCDC(land surface + ocean)

GISS(land surface + ocean)

RSS(lower troposphere)

UAH(lower troposphere)

Ocean Heat Content (0-2000m)Argo floats (black line)

NOAA SST est’s (red solid and dashed lines)

Quellen: Alle Daten von http://www.climate4you.com/GlobalTemperatures.htm außer der letzten Graphik, die von hier stammt: http://www.nature.com/nclimate/journal/v5/n3/full/nclimate2513.html.

Der jüngste Bericht des IPCC hat diesen Stillstand festgestellt und wie folgt kommentiert (Working Group I, Chapter 9, Box 9.2):

Die gemessene globale mittlere Temperatur GMST) hat einen viel geringeren zunehmenden linearen Trend an den Tag gelegt während der letzten 15 Jahre als während der letzten 30 bis 60 Jahre … Abhängig vom beobachteten Datensatz wird geschätzt, dass der GMST-Trend von 1998 bis 2012 nur etwa ein Drittel bis halb so groß ist wie der Trend von 1951 bis 2010.

Neue Schätzungen von K15

Karl et al. (2015, was ich hiernach nur noch K15 nennen möchte) haben eine ganz andere Meldung ausgestreut und sagen, dass der Trend nach 1998 viel höher ist als ursprünglich gedacht. Er ist tatsächlich genauso hoch wie im Intervall nach 1951. Sie begründen ihre Schätzungen wie folgt:

Die große Quelle der Änderung ist eine Korrektur nach oben (+0,06°C/ Dekade) des globalen Trends der Wassertemperatur (SST) nach 1998. Der Festlands-Trend wurde nur geringfügig geändert:


Was also hat sich in den SST-Aufzeichnungen verändert? Man behalte im Hinterkopf, dass es nur sehr wenige Aufzeichnungen der Lufttemperatur über den Ozeanen gibt, vor allem vor dem Jahr 1950. Um also langfristige Klimaschätzungen zu erhalten, nutzen Wissenschaftler die SST-Daten, die seit dem 19. Jahrhundert von Schiffen gemessen worden sind. Die langfristigen SST-Aufzeichnungen wurden niemals zum Zwecke einer Klima-Analyse gesammelt, und es ist notorisch schwierig, mit ihnen zu arbeiten. Viele Beurteilungen müssen vorgenommen werden, um eine finale Aufzeichnung zu erhalten, und wie der K15-Beitrag zeigt, verursachen Änderungen bei einigen dieser Beurteilungen erhebliche Änderungen bei den finalen Ergebnissen.

Grundlegendes zu den SST-Daten

Es gibt umfangreiche Literatur zu den Verfahren, eine konsistente Klimaaufzeichnung aus den SST-Archiven abzuleiten. Bei K15 wird eine dieser Aufzeichnungen herangezogen, genannt die Extended Reconstructed Sea Surface Temperature Version 4 (ERSSTv4). Damit wird eine neue globale Klimaaufzeichnung berechnet. Die Differenz ihrer Trends ist Änderungen zwischen den Versionen ERSST 3b und 4 geschuldet.

Fast alle historischen SST-Produkte sind abgeleitet aus dem International Comprehensive Ocean-Atmosphere Data Set (ICOADS, http://icoads.noaa.gov/) [comprehensive = umfassend] oder einem der Vorläufer desselben. ICOADS kombiniert etwa 125 Millionen SST-Aufzeichnungen von Schiffsbeobachtungen und weitere 60 Millionen Messungen von Bojen und anderen Quellen [1]. Ein großer Beitragender zum ICOADS-Archiv ist die UK Marine Data Bank. Unter anderen historischen Quellen finden sich u. A. die Marine, Handelsflotten, Containerschiffe, Bojen-Netzwerke usw.

Die SST-Daten wurden historisch mit verschiedenen Verfahren zusammengestellt:

● Hölzerne Eimer wurden über Bord geworfen, mit Meerwasser gefüllt und wieder an Deck gehievt; danach wurde die Wassertemperatur im Eimer mit einem Thermometer gemessen.

● Gleiches Verfahren, nur mit Segelplanen

● Gleiches Verfahren, nur mit isolierten Eimern

● Automatische Temperaturmessungen im Kühlwasser für die Schiffsmotoren

● Sensoren an der Außenwand der Schiffe

● Treibende und feste Bojen

Zusätzlich gibt es Archive von Marine Air Temperature (MAT), gemessen von Schiffen mit meteorologischer Ausrüstung an Deck.

Hier folgt eine Liste mit einigen der Probleme, mit denen es die Wissenschaftler zu tun haben, wenn sie auf der Grundlage dieser Zusammenstellungen konsistente Temperaturverläufe konstruieren wollen:

● Schiffe befahren zumeist bestimmte Routen, und riesige Gebiete der Ozeane (vor allem auf der Südhemisphäre) haben niemals ein Schiff gesehen [3]

● Seeleute sind nicht gezwungen, Eimer-Messungen vorzunehmen während Stürmen und anderen gefährlichen Bedingungen.

● Messungen wurden nicht notwendigerweise immer zur gleichen Tageszeit durchgeführt

● Während des Prozesses, den Wassereimer an Deck zu hieven, kann sich die Temperatur der Wasserprobe ändern

● Die Änderungen sind unterschiedlich, je nachdem, wie groß das Schiff ist, ob der Eimer aus Holz oder Planen besteht, ob er isoliert ist und wie schnell die Messung durchgeführt wird

● Das Einströmen von Kühlwasser (ERI) kann bei kleinen Schiffen direkt unter der Wasseroberfläche, bei großen Schiffen aber bis zu 15 Meter unter der Oberfläche erfolgen

● Genauso können die Sensoren in der Außenwand in ganz unterschiedlichen Tiefen liegen und außerdem Gegenstand von Temperatureffekten mit der Zeit sein, da die Schiffsmotoren die Außenwand aufheizen

● MAT-Messungen werden in Höhe des Decks gewonnen, und moderne Schiffe sind viel höher als ältere Modelle. Die Instrumente befinden sich also nicht in der gleichen Höhe über dem Meeresspiegel

● Bojen tendieren dazu, näher an der Wasseroberfläche zu messen als die ERI-Daten

● Es gab nicht viele Messbojen in den Ozeanen der Welt vor den siebziger Jahren, aber jetzt gibt es viel mehr, deren Werte jetzt in die Mittelung Eingang finden

Jetzt füge man zu diesen Problemen noch hinzu, dass bei Dateneingang in dieses Archiv in etwa der Hälfte aller Fälle gar nicht bekannt ist, welche Methode zur Datengewinnung verwendet worden ist (Hirahari et al. 2014). In einigen Fällen wurde angemerkt, dass beispielsweise ERI-Messungen durchgeführt worden waren, jedoch ohne die Angabe, in welcher Tiefe. Oder die Höhe des Schiffes bleibt unbekannt, wenn eine MAT-Messung durchgeführt wird. Und so weiter.

Schiffe und Bojen werden als in situ-Messungen betrachtet. Da in situ-Daten niemals den ganzen Ozean abgedeckt haben, verwenden die meisten Forscher Satellitenaufzeichnungen, die jedoch erst seit dem Jahr 1978 zur Verfügung stehen, um über nicht erfasste Gebiete zu interpolieren. Infrarot-Daten vom Advanced Very High Resolution Radiometer (AVHRR)-System können die Wassertemperatur akkurat messen, müssen jedoch mit bestehenden SST-Aufzeichnungen kalibriert werden. Außerdem können diese Messungen beim Vorhandensein tiefer Wolken oder dichter Aerosole unzuverlässig sein. Während der letzten paar Jahre haben neue Satelliten-Verfahren (Tropical Rainfall Measuring Mission oder TRMM sowie der Advanced Microwave Scanning Radiometer oder AMSR-E) eine genauere Datensammlung ermöglicht, auch bei Wolken- und Aerosol-Bedingungen.

Hadley, GISS und Hirahara et al. 2014 [4] verwenden allesamt Satellitendaten, um Interpolations-Schätzungen in datenarmen Gebieten zu verbessern. Das ERSST-Team (d. h. K15) haben das vor der Version 3b gemacht, dann aber nicht mehr wegen ihrer Bedenken hinsichtlich der Genauigkeit.

Die drei wesentlichen ERSSTv4-Adjustierungen

Die oben genannten Messprobleme sind gut bekannt. Viel Arbeit wurde während der letzten Jahrzehnte dafür geleistet zu versuchen, einige der Metadaten für in situ-Temperaturmessungen zu gewinnen und auch Korrekturen abzuschätzen, um Verzerrungen auszumerzen, die den Rohdaten innewohnen. K15 haben einige vergleichsweise geringe Änderungen der Bias-Korrektur-Verfahren vorgenommen, und das Ergebnis ist eine große Zunahme des Trends nach 1998.

A. Sie addierten 0,12°C zu den Bojen-Messwerten, angeblich um sie vergleichbar zu machen mit Schiffsmessungen. Wie die Autoren anmerken, repräsentieren Bojen-Messwerte einen steigenden Anteil an den Beobachtungen der letzten Jahrzehnte, was den vermeintlichen Erwärmungstrend verstärkt.

B. Sie haben den Bojen-Messwerten bei den Berechnungen zusätzliches Gewicht verliehen.

C. Sie haben auch Adjustierungen an die nach 1941 von Schiffen gewonnenen Daten angebracht, vor allem eine große Abkühlungs-Adjustierung bei Messungen von 1998 bis 2000.

Nimmt man all diese Veränderungen zusammen, lässt sich der verstärkte Trend der letzten 15 Jahre zum größten Teil erklären. So muss nun jeder für sich selbst darüber befinden, ob diese Adjustierungen angemessen sind oder nicht.

Vielleicht sind sie es. Das Hauptproblem für uns Beobachter ist, dass andere Teams die gleichen Dinge bearbeitet haben und zu ganz anderen Ergebnissen gekommen sind. Und die K15-Daten nach 1998 passen nicht zu den Ergebnissen anderer unabhängiger Quellen einschließlich Wettersatelliten.

A.Betrachtet man die erste Adjustierung, nehmen K15 die Bojen-Daten und addieren 0,12°C zu jedem Messwert. Sie errechneten diese Zahl, indem sie Stellen betrachteten, an denen Bojen- und Schiffsdaten an den gleichen Stellen gesammelt worden sind. Dabei stellten sie fest, dass die Schiffsdaten im Mittel um 0,12°C wärmer waren als die Bojendaten. Also wurden die Bojendaten entsprechend korrigiert. Dies entspricht in etwa der Größenordnung, die auch von anderen Teams gefunden worden ist, obwohl der Bias normalerweise den Schiffen und nicht den Bojen zugeordnet wird:

Jüngere SST-Beobachtungen werden hauptsächlich durch treibende Bojen durchgeführt, die in den globalen Ozeanen ausgesetzt worden sind (Abbildungen 1 und 2). Die Bojen messen die Wassertemperatur direkt ohne Meerwasser an Deck oder in das Innere eines Schiffes zu expedieren. Daher geht man davon aus, dass Bojenmessungen genauer sind als Eimer- oder ERI-Daten… In dieser Studie betrachten wir diese Differenz als einen Bias in den ERI-Messungen, und bei den Treibbojen werden keine Verzerrungen angenommen. Der mittlere ERI-Bias von +0,13°C wurde erhalten und liegt innerhalb der Bandbreite des globalen Gebietes, das in Tabelle 5 bei Kennedy et al. 2011 gelistet ist (Zitat aus Hirahari et al. 2014, S. 61)

Jenes Zitat bezieht sich auf eine Studie von Kennedy et al. (2011, Tabelle 5) [5], in der von einem mittleren Bias von +0,12°C die Rede ist. Allerdings merken Kennedy et al. auch an, dass die Schätzung sehr unsicher ist: sie beträgt 0,12°C ± 1,7°C! Außerdem variiert der Bias in verschiedenen Gebieten. Dies ist der grundlegende Unterschied zwischen dem Verfahren von K15 und den Verfahren Anderer. K15 addierten 0,12°C zu allen Bojendaten, aber die Hadley-Gruppe und die Hirahari-Gruppe verwendeten gebietsspezifische Adjustierungen.

B. Es gibt hinsichtlich dieses Schrittes keine detaillierten Angaben. K15 sagen einfach: Weil die Bojendaten als zuverlässiger angesehen werden, erhielten sie mehr Gewicht in der statistischen Prozedur, und dies „führte zu mehr Erwärmung“. Die Schritte A und B waren für fast die Hälfte der zusätzlichen Erwärmung verantwortlich.

C. Zuvor wurde von Anderen angemerkt, dass die SST-Daten von Schiffen einen rapideren Erwärmungstrend zeigen als in der Nähe gemessene Lufttemperaturen von Bojen (Christy et al. 2001) [6]. K15 berechnen eine Adjustierung an die SST-Daten auf der Grundlage von Vergleichen mit nächtlichen MAT-Daten aus einem Datensatz mit der Bezeichnung HadNMAT2. K15 sagen, dass dies für etwa die Hälfte der neuen Erwärmung in ihrem Datensatz verantwortlich ist. Sie verteidigen dies mit der Aussage, dass dies die Schiffsaufzeichnungen auf eine Linie mit den NMAT-Daten gebracht hat. Allerdings ist dieser spezielle Schritt schon zuvor von Kennedy et al. sowie Hirahara et al. in Erwägung gezogen worden. Diese sprachen sich für alternative Methoden aus, weil die NMAT-Daten ihre eigenen „überall vorhandenen systematischen Fehler“ haben [7], von denen einige bereits oben erwähnt worden sind. Statt also mechanische Formeln auf der Grundlage der NMAT-Daten zu verwenden, haben andere Teams sehr detailliert auf verbleibende Metadaten geschaut für jeden Messtyp. Dann haben diese Teams Korrekturen auf der Grundlage der involvierten Systeme und Örtlichkeiten vorgenommen.

Numerisches Beispiel

Hier folgt ein einfaches numerisches Beispiel, um zu zeigen, wie diese Hypothesen wichtige Änderungen der Ergebnisse verursachen können. Nehmen wir an, wir haben SST-Daten von zwei Quellen: Schiffe und Bojen. Nehmen wir weiter an, dass Schiffe die Temperatur immer um genau 1°C überschätzen und Bojen um genau 1°C unterschätzen. Wir verfügen über einen Satz von Messungen alle 10 Jahre, und wir sind uns nicht sicher, welcher Anteil von Schiffen und welcher von Bojen stammt. Sowohl Schiffe als auch Bojen messen den zugrunde liegenden Trend, der eine Erwärmung von 0,1°C von 1900 bis 1990 zeigt; danach gibt es keinen Trend mehr.

Die folgende Tabelle zeigt die simulierten Zahlen. Nehmen wir an, der wirkliche Anteil der Schiffe im Datenkollektiv beginnt bei 95% im Jahre 1900 und nimmt in jedem Jahrzehnt um 8% ab, bis zu einem Anteil von 7% im Jahre 2010.

Das wirkliche Mittel wird berechnet unter Verwendung des Gewichtes in der Spalte True Ship %, wobei 1°C zu den Bojendaten addiert werden und 1°C von den Schiffsdaten subtrahiert werden. Das Ergebnis zeigt die folgende Graphik:

Die dünnen schwarzen und grauen Linien sind die Schiffs- (oben) und die Bojendaten (unten), während die dicke schwarze Linie in der Mitte das Wahre Mittel ist.

Aber jetzt nehmen wir einmal an, dass wir nicht wissen, welche korrekte Adjustierung an die Bojen- oder die Schiffsdaten anzubringen ist, und wir kennen auch nicht die True Ship-Prozentzahlen. Wir schätzen das globale Mittel folgendermaßen:

● Man adjustiere die Bojendaten um +2°C jedes Jahr (etwas zu viel)

● Man adjustiere die Schiffsdaten um -1°C jedes Jahr (die richtige Größenordnung)

● Nach 1940 fügen wir auch eine Abkühlungs-Adjustierung den Schiffsdaten hinzu. Sie beginnt bei -0,25°C und steigt um diesen Betrag in jedem Jahrzehnt.

● Außerdem kühlen wir die Schiffsdaten um 1°C nur in den Jahren 1990 und 2000

● Wir schätzen die Schiffs-Prozentzahlen. Sie beginnen bei 99% im Jahre 1900 (etwas hoch) und reduzieren dies um 7% in jedem Jahrzehnt (etwas zu wenig) bis zum Jahr 1990. An diesem Punkt beobachten wir die True Ship-Prozente und folgen ihnen nachfolgend genau.

Bevor wir die Ergebnisse betrachten, frage man sich selbst, ob man glaubt, dass diese Adjustierungen einen großen Unterschied machen.

Das neue geschätzte Mittel ist die rote gestrichelte Linie.

Bis zum Jahr 1990 passt es ganz gut, aber der akkumulierte Effekt all der kleinen Fehler ist der künstliche Trend, der zum Ende der Reihe auftaucht. An dieser Stelle würden wir hoffen, einige unabhängige Daten des Trends nach 1990 zu haben, um das Ergebnis zu vergleichen, um festzustellen, ob unsere Verfahren und Hypothesen vernünftig waren.

Dieses Beispiel beweist natürlich nichts über K15, außer dass kleine Änderungen bei den Hypothesen, wie die Unsicherheiten in den Daten große Auswirkungen auf die Endergebnisse haben können. Aber das war vorher schon klar, weil K15 selbst erklären, dass ihre neuen Hypothesen – keine neuen Beobachtungen – das sind, was den Erwärmungstrend zum Ende ihres Datensatzes zum Vorschein brachte.

Schlussfolgerung

Sind die neuen K15-Adjustierungen korrekt? Offensichtlich ist es nicht an mir, dies zu sagen – es ist etwas, das von Spezialisten auf diesem Gebiet debattiert werden muss. Aber ich habe Folgendes beobachtet:

● Alle zugrunde liegenden Daten (NMAT, Schiffe, Bojen usw.) haben inhärente Probleme, und viele Teams haben sich viele Jahre lang bemüht herauszufinden, wie man mit diesen Fehlern umgeht.

● Die HadNMAT2-Daten sind weit gestreut und unvollständig. K15 vertreten die Position, dass das In-Linie-Bringen der Schiffsdaten mit diesem Datensatz die Schiffsdaten zuverlässiger macht. Diese Position haben andere Teams nicht übernommen, einschließlich des Teams selbst, dass die HadNMAT2-Daten entwickelt hatte.

● Es ist sehr seltsam, dass eine Abkühlungs-Adjustierung an die SST-Aufzeichnungen von 1998 bis 2000 einen so großen Effekt auf den globalen Trend haben soll, nämlich die Beseitigung des Stillstands, der in so vielen anderen Datensätzen hervortritt, besonders angesichts dessen, dass andere Teams keine Gründe gefunden hatten, solche Adjustierungen vorzunehmen.

● Das Ausreißer-Ergebnis in den K15-Daten könnte bedeuten, dass alle anderen etwas übersehen, oder es könnte einfach bedeuten, dass die neuen K15-Adjustierungen ungültig sind.

Es wird interessant sein, die Spezialisten auf diesem Gebiet während der kommenden Monaten über diese Frage reden zu hören.

Ross McKitrick

[1] Woodruff, S.D., H. F. Diaz, S. J. Worley, R. W. Reynolds, and S. J. Lubker, (2005). “Early ship observational data and ICOADS.” Climatic Change, 73, 169–194.

[2] See http://www.metoffice.gov.uk/hadobs/hadsst3/Kennedy_2013_submitted.pdf for a review.

[3] Rayner, N. A., D. E. Parker, E. B. Horton, C. K. Folland, L. V. Alexander, D. P. Rowell, E. C. Kent, and A. Kaplan, (2003): Global analyses of sea surface temperature, sea ice, and night marine air temperature since the late nineteenth century. Journal of Geophysical Research, 108(D14), 4407, doi:10.1029/2002JD002670.

[4] Hirahara, S. et al. Centennial-Scale Sea Surface Temperature Analysis and Its Uncertainty, Journal of Climate Vol 27 DOI: 10.1175/JCLI-D-12-00837.1

[5] http://www.metoffice.gov.uk/hadobs/hadsst3/part_2_figinline.pdf

[6] Christy, John R., David E. Parker, Simon J. Brown, et al. 2001 Differential trends in tropical sea surface and atmospheric temperatures since 1979. Geophysical Research Letters 28, no. 1

[7] http://www.metoffice.gov.uk/hadobs/hadsst3/Kennedy_2013_submitted.pdf page 28.

Link: http://wattsupwiththat.com/2015/06/04/a-first-look-at-possible-artifacts-of-data-biases-in-the-recent-global-surface-warming-hiatus-by-karl-et-al-science-4-june-2015/

Übersetzt von Chris Frey EIKE