Aristoteles’ Lehre von den Trugschlüssen: jeder einzelne wird in der Hysterie um die globale Erwärmung bestätigt

Der griechische Philosoph Aristoteles hat vor 2300 Jahren das Dutzend der verbreitetsten logischen Trugschlüsse in menschlichen Gesprächen in seinem Buch Sophistical Refutations aufgelistet. Nicht das Geringste unter diesen ungültigen Argumenten ist eines, das die mittelalterlichen Lehrmeister später das argumentum ad populum – den Konsens- oder Mehrheitstrugschluss – nennen sollten.
Ein Trugschluss ist ein irreführendes Argument, das logisch einwandfrei zu sein scheint, es aber tatsächlich nicht ist. Die Schlussfolgerung daraus wird im besten Falle unzuverlässig sein und im schlimmsten Fall einfach falsch. Man sollte nicht den Fehler machen, die von Aristoteles gelisteten Trugschlüsse als irrelevante Archaismen abzutun. Sie sind heute noch genauso grundlegend gültig wie zu der Zeit, als er sie niedergeschrieben hatte. Argumente, die auf irgendeinem seiner gelisteten Trugschlüsse beruhen, sind unsolide und unzuverlässig, und das ist es.
Um damit zu beginnen, fast alle der gewöhnlichen Argumente zum Alarm über das Klima sind Beispiele von Aristoteles’ Dutzend Trugschlüsse von Relevanz oder auch Anmaßung, von denen der Konsens-Trugschluss nicht der Geringste ist.
Nur weil man uns sagt, dass viele Leute sagen, sie glauben, eine Sache sei so und so, dann ist es kein Beweis, dass viele Leute das sagen und noch weniger, dass sie es glauben und wieder weniger, dass es so ist. Die bloße Tatsache eines Konsens’ – selbst wenn es einen gäbe – sagt uns überhaupt nichts darüber, ob die Angelegenheit, über die der Konsens vermeintlich besteht, richtig oder falsch ist.
Zwei Umfragen haben angeblich gezeigt, dass 97% aller Klimawissenschaftler hinter dem „Konsens“ stehen. Allerdings fand die eine Umfrage nur unter 77 Wissenschaftlern statt, eine viel zu kleine Zahl, um repräsentativ zu sein, und in der Frage, die ihnen vorgelegt worden war, ging es nur darum, ob es seit 1950 eine Erwärmung gegeben habe. 75 der 77 Befragten bejahten.
In der anderen Studie war nicht explizit festgelegt, welche Fragen den Wissenschaftlern vorgelegt worden sind, und sie erklärte auch nicht, wie sie ausgewählt worden waren, um einen Bias zu entfernen. Sie war erwiesenermaßen wertlos. Jedoch hat dies nicht die üblichen Verdächtigen davon abgehalten, – fälschlich – zu behaupten, dass es der „Konsens“ von 97% aller Klimawissenschaftler sei, dass die vom Menschen verursachte globale Erwärmung potentiell katastrophal sei.
Einige Klimaextremisten sagen, dass es „einen Konsens der Beweise“ gebe. Allerdings sind Beweise keine Meinungssache. Es gab seit eineinhalb Jahrzehnten keine Erwärmung; der Meeresspiegel ist seit acht Jahren mit einer Rate äquivalent zu gerade mal 3 Zentimetern pro Jahrhundert gestiegen; die Hurrikanaktivität hat seit 30 Jahren Satellitenbeobachtung ein Rekordminimum erreicht; die globale Ausdehnung des Meereises hat sich während dieser Zeit kaum verändert; die Gletscher des Himalaya hatten keinen Eisverlust erlitten; der Wärmegehalt der Ozeane steigt viereinhalb mal langsamer als vorhergesagt; und die 50 Millionen „Klimaflüchtlinge“, von denen die UN gesagt haben, dass es sie bis zum Jahr 2010 geben würde, existieren schlicht und ergreifend nicht. Bis heute unterstützt der „Konsens der Beweise“ keinen Katastrophismus.
„Aber”, sagen die Gläubigen, „es gibt einen Konsens der Wissenschaftler und der gebildeten Gesellschaften”. Das ist das argumentum ad verecundiam, der Trugschluss, dass er richtig sein muss, weil er von Autoritäten stammt. Nur weil eine Gruppe einen Ruf hat, heißt das nicht, dass sie ihn auch verdient; und selbst wenn sie ihn verdient, muss sie sich nicht danach verhalten; und selbst wenn sie das tut, könnte er falsch sein.
„Aber nur, wenn wir von einem starken Erwärmungseffekt des menschlichen CO2 ausgehen, können wir die beobachtete Erwärmung der letzten 60 Jahre erklären. Wir können uns keinen anderen Grund für die Erwärmung vorstellen!“ Dieses Argument seitens des IPCC ist das argumentum ad ignorantiam, der Trugschluss der Argumentation aus Ignoranz. Wir wissen nicht, warum die Erwärmung erfolgt ist. Willkürlich den Menschen dafür verantwortlich zu machen ist unzulässig.
„Die Rate der globalen Erwärmung beschleunigt sich. Darum müssen wir der Grund dafür sein!“ Das ist der Trugschluss der ignoratio elenchi. Selbst wenn sich die globale Erwärmung beschleunigt, sagt uns das noch nichts darüber, ob wir dafür verantwortlich sind. Das IPCC benutzt dieses Trugschlussargument gleich zweimal in seinem Zustandsbericht von 2007. Selbst wenn dieses Argument nicht unlogisch wäre – die Erwärmungsrate nimmt nicht zu. Die Aussage, dass sie sich beschleunigt, beruht auf einem statistischen Missbrauch, den zu korrigieren sich das IPCC geweigert hat.
Oberflächlich betrachtet, könnte dieser Trugschluss ähnlich dem Trugschluss aus Ignoranz sein. Allerdings besteht ein fast unmerklicher Unterschied. Das Argument aus Ignoranz bezieht sich auf die fundamentale Ignoranz dessen, um das es bei dem Argument geht (so dass folglich eine beliebige Schlussfolgerung gezogen werden kann). Dieser Trugschluss hier bezieht sich auf die fundamentale Ignoranz der Art und Weise, wie das Argument zustande gekommen ist (so dass folglich eine irrelevante Überlegung ins Spiel gekommen ist).
„Aber was ist mit diesen knuddeligen Eisbären?“ Das ist das argumentum ad misericordiam, der Trugschluss unangebrachten Mitleids. Es gibt heute fünf mal so viele Eisbären wie in den vierziger Jahren – wohl kaum das Profil einer Spezies, deren Aussterben bevor steht. Es besteht kein Grund, Mitleid mit den Bären zu haben (und sie sind nicht knuddelig).
„Seit 60 Jahren pusten wir CO2 in die Atmosphäre. Das verursacht Erwärmung. Daher ist die Erwärmung unsere Schuld!“ Das ist der post hoc ergo propter hoc–Trugschluss, das Argument aus falschen Gründen. Nur weil ein Ereignis einem anderen Ereignis vorangeht, heißt das noch lange nicht, dass das vorangehende Ereignis Ursache des folgenden Ereignisses ist.
„Wir sagen unseren Computermodellen, dass es eine starke Erwärmung geben wird, wenn wir der Luft CO2 zuführen. Die Modelle zeigen, dass es eine starke Erwärmung geben wird. Daher ist die Erwärmung unsere Schuld.“ Das ist das argumentum ad petitionem principii, der Trugschluss des Zirkelschlusses, wobei die Voraussetzung auch die Schlussfolgerung ist.
„Die globale Erwärmung war Ursache für den Hurrikan Katrina.” Das ist das ungeeignete Argument vom Allgemeinen zum Einzelfall, der Trugschluss a dicto simpliciter ad dictum secundum quid, der Trugschluss des Zufalls. Selbst das IPCC gibt zu, dass individuelle Einzel-Extremwetterereignisse nicht der globalen Erwärmung zugeordnet werden können. Hurrikan Katrina wurde beim Übertritt auf das Festland mit Stufe 3 eingeordnet. Die wahre Ursache der immensen Schäden war, dass man die Deiche grob vernachlässigt hatte.
„Das arktische Meereis schmilzt: Daher ist die vom Menschen verursachte globale Erwärmung ein Problem.” Das ist das unpassende Argument vom Einzelfall zum Allgemeinen, der Trugschluss a dicto secundum quid ad dictum simpliciter, also des umgekehrten Zufalls. Die Arktis kann schmelzen, aber in der Antarktis zeigt sich seit 30 Jahren eine Abkühlung, verbunden mit der immer weiteren Ausdehnung des Meereises, so dass die Eisabnahme in der Arktis nicht ein Anzeichen für ein globales Problem ist.
„Monckton sagt, er sei Mitglied des House of Lords, aber der Parlamentspräsident sagt, dass er das nicht ist, also ist alles, was er sagt, Unsinn.” Das ist das argumentum ad hominem, der Angriff auf den Mann und nicht auf seine Argumente.
„Uns kümmert die Wahrheit nicht. Wir wollen mehr Besteuerung und Regulierung. Wir werden die globale Erwärmung als Grund anführen. Wenn Sie damit nicht übereinstimmen, werden wir Sie von den Internationalen Klimagerichtshof zerren!“ Das ist der schlimmste aller logischen Trugschlüsse: das argumentum ad baculum, das Argument der Stärke.
In jeder früheren Generation hätte man über die alberne Kaskade von Trugschlüssen der Klimaextremisten in Regierung, Akademien und Medien mit ihrer Unterstützung der jetzt zusammenbrechenden Klimaangst laut gelacht.
Wenn der künftige britische Premierminister Harold Macmillan in Oxford auftauchte, um die Klassiker zu studieren, sagte sein Tutor: „Vier Jahre Studium werden Sie für überhaupt nichts qualifizieren – außer zu erkennen, dass etwas faul ist, wenn Sie es hören“. Die Klimageschichte ist verfault. Um weiteren, in kunstvollem Unsinn wurzelnden kostenintensiven Betrug zu verhindern, sollten wir vielleicht die universelle klassische Bildung wieder einführen. So wie es jetzt ist, scheint es, als ob unsere herrischen Umweltaktivisten alles, was sie lernen, direkt von Mr. Spock in Raumschiff Enterprise stammt.
Lord Christopher Monckton
Financial Post
Link: http://opinion.financialpost.com/2012/04/20/aristotles-climate/
Übersetzt von Chris Frey EIKE




„Die Energiewende“ oder „Die Verstaatlichung der Energieversorgung Deutschlands

Da ich nicht so recht weiß, ob es einen aktuellen Thread zum deutschen Energiewahnsinn gibt, mache ich mal einen neuen auf.
Wieder habe ich Post von meinen Kumpel aus der Energiewirtschaft bekommen und den unterhaltsamen, fachlich wertvollen und sprachlich stilsicheren Text möchte ich Euch nicht vorenthalten, auch wenn die Sache selbst alles andere als lustig ist.

Verstaatlichung der Energieversorgung Deutschlands

Das vielgepriesene EEG (erneuerbare Energien Gesetz) ist ein politisches Meisterwerk in der Zerstörung eines freien Marktes. Zugleich ist es ein Lehrstück darüber, wie man mit einer Preisverzerrung in einem kleinen Teilmarkt, den man dann wie einen Hefekuchen aufgehen lässt, eine Kostenlavine lostritt, die sich nicht mehr bremsen lässt und immer neue Verwerfungen produziert.

Teil 1: Die Zeitbombe

Jürgen Trittin kreiert das EEG und lässt per Staatsverordnung allen Eigentümern von Windrädern und Solaranlagen eine marktferne Zwangsvergütung ihres Stroms zukommen (so wie in der DDR im H0-Laden). Alle Ökonomen, die dies als nicht marktkonform geißeln, werden als Theoretiker und neoliberal verspottet. In der Tat stellt das EEG anfänglich weder eine merkliche Belastung für den Strompreis noch für die Netze dar, da es so wenig EEG Strom gibt. Da das Gesetz aber für die Zukunft festgeschrieben ist, entsteht eine rasant wachsende subventionierte Industrie im In- und Ausland, welche sich zunehmend an den Deutschen Fördertöpfen labt. Das ist bereits der Tipping Point. "Jetzt sind wir alle Windmüller". Die Menschen werden von den Subventionen abhängig und keiner dreht sie zurück, ohne sich eine blutige Nase zu holen.

Teil 2: Das Ding geht hoch

Mittlerweile gibt es soviel EEG Strom, dass:
a) an vielen Tagen ein Überangebot herrscht, was die Netze destabilisiert
b) ein Strompreis, der häufig negativ wird (man muss Geld bezahlen, um Franzosen und Polen unseren Strom schenken zu dürfen)
c) die Subventionen den Strompreis in den kommenden Jahren extrem in die Höhe treiben werden, da man den Besitzern der EEG Anlagen trotz negativem Abnahmepreis die vollkommen überhöhten Preise garantiert hat und sie jede KWh ihres Stromes einspeisen dürfen, völlig am Bedarf vorbei.
d) der Bau von konventionellen Kraftwerken, die bei Windstille dringend nötig sind, sich nicht mehr rechnet, da die Stillstandzeiten zu groß sind.
Man hat also einen funktionierenden Strommarkt weitgehend in eine Non Profit Zone verwandelt. Die Stromkonzerne wollen keine Kraftwerke mehr bauen, obwohl es eine Stromlücke gibt. Das gibt es in keinem anderen Land der Welt.
Was nun? Die Politik behilft sich als Antwort auf soviel Marktverzerrung und Fehlalokation mit weiteren Verzerrungen. Nun soll der Bau von Gaskraftwerken subventioniert werden (der Strom fehlt vor allem im Süden). Das ist typisch Politiker. Wie man ja aus der Merrit-Order der Kraftwerke an der Strombörse sieht, sind die Gaskraftwerke die unrentabelsten konventionellen Kraftwerke. Am rentabelsten wären nach AKWs die Braunkohlekraftwerke. Aber das K-Wort nimmt von den Politikern keiner in den Mund. Das ist ideologisch nicht opportun.
So werden also Gaskraftwerke gefördert, deren Betrieb sich am wenigsten rechnet. Auch diese Förderung ist einmalig in der Welt. Wir stellen uns staatlich gefördert zweimal die Stromversorgung für ganz Deutschland hin. Einmal grün und gut und einmal fossil und böse – aber notwendig an 180 Tagen im Jahr. Alles staatlich gefördert.
Alles gut dann? Nein: die Netze fehlen. Irgendeiner da, der Lust hat Netze zu bauen? Nein! Weit und breit keiner. Nochmal: es fehlen in einer der größten Industrienationen die Netze (Milliardenmarkt) und keiner will sie bauen. Warum? Weil es die Bundesnetzagentur gibt, welche die Preise reguliert, mit denen die Netze finanziert werden. Also noch ein Markteingriff, der übrigens einmal eingeführt wurde, um die Strompreise zu senken!
Und die Gaskraftwerke? Die wird EON sicherlich mit fetten staatlichen Garantien bauen. Die spannende Frage wird sein: wird EON die Bereitschaft dieser Kraftwerke auch im Windstillefall auch fest garantieren. Die Antwort: ein klares Jein. EON kann die technische Bereitschaft zwar garantieren, nicht aber die Versorgung dieser Kraftwerke mit Gas. Warum? Weil Gasleitungen in den Süden fehlen und bei Gasknappheit die Versorgung von Haushalten Vorrang hat (so geschehen letzten Winter). Es fehlen also Gasnetze in erheblichem Umfang in einer der größten Ökonomien der Welt. Irgendeiner da, der Gasnetze bauen will? Hallo, Milliardenmarkt!!! Keiner. Warum? Weil es die Bundesnetzagentur gibt, welche die Durchleitungspreise für Gas regelt. Die neuen Gasleitungen würden aber nicht sonderlich stark ausgelastet sein, weil man sie ja nur selten braucht. Das sporadische Angebot der regenerativen Energien zieht sich durch die gesamte Energieinfrastruktur und produziert Überangebote, die vom Markt nicht finanziert werden. Man müsste schon am Markt für die Durchleitung dieses "Notgases" sehr viel Geld verlangen dürfen. Geht aber nicht so ohne weiteres, da die Netzagentur dies anders sehen könnte. Dazu kommen Planungsverfahren von Jahrzehnten. Die Lösung? Der Bau dieser Gasnetze müsste mit staatlichen Anreizen usw…. Oder lasst uns doch die Netze direkt verstaatlichen. Das fordert mittlerweile auch David McAllister. Bingo. Das ist aber keine Verstaatlichung, da diese Netze größtenteils garnicht existieren. Der Steuerzahler soll sie voll finanzieren.
Auf der Nachfrageseite gibt es mittlerweile auch Preisverzerrung. Der immer teurere Strom kann von der Industrie nicht mehr bezahlt werden. Wie reagiert die Politik, klaro mit Preisregulierung. Sie nimmt die Industrie von den Erhöhungen aus und legt das auf die Verbraucher um, bis auf sozial schwache… Wer wieviel zahlt ist also eine Frage des sozialen Standes und nicht von Angebot und Nachfrage.
Noch eine Kleinigkeit: Durch das Abschalten der AKWs und den gleichzeitigen Garaus vieler Kohlekraftwerke bleiben dann als Netzstabilisatoren immer mehr Gaskraftwerke. Wo kommt das Gas eigentlich her? Wenn es Russland nicht gefällt, fehlt uns im Winter nicht nur das Gas zum heizen sondern auch der Strom um wenigstens einen Tee zu kochen. So was nenne ich ein echtes Klumpenrisiko.
So, war´s das? Ach ja, Stromspeicher noch: Die sind eine nochmalige Verteuerung der Stromproduktion, da sie alle einen geringen Wirkungsgrad haben und somit beim Speichern von Strom, einen erheblichen Teil der Energie in Abwärme umwandeln. Siemens hat da so einige gigantische Ideen (Wasserstofftechnik etc.) aber "bei solchen Summen muss auch der Staat uns ein klares Signal geben" – übersetzt: am Markt funktioniert so was nicht, es muss staatliche Anreize geben.
So darf jeder mal an der Bude des Energiemarktes einen Schießen und der Staat bezahlt´s.

Derweil erweist sich das allseits gefeierte EEG als Massenvernichtungswaffe für eine günstige und stabile Stromversorung.

Autor  Schissbux , 04.05.2012, 19:04 auf dem Blog Das gelbe Forum
Mit Dank an Spürnase Gerhard Lukert




Wie kann man eine mittlere Globaltemperatur ermitteln? Was die Statistik verlangt und erlaubt

Wenn der zeitliche Verlauf  globaler Temperaturen graphisch dargestellt wird, so z. B. von dem NASA Goddard Institut for Space Studies (GISS), werden meist  Temperaturanomalien gezeigt. (Abb. 1 nebenstehend) Dabei handelt es sich z. B. um Jahresmittelwerte, die ihrerseits auf einen  Mittelwert über ein definiertes Zeitintervall bezogen werden, z. B. 1961 – 1990. Man muss sich darüber im Klaren sein, dass es sich bei Mittelwerten um  Schätzungen handelt, die letztendlich auf einer für repräsentativ gehaltenen Auswahl von Einzelmessungen beruhen. 
Die zulässigen Methoden der Mittelwertbildung unter Berücksichtigung der Schätzfehler  von den Messdaten bis zur globalen Jahresmitteltemperatur soll im Folgenden dargestellt werden. Darauf aufbauend werden für ausgewählte Temperaturreihen die Mittelwerte auf signifikante Unterschiede analysiert.

Abb. 2 
Es existieren weltweit ca. 39.000 meteorologische Stationen, die neben der Registrierung anderen Wetterdaten die bodennahen (2m) Lufttemperatur messen. Wie Abb. 2 zu entnehmen, sind diese Stationen sind nicht homogen über die Landfläche der Erde verteilt (die Markierungen in den Meeren beziehen sich auf  Inseln).
Zwischen 1000 und 3000  von ihnen werden mit z. T. unterschiedlicher Gewichtung zur Berechnung der Globaltemperatur-Reihen  der verschiedenen Institutionen herangezogen. Die bodennahen Lufttemperaturen werden auch von einem Satelliten (TIROS-N ) erfasst und können u. a. als globale Verteilungen dargestellt werden.
So wurden von der NOAA (National Oceanic and Atmospheric Administration, USA) z. B.  für den 2. März 2012 die folgenden ”Momentaufnahmen” (Abb. 3)veröffentlicht:

Abb.  3
Die riesige geographische Variabilität der bodennahen  Landtemperaturen durch einen einzigen Mittelwert  charakterisieren zu wollen, erscheint sehr ehrgeizig. Die ständigen täglichen, wie auch jahreszeitlichen Temperaturänderungen erschweren dieses Vorhaben zusätzlich.
Betrachtet man zunächst einmal nur eine einzige Station. Die allgemein vorgeschriebenen Bedingungen zur Messung der bodennahen Temperatur verlangen, dass ein geeichtes Thermometer in einem als ”englische Hütte” bezeichneten Kasten zwei Meter über dem Erdboden untergebracht ist (Abb. 4).

Abb.  4
Der weiße Anstrich und die Belüftungslamellen sollen gewährleisten, dass die Lufttemperatur ungestört (im Gleichgewicht  mit der Umgebung) gemessen werden kann. Tagesmittelwerte werden weltweit nach verschiedenen Methoden gebildet
In Deutschland wird traditionell das arithmetische Mittel aus den 7 Uhr, 14 Uhr und 21 Uhr Temperaturen berechnet, wobei der 21 Uhr Wert doppelt gewichtet  wird.
Nach Umstellung auf elektronische Datenerfassung sind auch andere Mittelwertbildungen gebräuchlich.
Der Tagesmittelwert ist in jedem Fall eine  Schätzung, die als verbindlich betrachtet wird, ohne mögliche Fehlerquellen der Station (Ablesefehler, Aufbau und Anstrich der ”englischen Hütte”, Beeinflussung der Umgebung durch lokale Wärmequellen) zu berücksichtigen.
  
Abb. 5 zeigt die Tagesmittelwerte der Station Braunschweig Völkenrode des Deutschen Wetterdienstes (DWD) für Februar 2011 dargestellt. Wenn daraus ein Monatsmittelwert gebildet werden soll, muss man aus statistischer Sicht erst einmal untersuchen, welche Art der Mittelwertbildung für diese Grundgesamtheit, wie eine solche Ansammlung von Werten genannt wird, zulässig ist. Das arithmetische Mittel, also die durch ihre Anzahl dividierte Summe aller Werte, ist nur dann sinnvoll (zulässig), wenn sie einer definierten Verteilung unterliegen. Dazu werden die Tagesmitteltemperaturen in Größenklassen unterteilt und als Histogramm dargestellt:

Abb.  6
Wenn die Flächen der Klassen annähernd die Fläche unter der Kurve, die einer Normalverteilung nach Gauss entspricht, ausfüllen, kann die Grundgesamtheit als normalverteilt betrachtet werden (Abb.6). Dies zu entscheiden gibt es statistische Testverfahren, die in der Wissenschaft routinemäßig am Beginn einer statistischen Auswertung stehen. Für die gezeigten Tagesmittelwerte ist die Bildung  eines arithmetischen Mittels demnach zulässig. Hätte der Test das Vorliegen einer normalverteilten Grundgesamtheit abgelehnt, wäre der Median zur Beschreibung der Monatsmitteltemperatur sinnvoll (erlaubt) und ein besserer Repräsentant für den Monatsmittelwert. Aus der aufsteigend angeordneten Einzelwerten wird der Wert bei der halben Anzahl ausgewählt und als Median bezeichnet.
Genau dieser Fall tritt für die Oktober-Temperaturen 2011 ein.
In Abb. 7 sind die Verteilungen der Einzelwerte als schwarze Punkte als sogenannte  Jitterplots dargestellt. -Die Februarwerte streuen symmetrisch um das blau eingezeichnete arithmetische Mittel herum, während die Oktoberwerte unsymmetrisch mit einer Tendenz zu höheren Temperaturen um das das arithmetische Mittel verteilt sind.
Abb.  7
Von diesem weicht der Median deutlich ab, da er sich an der Lage der meisten Einzelwerte orientiert.  Die Kästchen über und unter dem Median repräsentieren die Lage von jeweils 25% der Einzelwerte (25% Quantile) und sind für den Oktober 2011 sehr unterschiedlich, während sie für den Februar fast gleich groß ausfallen. Auch sind die Werte für Median und arithmetisches Mittel fast identisch. Dies ergibt sich bei normalverteilten Grundgesamtheiten, bei denen zusätzlich  Kenngrößen für die Streuung berechnet werden können.
Die rot eingezeichneten Vertrauensbereiche (Konfidenzintervalle) weisen aus, dass der zutreffende Mittelwert  unter Berücksichtigung  der Verteilung der Einzelwerte  mit einer Wahrscheinlichkeit von 95% (95% Konfidenzniveau) in diesem Bereich liegt.

Abb.  8
Da jede Mittelwertbildung eine Schätzung darstellt, ist ihr eine von der Anzahl der Einzelwerte und deren Verteilung (eben der Grundgesamtheit) abhängiges Streuungsmaß sozusagen aufgeprägt.                                                        
Dies erlaubt die Anwendung von Signifikanztests, mittels derer  zum Beispiel für ein vorgegebenes Konfidenzniveau entschieden werden kann, ob sich Mittelwerte signifikant voneinander unterscheiden. Für normalverteilte Grundgesamtheiten  werden dabei andere Tests (Varianzanalyse) als für beliebige (nicht parametrische) Verteilungen angewandt, z. B. der Kruskal-Wallis Test.
Für den Vergleich der Februar-Mitteltemperaturen von 2001 bis 2011 der DWD Station Braunschweig (Abb. 8) können die arithmetischen Mittel der Tagesmittelwerte verglichen werden, da für jedes Jahr eine Normalverteilung vorliegt. Die darauf angewandte Varianzanalyse kommt zu dem Ergebnis, dass sich die Mittelwerte insgesamt auf einem Konfidenzniveau von 95% unterscheiden.
Um Jahresmittelwerte zu bilden, kann man die Tagesmittelwerte direkt verrechnen oder nach Bildung von Monats-mitteln,  diese zur Mittelwertbildung verwenden. 

Abb.  9
Da für die DWD Station Braunschweig die Jahresverteilungen der Tagesmittel die Normalitätskriterien nicht erfüllen, müssen die Mediane benutzt werden (Abb. 9).
Zur Entscheidung, ob sich die Jahres-Mediane signifikant voneinander unterscheiden, wird der Kruskal-Wallis Test angewandt, der zu dem Ergebnis gelangt, dass insgesamt kein signifikanter Unterschied zwischen ihnen vorliegt.
In der Praxis weren jedoch die Jahresmittelwerte aus den Monatsmittelwerten gebildet, wobei einfach vorausgesetzt wird, dass die Tageswerte der Monate jeweils normalverteilt sind. Das trifft auch meistens zu, da Mittelwerte,  auch wenn sie aus nicht normalverteilten Grundgesamtheiten gebildet  werden, tendenziell dazu neigen, eine Normalverteilung  anzunehmen.

Abb.  10
Die Streungsmaße der Monatsmittel werden in den öffentlich zugänglichen Datensätzen nicht weiter berücksichtigt, was jedoch aufgrund der Fehlerfortpflanzungsregeln nach Gauss geboten ist.                                       
Somit stehen nur solch Streuungsparameter,  die sich bei der Bildung von Jahresmittelwerten aus den veröffentlichten Monatswerten ergeben, für Signifikanztests zur Verfügung.
 In die Berechnung von Konfidenzintervallen geht die Anzahl der Einzelwerte als Divisor ein. Daher  fallen sie für Jahresmittelwerte relativ groß aus, da diese jeweils nur aus 12 Werten (Monaten) gebildet werden (Abb. 10).  Die Varianzanalyse sagt aus, dass sich die Jahresmittelwerte nicht signifikant voneinander unterscheiden und gelangt damit zum gleichen Ergebnis wie der vorige Vergleich der Mediane aus Tagesmittelwerten geführt.
Abb.  11
Im nächsten Schritt, werden aus den Monatsmitteln einzelner Stationen Gebietsmittel gebildet. Der Deutsche Wetterdienst berücksichtigt z. Zt.  264 Stationen, die zur Berechnung einer für Deutschland relevanten Mitteltemperatur herangezogen werden. Die Monatswerte sind normalverteilt, so dass die Jahresmittelwerte durch arithmetische Mittel und ihre Konfidenzintervalle repräsentiert werden können. Eine Varianzanalyse weist keine signifikanten Unterschiede zwischen den Jahresmittelwerten seit 1960 aus (Abb. 11).                                                                                 
Dennoch läßt sich ein Trend berechnen, der durch eine Steigung von 0,03 ± 0,006 °C/Jahr  der Regressionsgeraden charakterisiert  wird, für die mit einem Bestimmtheitsmaß  von R2 = 0,33 eine beträchtliche  Unsicherheit besteht.
 
Tab. 1
Nach Angaben des Global Historical Climatology Network (GHCN), bei dem die Temperaturen der weltweit verteilten Stationen gesammelt werden, wurden 2011 zur Ermittlung der globalen mittleren Landtemperatur die Daten von 2644 Stationen berücksichtigt. Anzahl und Verteilung ist der Tabelle 1 zu entnehmen. Wie schon aus der oben gezeigten Karte hervorging, sind die Stationen nicht homogen über die Landfläche verteilt.                                                                                                
Temperatur – Zeit – Reihen werden im Wesentlichen von 3 von Institutionen mit unterschiedlichen Gewichtungen der Werte erstellt und publiziert.
 


Laure M. Montandon et al. haben die unterschiedliche  Berücksichtigung der vom GHCN nach Oberflächentypen differenzierten Landstationen tabelliert (Tab. 2).  Auffällig sind die hohen Anteile der urbanen Stationen. 
In jüngster Zeit haben Überarbeitungen der Zeitreihen dazu geführt, dass sich die Ergebnisse weitestgehend angenähert haben. Dies gilt auch für die beiden Reihen, in denen die Messungen des TIROS-N Satelliten auswertet werden.                  
 
Tab. 2 
Diese Daten basieren auf der Reflexion von ausgesandten Mikrowellensignalen und liefern relative Werte, die mithilfe der  landgestützten Auswertungen kalibriert werden müssen, um sie in Temperaturwerte umrechnen zu können.
 
Abb. 12 stellt die Zeitreihe der globalen monatlichen Mitteltemperaturen dar, wie sie vom NCDC (National Climate Data Center) bereitgestellt wird. Es sei darauf hingewiesen, dass keine Streuungsmaße mitgeteilt werden und daher auch nicht eingezeichnet sind.
Die die Regressionsgerade weist eine  Steigung von 0,022 mit einem Konfidenzintervall von ± 0,01 °C/Jahr auf und hat ein äusserst geringes Bestimmtheitsmaß  von R2 = 0,006 so dass der Trend als sehr unsicher angesehen werden muss.  

In Abb. 13 sind die Temperaturanomalien, bezogen auf die Referenzperiode von 1960 bis 1990, zu sehen. 
Auch hier fehlen Streuungsmaße, die aufgrund der Subtraktion der Mittelwerte der Referenz-Monatsmittemittel von den jeweiligen monatlichen Mittelwerten nach dem Fehlerfortpflanzungsgesetz sehr beträchtlich ausfallen.
Da diese nicht berücksichtigt werden, d. h. weniger Information über die Ausgangsdaten für weitere Berechnungen vorliegt, erhält man mit R2 = 0,5 nur ein scheinbar größeres Bestimmtheitsmass für die Regressionsgerade.
Ihre Steigung unterscheidet sich mit  0,022 ± 0,001 ebenfalls nur durch ein augenscheinlich um den Faktor 10 verringertes Konfidenzintervall von der obigen.
Da die Erdoberfläche nur zu angenähert einem knappen Drittel (29 %) aus Land, zu gut zwei Ditteln (71%) aber aus Ozeanen besteht, erscheint es sinnvoll, deren Temperaturen zur Berechnung einer Global-Mitteltemperatur einzubeziehen. Früher wurde dazu eine Wasserprobe mit einem Schöpfeimer (Pütz oder Bucket) genommen und die Temperatur des Wassers darin gemessen. Deren Schöpftiefe sollte 1 m betragen. Das wurde aber aus praktischen Gründen selten eingehalten. Man kann unterstellen, dass sie je nach Geschwindigkeit des Schiffes und Sorgfalt der beauftragten Person, diese irgendwo zwischen wenigen Zentimetern und max 1 bis 1,5 m lag. Heute wird die Wassertemperatur im Kühlwassereintritt der Schiffe in 3m bis 15 m Tiefe bestimmt. Stationäre Bojen messen die Wassertemperatur in 2m Tiefe (nach Mitteilungen von M. Limburg). 
Die solchermaßen gewonnenen Wassertemperaturen werden als SST (Sea Surface Temperatures) bezeichnet.
In Abb. 14  sind die NCDC Zeitreihen für die SST Monatsmittel-Temperaturen und Anomalien abgebildet:

Abb.  14
Die Steigungen der Regressionsgeraden sind mit 0,009 ± 0,001 und 0,01 ± 0,0002 nahezu identisch. Für die Anomalien ergibt sich ein R2 = 0,7, das aber auf dem Hintergrund fehlender Fehlerfortpflanzung kritisch zu betrachten ist. 
Die Kombination von Land- und Ozeanberflächentemperaturen wird in Abb. 15 gezeigt:

Abb.  15
Die  Steigungen der Regressionsgeraden fallen mit 0,013 ± 0,004 bzw. 0,013 ± 0,0004  auch hier praktisch gleich aus. Das Bestimmtheitsmaß ist mit R2 = 0,7 für die Mittelwert-Anomalien größer als für die Mitteltemperaturen mit  R2 = 0,02.           
Zwar ist es bemerkenswert, dass die Steigung für die Landwerte rund doppelt so hoch wie für SST und Land + SST Werte,  jedoch sollte immer bedacht werden,  dass die Bestimmtheitsmaße recht gering sind,  bzw. für die Anomalien wegen der nicht berücksichtigten Fehlerfortpflanzung nur gesteigert erscheinen.
Werden aus den Monatsmittelwerten Jahresmittel gebildet und die Signifikanzintervalle berechnet und dargestellt, ergibt sich die Abb. 16  für Landtemperaturen der NCDC Reihe.              
Abb.  16
Für die normalverteilten Werte der globalen Monatsmittel ergibt eine Varianzanalyse, dass sich zwischen den arithmetischen Jahresmitteln keine signifikanten Unterschiede nachweisen lassen.
Hierbei wird deutlich, dass bei der üblichen Darstellung von Temperaturreihen als Anomalien ohne Angabe von Streuungsparametern  wichtige Informationen unterdrückt werden und dadurch ungesicherten Spekulationen über Temperaturunterschiede und -trends  Vorschub geleistet wird.
Die Angabe einer globalen Mitteltemperatur bzw. der Veränderung einer globalen Mittelwertanomalie   (z. B. um 2°C gegenüber einem definierten Zeitpunkt) ist daher unter Beachtung statistischer Gesetzmäßigkeiten,  ohne Angabe von Konfindenzintervallen  als sinnlos zu betrachten.
Autor: PD Dr. habil Dr. Eckhard Schulze  < eckhard.schulze@gmx.org >
Quellen:
zu Tab. 1                 http://fzuber.bplaced.net/NOAA-GHCN-Stations-E.pdf
zu Tab. 2                 Laure M. Montandon et al.  Earth Interactions Volume  15 (2011)  Paper No. 6
zu Abb.1                 http://cdiac.ornl.gov/trends/temp/hansen/graphics/gl_land.gif
zu Abb.2                 http://data.giss.nasa.gov/gistemp/station_data/
zu Abb.3                  http://www.osdpd.noaa.gov/ml/mspps/surftprd.html
zu Abb.4                  http://imk-msa.fzk.de/Wettervorhersage/images/Huette.jpg
zu Abb. 5 bis 10      avacon.com/cms/ContentFiles/Internet/Downloads/Netze_SN_unterbrVerbrauchseinr_Tagesmitteltemp_2012.xls
zu Abb.11                http://www.dwd.de/bvbw/generator/DWDWWW/Content/Oeffentlichkeit/KU/KU2/KU21/klimadaten/german/download__gebietsmittel__temp,templateId=raw,property=publicationFile.xls/download_gebietsmittel_temp.xls
zu Abb.12  u. 13      http://junksciencearchive.com/MSU_Temps/NCDCabsLand.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomLand.csv
zu Abb.14 a u.b       http://junksciencearchive.com/MSU_Temps/NCDCabsOcean.csv  bzw. http://junksciencearchive.com/MSU_Temps/NCDCanomOcean.csv                    
zu Abb.15 a u. b      http://junksciencearchive.com/MSU_Temps/NCDCabs.csv bzw. http://junksciencearchive.com/MSU Temps/NCDCanom.csv
Der gesamte Text kann als pdf im Anhang herunter geladen werden

Related Files




Warum es keinen Konsens zur globalen Erwärmung geben kann

Der Trugschluss der Verlässlichkeit auf einen Konsens, vor allem, wenn er zusammen mit dem argumentum ad verecundiam daher kommt, also dem Trugschluss, dass er richtig sein muss, weil er von Autoritäten stammt, wird wahrscheinlich mehr als alle anderen jene in die Irre führen, die keine philologische [?] Ausbildung in mathematischer oder formaler Logik haben.
Für den Philologen ist ein auf irgendeinem Aristoteles’schen logischen Trugschluss basierendes Argument a priori fehlerhaft. Mehr muss dazu nicht gesagt werden. Allerdings sind heutzutage nur Wenige Philologen. Dementsprechend möchte ich in diesem Beitrag mathematisch erklären, warum es keinen seriösen Konsens hinsichtlich der Antwort auf die zentrale wissenschaftliche Frage in der Klimadebatte geben kann: Wie viel Erwärmung wird es bis zum Jahr 2100 infolge unserer Emissionssünden geben?
Es kann keinen Konsens darüber geben, weil alle Schlüsselparameter in der fundamentalen Gleichung der Klimasensitivität unbekannt und unerkennbar sind. Nicht eine einzige kann direkt gemessen oder indirekt abgeleitet oder mit irgendeiner theoretischen Methode bis zu einem Grad berechnet werden, der präzise genug ist, um uns eine verlässliche Antwort zu geben.
Die fundamentale Gleichung der Klimasensitivität bestimmt, wie viel globale Erwärmung man erwarten kann, wenn das Klima erst einmal zu einem vermuteten zuvor existierenden Gleichgewicht zurück gefunden hat, nachdem wir es durch die Verdoppelung der atmosphärischen CO2-Konzentration gestört haben. Die vereinfachende Annahme, dass Temperatur-Rückkopplungen linear sind, wirkt sich nur wenig aus, so dass ich sie übernehme. Zur Klärung habe ich die wesentlichen Terme der Gleichung farbig dargestellt:

Die Klimasensitivität bei Verdoppelung des CO2-Gehaltes (blau) ist gleich dem Produkt des CO2-Antriebs (grün), dem Planck-Parameter (violett) und dem Rückkopplungsfaktor (rot).
Der grüne Term, ΔF2x, ist der „Strahlungsantrieb“, den das IPCC als Reaktion auf eine Verdoppelung des CO2-Gehaltes in der Luft erwartet. Messungen und die Modellierung haben ergeben, dass die Beziehung zwischen einer Änderung der CO2-Konzentration und einer korrespondierenden Änderung im net down-minus-up–Strahlungsfluss [?] an der Obergrenze der klimatisch aktiven Region der Atmosphäre (der Tropopause) ungefähr logarithmisch ist. Mit anderen Worten, jedes zusätzliche Molekül CO2 hat weniger Einfluss auf den Strahlungsfluss und folglich auf die globale Temperatur als sein Vorgänger. Die Auswirkungen werden geringer.
Um den Strahlungsantrieb als Folge einer CO2-Verdoppelung zu bestimmen, multipliziert man den natürlichen Logarithmus zur Basis e (der eulerschen Zahlmit einem unbekannten Koeffizienten. Im ersten und zweiten Zustandsbericht des IPCC wurde dieser mit 6,3 angegeben, im dritten und vierten Zustandsbericht jedoch heftig um 15% auf 5,35 reduziert. Der CO2-Antrieb wird jetzt mit 5.35 ln 2 = 3.708 Watt pro Quadratmeter angenommen. Dieser Wert wurde aus Vergleichen zwischen drei Modellen gewonnen: aber Modelle können dies nicht zuverlässig bestimmen. Beide Werte des IPCC für diesen wichtigen Koeffizienten sind Schätzungen.
Der violette Term,, angegeben in Kelvin pro Watt pro Quadratmeter direkten Antriebs, ist der Planck- oder Null-Rückkopplungs-Klimasensitivitäts-Parameter. Dies ist eine der wichtigsten Größen in der Gleichung, weil sowohl die direkte Erwärmung vor der Rückkopplung als auch unabhängig davon der Rückkopplungsfaktor davon abhängt. Und doch gibt es nur wenig Literatur darüber. Jüngste Beobachtungen haben Hinweise dafür gebracht, dass der IPCC-Wert eine erhebliche Übertreibung ist.
Der Planck-Parameter ist – in der Theorie – das erste Differential der fundamentalen Gleichung des Strahlungstransportes etwa 5 bis 8 Kilometer über unseren Köpfen, wo definitionsgemäß Ein- und Ausstrahlung gleich groß sind. Der gemessene Strahlungsfluss beträgt 238 Watt pro Quadratmeter. Die Strahlungstransportgleichung ergibt dann die theoretische mittlere Temperatur von 255 Kelvin in dieser Höhe, und das erste Differential beträgt 255 / (4 x 238), oder 0,267 Kelvin pro Quadratmeter. Dieser Wert wird durch ein Sechstel erhöht auf 0,313, weil die globale Temperatur nicht gleichmäßig verteilt ist. Allerdings handelt es sich ebenfalls um eine Schätzung, und die kürzliche Lunar Diviner-Mission legt nahe, dass es eine nennenswerte Überschätzung ist.
In der Theorie sollte die mittlere Temperatur der Mondoberfläche um 270 Kelvin liegen. Allerdings hat Diviner inzwischen ergeben, dass die mittlere Temperatur am Mondäquator bei etwa 206 Kelvin liegt, was impliziert, dass die mittlere Temperatur an der Mondoberfläche nur wenig über 192 Kelvin liegt. Wenn das so ist, dann ist der theoretische Wert von 270 Kelvin und in der Folge der lunare Planck-Parameter eine Übertreibung um 40%.
Falls man den irdischen Planck-Parameter ähnlich übertreiben würde, würde die Klimasensitivität selbst dann, wenn man alle anderen Parameter konstant hält, allein aus diesem Grunde um mehr als die Hälfte geringer sein, statt 3,3 K nur 1,5 K pro CO2-Verdoppelung. Es gibt Beweise, dass die Überschätzung vielleicht nicht mehr als 20% beträgt, so dass die Klimasensitivität mindestens 2,1 betragen würde: immer noch um zwei Drittel unter der zentralen Schätzung des IPCC.
Wenn es keine Temperatur-Rückkopplungen gäbe, die direkte Erwärmung durch die CO2-Verdoppelung abzumildern, wäre die Erwärmung einfach das Produkt aus dem Strahlungsantrieb des CO2 und dem Planck-Parameter: folglich ergäbe sich unter Einsetzung der IPCC-Werte 3,708 X 0,313 = 1,2 K.
Aber das reicht nicht, um die vom Gründungsdokument des IPCC geforderte Klimakrise auszulösen: Also nimmt das IPCC die Existenz zahlreicher Temperatur-Rückkopplungen an – zusätzliche Antriebe fn, angegeben in Watt pro Quadratmeter pro Kelvin der direkten Erwärmung, die sie ausgelöst hatte. Das IPCC sagt auch, dass diese Rückkopplungen so stark positiv sind, dass sie die direkte Erwärmung, die wir mit unseren CO2-Emissionen auslösen, verdreifacht.
Der rote Term in der Gleichung zur Klimasensitivität ist der dimensionslose Gesamtverstärkungsfaktor der Rückkopplung. Er ist reziprok von (1 minus dem Produkt des Planck-Parameters und der Summe aller Temperatur-Rückkopplungen), und er multipliziert die direkte Erwärmung wegen des CO2 mehr als 2,8 mal.
Bemerkenswerterweise verlässt sich das IPCC dabei auf eine einzige Studie, Soden & Held (2006), um seine zentralen Schätzungen der Werte prinzipieller Temperatur-Rückkopplungen zu bestimmen. Es hat bis zum vierten und bisher letzten Zustandsbericht 2007 nicht alle dieser Rückkopplungswerte veröffentlicht.
Folgende Werte werden darin genannt: Wasserdampf-Rückkopplung fH2O = 1.80 ± 0.18; Rückkopplung des Temperaturgradienten (lapse-rate) flap = –0.84 ± 0.26; Rückkopplung der Oberflächen-Albedo falb = 0.26 ± 0.08; Rückkopplung der Bewölkung fcld = 0.69 ± 0.38 Watt pro Quadratmeter pro Kelvin. Es gibt noch eine implizite Bandbreite von 0,15 Kelvin für die CO2-Rückkopplung und andere kleine Rückkopplungen, was insgesamt zu einer Summe an Rückkopplungen von etwa 2,06 Watt pro Quadratmeter zusätzlichen Antriebs pro Kelvin direkter Erwärmung.
Man beachte, wie klein die Fehlergrenzen sind. Und doch ist das Signal von den meisten dieser Rückkopplungen in der Literatur umstritten, und nicht einer von ihnen kann entweder durch Messungen oder theoretisch definitiv bestimmt werden oder auch nur durch irgendwelche Beobachtungsmethoden aus den direkten Antrieben, die sie ausgelöst haben. Außerdem gibt es keine wissenschaftliche Basis für die Hypothese, dass irgendeine dieser Rückkopplungen auch nur nahe den festgelegten Werten liegt, und noch weniger dafür, dass sie zusammen eine so drastische Auswirkung haben, den Antrieb fast zu verdreifachen.
Die Multiplikation der Summe der Rückkopplungen mit dem Planck-Parameter ergibt eine implizite zentrale Schätzung von 0,64 für die Kreisverstärkung [closed-loop gain] im Klimasystem, wie ihn sich das IPCC vorstellt. Und das ist unmöglich, wie jeder Prozessingenieur bestätigen wird. In elektronischen Schaltkreisen, die stabil bleiben und nicht oszillieren sollen, darf die Kreisverstärkung einen Wert von 0,1 nicht übersteigen. Die globale Temperatur hat sich höchstwahrscheinlich während der vergangenen 64 Millionen Jahre und vielleicht auch der letzten 750 Millionen Jahre nicht um mehr als 3% vom vieljährigen Mittel entfernt. Ein Klimasystem mit einer Kreisverstärkung bis zu zwei Dritteln des Wertes, bei dem eine heftige Oszillation einsetzt, ist also unmöglich, da keine solche heftige Oszillation beobachtet worden ist oder abgeleitet werden kann.
Multipliziert man die 1,2 Kelvin direkte Erwärmung durch CO2 mit seinem unrealistisch stark überschätzen Rückkopplungsfaktor von 2,8, erhält man implizit eine zentrale Schätzung des IPCC von 3,3 K für den blauen Term, , welcher die Größe ist, nach der wir suchen: die Gleichgewichtserwärmung in Kelvin als Reaktion auf eine Verdoppelung der CO2-Konzentration.
Zusammenfassend: Die präzisen Werte des CO2-Strahlungsantriebs, der Planck-Parameter und alle fünf relevanten Temperatur-Rückkopplungen sind ungemessen und unmessbar, unbekannt und unerkennbar. Die Rückkopplungen sind besonders ungewiss und können auch irgendwie negativ anstatt stark positiv sein: und doch legen die Fehlergrenzen des IPCC ziemlich fälschlich nahe, dass sie mit einer außerordentlichen Genauigkeit bekannt sind.
Es ist der konstruierte Einfluss der Rückkopplungen zur Klimasensitivität, die im Zentrum der Auseinandersetzung zwischen den Skeptikern und den Klimaextremisten steht. Zum Beispiel haben Paltridge et al. (2009) gefunden, dass die Wasserdampf-Rückkopplung nicht annähernd so stark sein muss, wie das IPCC glaubt; Lindzen und Choi (2009, 2011) berichten, das Satellitenmessungen von Änderungen der Ausstrahlung als reaktion auf Änderungen der Wassertemperatur darauf hindeuten, dass die Summe der Rückkopplungen insgesamt negativ ist, wenn man von einer Klimasenistivität um 0,7 K ausgeht; oder weniger als ein Viertel der zentralen Schätzung des IPCC; Spencer und Braswell (2010,2011) stimmen dieser Abschätzung auf der Basis zu, dass die Wolken-Rückkopplung genauso stark negativ ist, wie sie das IPCC als positiv annimmt; usw., usw.
Da alle sieben Schlüsselparameter in der Klimasensitivitätsgleichung unbekannt und unbestimmbar sind, liegen das IPCC und seine Akolyten erkennbar falsch mit der Behauptung oder Implikation, dass es einen Konsens darüber gibt – oder möglich ist –, eine wie starke Erwärmung eine Verdoppelung des CO2-Gehalts bringen wird.
Die Schwierigkeiten sind sogar noch größer. Die Gleichgewichts-Klimasensitivität zu einer CO2-Verdoppelung ist nämlich nicht die einzige Größe, die wir bestimmen müssen. Man muss auch drei weitere Größen bestimmen, die alle ungemessen und unmessbar sind: der negative Antrieb durch anthropogene „Nicht-Treibhausgas-Emissionen“ (besonders bestimmte Aerosole); die Erwärmung, die sich aus der bisherigen Anreicherung der Atmosphäre mit Treibhausgasen in diesem Jahrhundert ergeben wird (laut IPCC 0,6 K); der schwankende Sensitivitätsparameter [transient-sensitivity parameter] für das 21. Jahrhundert (das IPCC geht von 0,4K pro Watt pro Quadratmeter aus) und dem Anteil der gesamten anthropogenen Antriebe durch Treibhausgase ohne CO2 (das IPCC impliziert 70%).
Außerdem beläuft sich die implizite Schätzung der Erwärmung, die wir bis 2100 als Ergebnis unserer CO2-Emissionen in diesem Jahrhundert verursachen könnten, auf nur 1,5 K. Selbst wenn wir überhaupt kein CO2 von 2000 bis 2100 emittieren würden, wäre die Welt bis zum Jahr 2100 lediglich um 1,5 K kühler als heute. Und das aufgrund der Hypothese die Sensitivität der globalen Temperatur hinsichtlich des CO2 nicht erheblich übertrieben hat.
Es gibt noch eine letzte unüberwindliche Schwierigkeit. Das Klima ist ein gekoppeltes, nicht-lineares, mathematisch chaotisches System, so dass selbst das IPCC zugibt, dass die langzeitliche Vorhersage des künftigen Klimas nicht möglich ist. Es versucht, diese Lorenz-Beschränkung [Lorenz constraint] zu umgehen, indem es die Klimasensitivität als eine Wahrscheinlichkeitsverteilung angibt. Was jedoch die Ungewissheit hinsichtlich der Werte irgendeines der relevanten Parameter angeht, ist das Scheitern einer Wahrscheinlichkeitsverteilung nicht unwahrscheinlicher als eine zentrale Schätzung mit Fehlergrenzen.
Wenn Sie jetzt von zu viel Mathematik Kopfschmerzen haben, überlegen Sie sich, wie viel einfacher es ist, ein Philologe zu sein. Der Philologe weiß, dass das zentrale Argument der Klimaextremisten – nämlich dass es einen (sorgfältig unspezifizierten) Konsens unter den Experten gibt – eine unheilige Allianz zwischen dem argumentum ad populum and the argumentum ad verecundiam ist. Das allein für sich zeigt schon, dass das Argument der Klimaextremisten haltlos ist. Allerdings kennen Sie jetzt die Mathematik. Die Tatsache, dass keiner der notwendigen Schlüsselparameter mit keiner Methode bestimmt werden kann oder bestimmt worden ist, bestätigt, dass es keine wissenschaftliche Basis für jedwede Hypothese gibt, dass die Klimasensitivität jemals hoch genug ist oder sein wird, um schließlich gefährlich zu werden.
Lord Christopher Monckton of Brenchley
Link: http://wattsupwiththat.com/2012/04/23/why-there-cannot-be-a-global-warming-consensus/
Übersetzt von Chris Frey EIKE




Wo bleibt die Arktis-Schmelze ?

Update 13.5.12: Vor fünf Jahren prophezeiten "Wissenschaftler" in National Geographics, dass die Arktis bis zum Ende des Sommers 2012 nahezu eisfrei sein würden. Davon ist weit und breit nichts zu sehen. Das Gegenteil ist der Fall. Mark Serreice, der spätere Leiter des ICE Center in Boulder Colorado machte sich darin unsterblich lächerlich mit dem Satz: "Die Arktis weint" Details dazu hier.

..Mit dem Spätsommer endet in der Arktis die saisonale Eisschmelze, so daß zumeist Mitte September das Minimum der arktischen Eisbedeckung erreicht ist.
Den Verlauf der Jahre 2002-2011 zeigt die Abbildung 1:
 
Abb. 1
Arktische Eisbedeckung 2002-2011 [7]
Der Abbildung 1 kann man entnehmen, daß das arktische herbstliche Eisminimum zwischen 2003 und 2007 einen mehr oder weniger abnehmenden Trend zeigte. Das bisherige Minimum seit Beginn der Satelliten-Beobachtungen war 2007 erreicht, was Klima-Institute und Medien im Dezember zu Katastrophen-Schlagzeilen dieser Art veranlaßte: "Nordpol bereits in fünf Jahren eisfrei" [8], oder "Arktisches Eis-Rekordschmelze alarmiert Forscher" [9]. Und dann wurde munter drauf los fabuliert [8]: "Ein Team internationaler Klimaforscher und Wissenschaftler der NASA behaupten, dass der arktische Sommer bereits 2013 eisfrei sein wird. Grund: Die bisherigen Berechnungen seien falsch …" ; oder [9] : "Neueste Schätzungen eines NASA-Klimaforschers geben dem Eis des Arktischen Ozeans gerade noch eine Hand voll Jahre".
Nun sind diese "Hand voll Jahre" rum (2007-2012!), und es lohnt sich wieder einmal, derartige Vorhersagen anhand der Realitäten in der Natur zu überprüfen. Dazu mag zunächst die Abbildung 2 dienen:
 
Abb. 2
Arktische Eisbedeckung 2007-2011 [10] (Zahlen und Texte eingefügt)
ERGEBNIS : Nichts von alledem ist eingetreten, im Gegenteil:
In allen Folgejahren nach 2007 lag das spät-sommerliche Minimum der arktischen Eisbedeckung mehr oder weniger deutlich über dem Minimum von 2007. Schon bis hier her sind die Fakten ein Desaster für die IPCC-Auguren.
Nun zeichnet sich aber aktuell sogar ab, daß der "Fliegende Holländer der Weltklima-Propheten" in noch schwerere See – sprich: dickes Treib-Eis –  gerät, wie die Abbildung 3 veranschaulicht:
 
Abb. 3
Arktische Eisbedeckung Januar 2007- April 2012 [10]
Die rote Kurve stellt den Eisverlauf 2012 bis 25. April dar: Zum Ende des Monats April 2012 sehen wir uns einer Eisbedeckung gegenüber, wie es sie in diesem Umfang seit 10 Jahren nicht gegeben hat! Mehr noch: Wir haben eine Eisbedeckung, die knapp oberhalb des 25-jährigen Mittelwertes liegt.
Eine andere Darstellungsart zeigt die jährliche arktische Eis-Ausdehnung in den März-Monaten 1979-2012 in der Abbildung 4:
 
Abbildung 4
Arktische Eis-Ausdehnung März 1979-2012 [11];
(gestrichelte Linien eingefügt)
Man muß 10 Jahre zurück gehen, um eine größere Eis-Ausdehnung zu finden, als bis März 2003.
Zu alledem passt auch diese Meldung [12]:
"The amount of floating ice in the Arctic’s Bering Sea – which had long been expected to retreat disastrously by climate-Cassandra organisations such as Greenpeace reached all-time record high levels last month, according to US researchers monitoring the area using satellites. The US National Snow and Ice Data Center (NSIDC) announced last week that ice extent in the Bering for the month of March has now been collated and compared, and is the highest seen since records began."
Trotzalledem: Selbst angesichts dieser beachtlichen winterlichen Eis-Ausdehnung würden wir uns hier niemals anmaßen  –  im Gegensatz zu den IPCC-Forschern und deren Instituten  – nun daraus eine September-Prognose abzuleiten. Keineswegs kann man u.E. nun zum Beispiel auf ein "10-Jahres-Maximum an Eis" im September 2012 schließen. Allerdings  –  das ist auch gar nicht erforderlich, um die Dreistigkeit und Peinlichkeit der bisherigen Arktis-Prognosen von IPCC-nahen Instituten darzustellen  – schon bis heute war alles falsch!
PIK-Kunde der "Kipp-Punkte"
Der aktuelle Befund der letzten Jahre steht in krassem Gegensatz u.a. zu Verlautbarungen des Potsdam-Instituts für Klimafolgenforschung (PIK), das auch in der Arktis immer wieder von irgendwelchen Klima-Kipp-Punkten fabuliert [13]: "Das arktische Meer-Eis und die Gebirgsgletscher der Alpen werden unter den in der Studie aufgelisteten Elementen als diejenigen eingeschätzt, die am empfindlichsten auf die Erderwärmung reagieren" …u.w.a.a.O.: "Die Wahrscheinlichkeit des Kippens dieser Elemente steigt im Allgemeinen mit dem Anstieg der globalen Mitteltemperatur, als Folge des von Menschen verursachten Ausstoßes von Treibhausgasen."
Seltsam: Die Treibhausgase steigen, aber die Fläche des Arktik-Eises auch!
Nun gibt es Hoffnung, daß die Spekulationen über allerlei "mensch-gemachte Klima-Kipp-Punkte" dahin kommen, wo sie hingehören: In den Papierkorb der Wissenschaft. Denn –  das Max-Planck-Institut für Meteorologie in Hamburg hat eine Studie zur Arktis publiziert [14], wozu das MPI zugleich eine Presse-Mitteilung  [15] herausgegeben hat mit der Überschrift: "Hoffnung für das Arktische Meereis". Dort wird u.a. ausgeführt:
"Der starke Rückgang des Meereises in der Arktis ließ in den letzten Jahren die Sorge aufkommen, dass die Eisbedeckung sich einem sogenannten Kipp-Punkt nähern könnte. Bei Überschreiten des Kipp-Punktes wäre der Verlust des verbleibenden Meereises nicht mehr zu stoppen. Aktuelle Forschungsergebnisse des Hamburger Max-Planck-Instituts für Meteorologie deuten jetzt jedoch darauf hin, dass es keinen solchen Kipp-Punkt für den Verlust des Sommereises in der Arktis gibt. Stattdessen reagiert die Eisbedeckung relativ direkt auf die jeweiligen klimatischen Bedingungen. Der fortschreitende Verlust des Arktischen Meereises könnte also verlangsamt oder sogar gestoppt werden, wenn die globale Erwärmung verlangsamt oder gestoppt würde."
Und genau das zeigt uns die Natur: Seit 14 Jahren gibt es keine Erderwärmung mehr, eher eine mäßige Temperatur-Abnahme [1], wozu die seit 2007 zu beobachtende Eiszunahme im Sinne der Verlautbarung des MPI HH [15] paßt!
Schon immer hat es – in angenehmen wissenschaftlichem Kontrast z.B. zum PIK-Alarmismus  –  auch besonnene Stimmen gegeben, z.B. vom Alfred-Wegener-Institut (AWI) in Bremerhaven. So sagt AWI-Vizedirektor Prof. Dr. Heinrich Miller [16]: "Wann und ob die Arktis eisfrei sein wird, können wir nicht mit Sicherheit sagen".
Zum gleichen Thema die AWI-Direktorin Prof. Dr. Karin Lochte [17] auf die Frage, ob die Nordpol-Umrundung 2008 von FS POLARSTERN ein Hinweis auf den globalen Klimawandel sei: “Das ist noch nicht klar… Es gibt noch keine Antwort auf die Frage, ob der Rückgang des Meereises anhalten oder ob es wieder eine kältere Phase geben wird.“
Der Eisbär stirbt zuletzt
Im Zusammenhang  mit der "Anthropogen-Global-Warming-Hypothese" (AGW) wird ja gerne von "grünen" NGO’s und selbst von Klima-Instituten immer wieder über das Aussterben von polaren Tier-Populationen spekuliert. Auch da ist es offensichtlich an der Zeit für Realismus [18]:
"Während die Klima-Panikmacher im Namen der Verhinderung der Erderwärmung ihre Forderungen nach der Einführung einer weltweiten Steuer auf Kohlenstoffdioxid-Emissionen bekräftigen, geht es den Pinguinen, Eisbären, Gletschern und dem Arktis-Eis blendend!
Während die düsteren Prophezeiungen eines eisfreien arktischen Sommers bereits umfassend widerlegt worden sind, zeigen auch die jüngsten Daten, dass die Tierwelt und die Umwelt der kältesten Regionen auf dem Planeten nicht jene katastrophalen Zerstörungen erfahren haben, die aufgrund des anthropogenen Klimawandels vorausgesagt wurden.
Die Prognosen, die kanadische Eisbärenpopulation würde aufgrund der Erderwärmung bedeutend zurückgehen, haben sich als völlig falsch herausgestellt. Die jüngste Untersuchung dazu zeigt, dass Eisbärenpopulation in der Region um Hudson Bay fortwährend bei 1.000 Tieren liegt – derselben Zahl, die auch während einer Studie des Jahres 2004 festgestellt wurde. Diese Zahlen zeigen, so Canadian Press, dass ’sich die ´schwarzmalerischen` Vorhersagen der Umweltschützer bezüglich des Untergangs des Eisbären nicht bewahrheitet haben.‘
‚Die Leute haben versucht, den Eisbären als eine Art von Aushängeschild zu nutzen – er ist ein schönes Tier und erregt die Aufmerksamkeit der Öffentlichkeit, um die Menschen auf die Folgen des Klimawandels aufmerksam zu machen … Wir können diese Folgen zum jetzigen Zeitpunkt nicht beobachten. Es ist keine Krisensituation da, so wie es eine Menge Leute der Welt gerne glauben machen wollen‘, so Drikus Gissing, der Chef der Wildtierverwaltung von Nunavut.
Unterdessen berichtet Live Science, dass ‚eine neue Studie unter Verwendung von Satelliten-Kartentechnologie enthüllte, dass es in der Antarktis doppelt so viele Kaiserpinguine gibt, wie ursprünglich angenommen‘."
Wie sagte doch gleich die AWI-Chefin Karin Lochte [19] in einem FAZ-Interview auf die Frage, ob die starken Meereisverluste im Sommer 2007 ein Indiz für eine beschleunigte künstliche Klima-Erwärmung sei:
"Das müssen wir erst noch sehen. Wir wissen heute noch nicht, ob das Teil eines Zyklus ist. Wir wissen nicht, ob wir in vielleicht fünf Jahren wieder mehr Eis haben, oder ob das doch ein ungebrochener Trend in Richtung Eisschmelze ist."
Die 5 Jahre sind rum: TREFFER – Frau Lochte! Kompliment !
Klaus-Eckart Puls, EIKE
Q u e l l e n :
[1]  http://www.cru.uea.ac.uk/cru/info/warming/
[2] EIKE Falscher PIK Alarm beim Meeresspiegel

[3] Ist das noch normal? Die extrem schwierige Analyse von Extremwetter; 24. April 2012, http://www.kaltesonne.de/?p=2962
[4]  http://www.eike-klima-energie.eu/news-cache/presseschau-zum-ipcc-extremwetterbericht-mehr-extremwetter-fehlanzeige/
[5]  http://www.eike-klima-energie.eu/news-cache/aktuell-zur-durban-un-klimakonferenz-neuer-ipcc-bericht-zunahme-von-extremwetterlagen/
[6]  Himalaya-Schmelzkatastrophe abgeblasen: Das Neueste aus der Welt der Gletscher;
22. April 2012,  http://www.kaltesonne.de/?p=2939
[7]  http://www.ijis.iarc.uaf.edu/en/home/seaice_extent.htm
[8]  http://www.welt.de/wissenschaft/article1456952/Nordpol_bereits_in_fuenf_Jahren_eisfrei.html ; 13.12.2007
[9]  http://www.spiegel.de/wissenschaft/natur/0,1518,522976,00.html; 12.12.2007
[10]  http://arctic-roos.org/observations/satellite-data/sea-ice/ice-area-and-extent-in-arctic
[11]  http://nsidc.org/arcticseaicenews/
[12] Amount of ice in Bering Sea reaches all-time record, Posted in Science11th April 2012;
http://www.theregister.co.uk/2012/04/11/bering_sea_ice_cover/
[13]  Presse-Mitt. PIK, 23.06.2011, Kipp-Elemente im Klimasystem
[14] Tietsche, S., D. Notz, J. H. Jungclaus, and J. Marotzke (2011), Recovery mechanisms of Arctic summer sea ice, Geophys. Res. Lett., 38, L02707, doi:10.1029/2010GL045698
[15] MPI HH, Presse-Mitteilung, 4. Februar 2011,
 http://www.mpimet.mpg.de/aktuelles/single-news/article/hoffnung-fuer-arktisches-meereis.html
[16] Interview mit Professor Dr. Heinz Miller, Stellvertretender Direktor des Alfred-Wegener-Instituts. Er beschäftigt sich als Geophysiker mit Klimarekonstruktion und Eisdynamik, 03.11.2007 ; http://www.awi.de/de/aktuelles_und_presse/bild_film_ton/tonbeitraege/miller_3112007_klimawandel/
[17] ElbeWeserAktuell, 29.10.2008, S.6BC
[18]  http://www.propagandafront.de/1108340/albtraum-der-oko-maoisten-pinguinen-eisbaren-gletschern-und-arktis-eis-gehts-blendend.html?utm_source=feedburner&utm_medium=email&utm_campaign=Feed%3A+Propagandafront+%28PROPAGANDAFRONT%29
[19] FAZ 15.11.2007; http://www.faz.net/aktuell/wissen/klima/karin-lochte-im-gespraech-natuerlich-kann-man-noch-viel-pessimistischer-sein-1488102.html

Related Files