Mein verhindertes Video-Gespräch mit Prof. Gerd Ganteför

Die Treibhaushypothese wird Stück für Stück mit Beweisen, Fakten und Logik widerlegt. Das mag nicht jedem gefallen, ist aber, bis zum Gegenbeweis, korrekt. Es wird nachgewiesen, dass dieses nur hypothetische Gebäude – bildlich gesprochen- ein Fundament hat, was auf Sand ruht, der seinerseits im Sumpf liegt.

Von Michael Limburg

Ganteföhr Movie 3

Videoausschnitt ca. 3 Minuten lang, aus dem Gespräch mit Herrn Model mit Prof. Gerd Ganteför, zum Thema Klimawandel und Treibhauseffekt. Von Herrn Model vorgestellt mit den Worten: „In dieser Folge im Modelhof begrüßen wir Prof. Dr. Gerd Ganteför – Physiker, Autor und einer der unbequemsten Stimmen in der Klimadebatte“. ALLE ZEITANGABEN IM FOLGENDEN BEZIEHEN SICH DAS HIESIGE VIDEO, FALLS DAS GELÖSCHT WERDEN SOLLTE IN KLAMMERN, AUF DAS ORIGINAL.

Zurück zu den Mittelwerten aus vorindustrieller Zeit.

Ganteför bezieht sich…

  1. auf Anomalien, also die Differenz zwischen einem als Normalwert bezeichnete Größe und dem aktuellen Wert, mit einer Summe von + 1,5 °C
  2. auf eine Zeit, die er als „vorindustriell“ bezeichnet. Und so steht es auch in der Pariser Klimaübereinkunft.

Zu 1. Diese Anomalie hat eine Unbekannte, nämlich die „Mitteltemperatur“ der Erde vor der Zeit von 1978. Die bekannte Größe ist der Normwert der globalen Mitteltemperatur von 1990 bis 1961. 1978 war das Jahr in dem erstmals Wettersatelliten aufstiegen. Ein Programm, bei dem auch S.Fred Singer maßgeblich beteiligt war, und das ihn zum großen Atmosphären-Physiker seiner Zeit machte. Ich bin sehr froh, ihn nicht nur gekannt zu haben, sondern auch dass wir lange Jahre, bis zu seinem Tod, befreundet waren. Über diese Temperatur will ich im Folgenden schreiben, zuvor aber noch etwas anderes…

Zu 2. Das Problem mit „vorindustriell“ ist, dass niemand weiß, wann das war? Auch Ganteför nicht. Keiner, auch die Delegierten der Pariser Klimaübereinkunft, ebenso wenig wie die Bundesregierung, oder alle „Klimawissenschaftler des IPCC, des Potsdam Instituts für Klimafolgenforschung, etc. etc. Niemand. Man behilft sich dann mit den wenigen Daten, die man zur Temperaturmessung hatte, und sagt dann, dass sei vor 1850 gewesen. Nur weltweite Messungen hatte man keine. Nur wenige lokale Messungen mit Fehlern alle Art. Wie Abbildung 9 eindrucksvoll belegt.

Ein Bild, das Karte, Text enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 9: Meteorlogische Temperaturstationen und deren weltweiter (nur Land) Verteilung von 1885 bis 1985. Es fällt auf, dass nur wenige in den USA, Europa, europ. Russland, und ein wenig in China lagen. Um 1885 ware es ingesamt ca. 500 Stationen, um das Jahr 1900 ca. 1000. Nichts jedoch in allen anderen Ländern außer den oben genannte, plus der Ozeane, die ca. 71 % der Weltoberfläche ausmachen.[1]

5. Das Nächste ist der Begriff der Anomalien.

Es gibt unter den „Klimaforschern“ die vermeintliche Tatsache, dass Anomalien genauer seien als Absolutwerte, weil sich deren Fehler ausgleichen. Doch das ist nur teilweise richtig, denn es bezieht sich nur auf die zufälligen, nicht auf die systematischen Fehler. Und es ist doppelt falsch für Zeitreihen. Weil letztere nur einen Normwert aus einer bestimmten Zeitspanne als eine der Zahlen beinhalten (bspw. der Normwert von 1961 bis 1990). Für die anderen Werte gilt die Bemerkung von Brohan et al überhaupt nicht. Und wenn in dieser Zeit des Normwertes ein systematischer Fehler, schleichend oder ad hoc, auftritt, dann auch nicht für diesen. Systematische Fehler, so man sie denn kennt, addieren sich nämlich, je nach Art – voneinander abhängig oder nicht- mit dem Absolutwert der Fehler oder mit der Wurzel der Summe der Quadrate der Fehler.

Brohan und Kennedy et al[2] haben jedoch dieses sehr eigene Fehlerverständnis mal in diese Worte gekleidet:

There will be a difference between the true mean monthly temperature (i.e., from 1 min averages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly. So this does not contribute to the measurement error.

Zu Deutsch

Es wird eine Differenz zwischen der tatsächlichen monatlichen Durchschnittstemperatur (d. h. aus 1-Minuten-Durchschnitten) und dem von jeder Station aus selteneren Messungen berechneten Durchschnitt geben; diese Differenz ist jedoch auch im Stationsnormal vorhanden und hebt sich in der Anomalie auf. Sie trägt also nicht zum Messfehler bei.

Und weiter..

Only random errors have been regarded.

Nur zufällige Fehler wurden betrachtet.

Und da haben Sie recht, denn je mehr zufällige Fehler vorhanden sind – und sie sind deshalb zufällig, weil sie in der Gausschen Fehlerverteilung gleichmäßig um den genauen Wert verteilt sind, dann mit dem Bruch aus 1 geteilt durch Wurzel n. gegen Null gehen. Wobei n die Zahl der Fehler darstellt.

Und zu systematischen Fehler bekennen sie sich, wenn auch nur zu einem sehr kleine Teil davon

See 2.3.1. Station Errors and 2.3.1.1. Measurement Error (εob)„..  If a station changes the way mean monthly temperature is calculated it will produce an inhomogeneity in the station temperature series, and uncertainties due to such changes will form part of the homogenization adjustment error.

Deutsch:

Ändert eine Station die Berechnungsweise der durchschnittlichen Monatstemperatur, führt dies zu einer Inhomogenität in der Temperaturreihe der Station und die Unsicherheiten aufgrund solcher Änderungen sind Teil des Homogenisierungsanpassungsfehlers.“

Doch das ist wie schon erwähnt nur ein äußerst geringer Anteil der systematischen Fehler, und die Inhomogenitäten wurden weder anteilig noch komplett ausgeräumt.

Daher sagte Richard Muller, Projektleiter der BEST Temperaturstudie dazu

„…Using data from all these poor stations, the U.N.’s Intergovernmental Panel on Climate Change estimates an average global 0.64 °C temperature rise in the past 50 years, „most“ of which the IPCC says is due to humans. Yet the margin of error for the stations is at least three times larger than the estimated warming“ BEST Studienleiter Richard Muller 21.10.2011 Wallstreet Journal

Zu Deutsch

„…Anhand der Daten all dieser schlechten Stationen schätzt der Zwischenstaatliche Ausschuss für Klimaänderungen der UNO einen durchschnittlichen globalen Temperaturanstieg von 0,64 °C in den letzten 50 Jahren, von dem der IPCC sagt, dass er „zum größten Teil“ auf den Menschen zurückzuführen sei. Die Fehlerspanne der Stationen ist jedoch mindestens dreimal größer als die geschätzte Erwärmung.“ BEST Studienleiter Richard Muller 21.10.2011 Wallstreet Journal

Und noch eines ist sehr wichtig. Nämlich die Tatsache, dass die Anomalien nur einen kleinen Teil der Gesamtmessung darstellen. Ca. 50 bis 100 fach kleiner. Doch die Fehler werden auf die Gesamtmessung bezogen, das bedeutet, dass sie auf die Anomalien ein um den Faktor 50 bis 100 größeres Gewicht haben. Und das bedeutet, dass Anomalien für diesen Zeck unbrauchbar sind.

Und daher ist es immer wieder wichtig sich auf die Veröffentlichungen von Pat Frank zu beziehen, bspw. „Uncertainty in the Global Average Surface Air Temperature Index: A Representative Lower Limit“, oder SYSTEMATIC ERROR IN CLIMATE MEASUREMENTS: THE SURFACE AIR TEMPERATURE RECORD. Er hat dort einen geringen Teil der systematischen Fehler gefunden und analysiert. Aber diese wurden nicht von diesen Leuten betrachtet, obwohl sie die Zeitreihe der Anomalien der Welt-Durchschnittstemperatur wie ein sehr großes, zu großes Unsicherheitssband umschließen.

Ein Bild, das Text, Reihe, Software, Diagramm enthält. KI-generierte Inhalte können fehlerhaft sein.

Abbildung 10 Global mean temperatures[3] als Anomalienbetrachtung jedoch mit sehr vorsichtig geschätzten Unsicherheitsband,

Und wenn das so ist, wie dargestellt, dann möchte das Wunderkind sehen, dass aus dieser Melange irgendeine Korrelation oder noch mehr Ursache – Wirkungsbeziehung herleiten kann, etwa wie das CO2 die vermeintliche Temperatur beeinflusste.

Aus eben dieser Arbeit (Limburg 2010) stammt dann auch die Bemerkung (S 147):

„Es ist in jedem Fall zu beachten, dass die Verteilung dieser und der anderen betrachteten systematischen und groben Fehler nicht einer Normalverteilung entspricht. Damit entziehen sich diese Fehler den statistischen Methoden, die auf Normalverteilung -oder guten Näherungen dazu- basieren. Diese Fehler müssten daher einzeln abgeschätzt und ggf. angegeben oder, besser, wenn möglich korrigiert werden.“

Diese eindeutige und klare Anmerkung wird gestützt durch die viel späteren Aussagen des Mathematikers und Physiker Heinz-Otto Peitgen, ebenso Mitglied des 4PI Solutions Vereins wie Ganteför, der Klima als nicht-ergodisch bezeichnet. Er meinte (ab Minute 1:08.54):

Der Hammer ist: in nicht-ergodischen Systemen ist Mittelwert und Standardabweichung und Varianz keine sinnvolle Technik. … Also, wenn diese beiden Dinge, wenn diese beiden Standpunkte Bestand hätten und ich glaube, sie haben Bestand, dann ist das das Todesurteil für belastbare Ensemble Rechnungen über die zukünftige Entwicklung des Klimas. .

Und das sieht dann so aus.

Abbildung 11 Darstellung der Mittelwerte von 102 Modellen, mit den Ergebnissen aus Ballons-, Satelliten- und Thermometerdaten.

Man kann es auch so sagen wie es der „Fürst der Mathermatiker“ Carl Friedrich Gauss feststellte

„Das Kennzeichen eines schlechten Mathematikers ist, dass er zu genau rechnet.“

6. Prognosen

ab Minute 3:14 (YT 18:40 ff) sagte Ganteför

„Ja, und jetzt wird es nach diesen Prognosen von den Klimamodellen vielleicht 2° wärmer und ich halte es für sehr wahrscheinlich, dass es sogar 2,5° wärmer wird.“

Auch das ist falsch. Es ist bestenfalls eine Hypothese, die es zu beweisen gilt. Und zunächst mal spricht Ganteför von Prognosen, obwohl Klimaforscher sich davor hüten von Prognosen zu sprechen, weil es das nicht gibt. Sie sprechen stattdessen von Szenarien.

Was ist damit gemeint?

Die treffendste Erklärung nannte der Klimatologe Hans-Christian Schönwiese[4] die (notwendige) Vorgehensweise der Modellierer und gleichzeitig deren Schwächen beschrieben:

wir machen keine Vorhersagen, sondern bedingte, Szenarien gestützte Projektionen… Und Projektion heißt ..wenn – dann Aussage. Wenn ich in das Modell hinein stecke der Mensch macht das und das und die Natur macht quasi nichts, sie wird also weitgehend vergessen, bei diesem Blick in die Zukunft, dann wird die Temperatur so und so ansteigen“

„… das trifft praktisch auf die Gesamtheit der natürlichen Klimaprozesse zu „(Lehrbuch Christian-Dietrich Schönwiese Klimatologie 4. Auflage Seite 362)“

Diese Aussage trifft für alle Klimamodelle uneingeschränkt zu. Auch deshalb, weil in allen Modellen, der direkte wie indirekte Einfluss der Sonne (z.B. über die Modulation der kosmischen Höhenstrahlung und damit der Wolkenbildung, wie auch das Triggern der AMO wie der PDO (Pazifisch Dekadische Oszillation)) so gut wie völlig außen vorgelassen wird. Und das ist bei weitem noch nicht alles. Alle Modelle rechnen mit sehr, sehr vielen gekoppelten Differentialgleichungen. Da Computer das nicht können, werden sie zu Differenzengleichungen umgeformt. Doch auch diese Gleichungen sind so aufgebaut, dass das Ergebnis eher früher als später zu sehr exotischen Temperaturen auflaufen würden.

  1. Peterson et al 1997: An Overview of the Global Historical Climatology Network Temperature Database
  2. Quelle: Uncertainty estimates in regional and global observed temperature changes: A new data set from 1850 P. BrohanJ. J. KennedyI. HarrisS. F. B. TettP. D. Jones
  3. Aus eigener Arbeit Dissertation M. Limburg – nicht eingereicht bei UNI Leipzig vom März 2010. Näheres dazu hier https://eike-klima-energie.eu/2016/04/03/treibhaeuser-des-klima-alarmismus-mit-welchen-tricks-deutsche-universitaeten-abweichende-meinungen-niederhalten/
  4. In HR Statdtgespräche 2.2.2010

Wer sich den ganzen Bericht herunterladen möchte kann das hier tun Limburg Mein verhindertes Video 4

Das Video Teil 1 finden Sie hier

Das Video Teil 2 finden Sie hier

Das Video Teil 3 finden Sie hier

Das Video Teil 4 finden Sie hier

 

image_pdfBeitrag als PDF speichernimage_printBeitrag drucken