„Eisheilige“ und andere Singularitäten – Betrachtungen aus synoptischer Sicht

Bild rechts: Eisheiligen-Wetterlage vom 12. Mai 1978. Links: Temperatur im 850-hPa-Niveau, rechts: Geopotential 500 hPa (bunt) und Bodendruck (Linien). Nähere Erläuterung weiter unten im Beitrag. Quelle: Wetterzentrale.de

Für das Temperaturniveau in unseren Breiten ist es nicht nur zu den „Eisheiligen“, sondern immer von zentraler Bedeutung, welche Luftmasse bei uns gerade vorherrschend ist. Es ist eine Binsenweisheit, dass es bei uns kalte und warme Luftmassen gibt. Ist es bei uns „zu warm“ oder „zu kalt“, in welchem Zeitraum auch immer, heißt das nichts weiter, als dass überwiegend warme bzw. kalte Luftmassen während dieses Zeitraumes wetterbestimmend waren. Es gab Mai-Monate, die insgesamt zu kalt ausgefallen waren, obwohl gerade zu den kalendarischen Eisheiligen warme oder sehr warme Luftmassen bestimmend waren, und umgekehrt. Tritt eine solche Temperaturanomalie sogar in vieljährigen Mittelwerten hervor, spricht man von einer Singularität. Übrigens ist das sog. „Weihnachtstauwetter“ ebenfalls eine solche Singularität, noch dazu viel ausgeprägter als die Eisheiligen weil häufig viel „pünktlicher“. Die Mitteltemperatur am 24. Dezember gemittelt über den Zeitraum 1908 bis 2013 liegt 1 bis 2 K höher als die Mitteltemperatur am 15. Dezember.

Wenn ein Vorgang zu bestimmten Zeiten in 10 von zehn Fällen auftritt (Streuung Null), heißt das nicht, dass dieser gleiche Vorgang auch beim 11. Mal wieder auftritt, sondern nur, dass es eine sehr hohe Wahrscheinlichkeit dafür gibt. Ein solches häufiges Auftreten zu einem bestimmten Zeitpunkt liegt deutlich jenseits der statistischen Streuung, so dass es einen Zusammenhang geben muss. Für die (statistische) Vorhersage spielt jedoch die Natur dieses Zusammenhangs keine Rolle! Es ist eine rein akademische Frage.

(Nebenbemerkung: Jeder erfahrene Synoptiker greift teils unbewusst auf solche Zusammenhänge bei der Vorhersage zurück, und Erfahrung ist ja auch nichts weiter als reine Statistik).

Aber ich schweife ab. Zurück zu den Eisheiligen. Anknüpfend an die obige Aussage bzgl. Luftmassen kann man also präzisieren, dass gerade zu den Eisheiligen besonders häufig kalte Luftmassen wetterbestimmend sind, warum auch immer. Natürlich gibt es Kaltlufteinbrüche zu jeder Zeit des Jahres, auch wenn mir irgendwelche ideologischen Betonköpfe weismachen wollen, dass es diese wegen der Nordverschiebung des Subtropenhochs im Sommer gar nicht gibt. (Komisch! Warum hat dann ein Höhentief über Sizilien [!] im Juli vorigen Jahres dort ein Regenüberschuss von 3000% gebracht, mitten im Subtropenhoch?).

Bekannt in diesem Zusammenhang ist die sog. „Schafskälte“, also Kaltlufteinbrüche Anfang Juni, nachdem die Schafe das erste Mal geschoren worden waren. Außer an extrem ungünstigen Lagen (wie z. B. dem Tegeler Fließ im Norden Berlins oder auch an der Station Hof, wo es selbst im Juli schon mal geringen Frost gegeben hatte) gibt es dabei jedoch keinen Frost mehr. Im Übrigen müssen gerade zu den Eisheiligen mehrere Dinge zusammentreffen; ein einfacher Vorstoß von Meereskaltluft arktischen Ursprungs reicht nicht aus, wenn dieser mit vielen Wolken einher geht.

Interessant ist die Eisheiligen-Wetterlage im Jahr 1978 (siehe Bild oben rechts). Im Zuge der Kaltzeit der siebziger Jahre gab es in Nordeuropa einen sehr kalten und außerordentlich langen Winter. Aus dem dort Anfang Mai immer noch vorhandenen Kaltluftpool löste sich ein Höhentief und zog direkt nach Süden. In der Nacht vom 11. auf den 12. Mai wurde von der Radiosondenstation Lindenberg bei Berlin im 850-hPa-Niveau eine Temperatur von -13°C ermittelt. Zu dieser Zeit war jedoch der Bereich mit einer Temperatur unter -10°C in diesem Niveau bereits so klein, dass er im synoptischen Scale der Darstellung nicht mehr zu erkennen ist.

Es gab tagsüber heftige Schneeschauer, nachts klarte es auf, stellenweise bildete sich sogar Nebel. Am Morgen des 13. Mai wurde im Norden Berlins dadurch Rauhreif beobachtet – im Mai sicher keine alltägliche Erscheinung. Über Schäden in der Landwirtschaft ist mir leider nichts bekannt, bei Temperaturwerten bis -8°C (Station Gardelegen) müssen diese aber erheblich gewesen sein.

Da dieser extreme Kaltlufteinbruch nun wirklich pünktlich zu den Eisheiligen erfolgte, müsste er in den Graphiken von Kämpfe & Kowatsch eigentlich hervortreten. Und siehe da, tatsächlich ist das der Fall. Die folgende Graphik stammt aus dem Beitrag von Kämpfe & Kowatsch:

Man erkennt, dass es nur zu Beginn der vierziger Jahre eine ähnliche Kaltspitze wie 1978 gegeben hatte. Man erkennt aber auch, dass die Kaltspitzen unabhängig dieser Einzeljahre etwa nach 1980 insgesamt niedriger lagen als davor, was natürlich die Aussage der beiden Autoren bestätigt.

Fazit: Die Wahrscheinlichkeit des Auftretens extremer Kaltlufteinbrüche im Mai dürfte während der nächsten Jahre also zunehmen – egal ob diese nun gerade pünktlich zu den kalendarischen Eisheiligen auftreten oder etwas früher bzw. später.

© Dipl.-Met. Hans-Dieter Schmidt, Anfang Juni 2015




Haben Klimaprojektionen irgendeine physikalische Bedeutung?

Geeignet für Vorhersagen, weil eine eindeutige Lösung eine abgeleitete und hochspezifische Aussage darüber ist, wie sich die physische Realität verhält. Es erlaubt, dass nur eine Möglichkeit unter einer unendlichen Anzahl von Möglichkeiten auftreten wird. Eine eindeutige Lösung behauptet eine extreme Unwahrscheinlichkeit, so dass sie anfällig ist für Widerlegung durch Beobachtung.

Falsifizierbar, weil, wenn die Vorhersage falsch ist, die physikalische Theorie widerlegt wird.

Grafik 1 im früheren Beitrag ergab, dass die großen Unsicherheitsbereiche in den Projektionen der zukünftigen globalen Lufttemperaturen sie prädiktiv nutzlos machen. Mit anderen Worten, sie haben keine physikalische Bedeutung. Siehe auch hier (528 kB pdf) und Grafik 1 hier, eine Abhandlung jetzt gerade in Energy & Environment erschienen, mit der allgegenwärtigen Nachlässigkeit, die Konsens-Klimatologie infiziert. [1]

Dieser Beitrag zeigt, dass Nachberechnungen historisch jüngster globaler Lufttemperaturtrends ebenfalls keine physikalische Bedeutung haben.

Die folgende Grafik zeigt Daten aus Grafik SPM.5 [Link eingefügt, d.Übersetzer] des IPCC 4AR. [2] Die dunkelrote Linie im oberen Bereich zeigt die Multi-Modell-Simulation der durchschnittlichen globalen Oberflächen-Lufttemperatur des 20. Jahrhunderts. Die blauen Punkte sind die Version von 1999 der GISS-Aufzeichnungen von Land + Meer der globalen Durchschnittstemperatur. [3] Die Übereinstimmung zwischen den simulierten und beobachteten Temperaturen ist gut (Korrelation R = 0,85; p <0,0001). Der Einschub an der Spitze der Tafel zeigt den SPM.5 Multi-Modell-Durchschnitt wie im 4AR veröffentlicht. Der graue IPCC Unsicherheitsbereich über der Simulation des 20. Jahrhunderts ist eine ± Standardabweichung über die Durchschnittswerte der Multi-Modelle.

Der relativ enge Unsicherheitsbereich des IPCC impliziert, dass die Nach-Simulation erhebliches Vertrauen verdient. Die gute Übereinstimmung zwischen den beobachteten und simulierten Temperaturen des 20. Jahrhunderts liegt innerhalb der Korrelation = grundlegende Norm der Konsensklimatologie.

Der untere Teil von Grafik 1 zeigt auch die Unsicherheitsbereiche der Multi-Modell Nachberechnungen des 20. Jahrhunderts. Diese stellen den durchschnittlichen CMIP5 ± 4 Wm-2 Fortpflanzungsfehler des systematischen Cloud Forcings [theoretischer Wärmeantrieb der Wolken] dar, der sich durch die gesamte Simulation zieht. Die Fortpflanzung erfolgt durch Einsetzen des Wolkenfehlers in die bisher veröffentlichte lineare Gleichung, die die Projektionen der GCM Lufttemperatur genau emuliert; auch hier zu sehen (2,9 MB pdf). Systematische Fehlerfortpflanzung als die Summe der Quadratwurzeln.

Grafik 1. Oberes Feld (rote Linie), der Multi-Modell-Simulation der globalen Lufttemperatur des 20. Jahrhunderts (IPCC AR4 Grafik SPM.5). Kleiner Einschub: SPM.5 Multi-Modell-Nachberechnungen, Durchschnitt des 20. Jahrhunderts, wie veröffentlicht. Blaue Punkte: die GISS-Aufzeichnungen der 1999 Land + Meer globalen bodennahen Lufttemperaturaufzeichnungen. Unteres Feld: die SPM.5 Multi-Modell-Simulation des 20. Jahrhunderts mit dem Unsicherheitsbereich der Fehlerfortpflanzung, Summe der Quadratwurzel des CMIP5 durchschnittlichen ± 4 W/m² Cloud Forcing.

Die Konsens-Sensibilität wird nun fragen: Wie ist es möglich, dass im unteren Feld die Unsicherheitsbereiche so groß sind, wenn die simulierten Temperaturen offensichtlich in der Nähe der beobachteten Temperaturen sind?

Darum: Die Multi-Modell Simulationen der durchschnittlichen Nachberechnungen des 20. Jahrhunderts sind physikalisch bedeutungslos. Unsicherheitsbereiche sind die Breite der Ignoranz [Unwissenheit]. Systematische Fehler bewirken, dass je weiter das Klima in der Zeit projiziert wird, umso weniger ist über die Übereinstimmung zwischen Simulation und dem wahren physikalischen Zustand des zukünftigen Klimas bekannt. Der nächste Teil dieses Beitrags zeigt die Wahrheit dieser Diagnose.

Bild 1 von Rowlands [4] unten zeigt “perturbed physics” „gestörte Physik" [siehe unten: Nachgeschlagen] Projektionen aus dem HadCM3L Klimamodell [Hadley Centre climate model Vers. 3L]. In gestörten Physik Projektionen," wird eine einzige Modellstruktur verwendet, und Störungen werden auf unsichere physikalische Parameter innerhalb dieser Struktur angewandt …" [5] Das heißt, ein gestörtes Physikexperiment zeigt die Veränderung der Klimaprojektionen, wenn Modellparameter schrittweise variiert werden über ihre physikalische Unsicherheit.

Grafik 2. Originale Legende: ". Entwicklung der Unsicherheiten in rekonstruierten globalen Mitteltemperatur-Projektionen unter SRES A1B im HadCM3L Ensemble" Die eingebettete schwarze Linie ist die Aufzeichnung der beobachteten Oberflächen-Lufttemperatur. Die horizontalen schwarzen Linien in 1 C und 3 C, und die vertikale rote Linie zum Jahresende 2055 sind vom Autor hinzugefügt.

Das HADCML Modell ist repräsentativ für das Verhalten aller Klimamodelle, darunter die erweiterten CMIP3 und CMIP5 Versionen. Verändernde Parameter erzeugen eine Spreizung der Projektionen mit zunehmenden Abweichungen mit der Simulationszeit.

Beim SRES A1B-Szenario erhöht sich das atmosphärische CO2 jährlich. Dies bedeutet, der Energiezustand des simulierten Klimas erhöht sich systematisch über die Jahre.

Die horizontalen schwarzen Linien zeigen, dass die HADCM3L die gleichen Temperaturänderungen für mehrere (tausend) Klima Energiezustände erzeugen. Das heißt, unterschiedliche Parametersätze projizieren eine konstante 1 C Temperaturerhöhung für jeden einzelnen Jahresklima Energiezustand zwischen 1995-2050. Die wissenschaftliche Frage ist, welche der Tausende von 1 C Projektionen ist die physikalisch richtige?

Ebenfalls, abhängig von Parametersätzen, kann eine konstante 3 C Temperaturerhöhung zu jedem einzelnen Jahresklima Energiezustand zwischen 2030-2080 führen. Welcher davon ist korrekt?

Keiner der verschiedenen Parametersätze ist als physikalisch korrekter bekannt als irgendein anderer. Es gibt also keine Möglichkeit, die Temperatur Projektion auszuwählen, die physikalisch unter allen Alternativen zu bevorzugen ist.

Welche ist korrekt? Keiner weiß es.

Die gleiche Logik gilt für die vertikale rote Linie. Diese Zeile zeigt, dass die HADCM3L mehrere (tausend) Temperaturänderungen für einen einzigen Klima Energiezustand (den 2055er Status) produziert. Jeder einzelne Rowlands, et al., Jahresklima-Energiezustand zwischen 1976-2080 hat Dutzende von simulierten damit verbundenen Lufttemperaturen.

Nochmals, keiner der verschiedenen Parametersätze, der diese simulierten Temperaturen produziert, ist als physikalisch korrekter bekannt als irgendein anderer. Es gibt wieder keine Möglichkeit zu entscheiden, welche unter all den verschiedenen Möglichkeiten der projektierten Jahreslufttemperatur physikalisch korrekt ist.

Diese Beispiele zeigen, dass die HADCM3L keine eindeutige Lösung für das Problem des Klimaenergiezustands produzieren können. Kein Satz von Modellparametern ist bekannt, der besser als jeder andere Satz von Modellparametern gültig ist. Keine Projektion ist bekannt, die physikalisch korrekter (oder inkorrekter) ist als jede andere Projektion.

Das bedeutet: für jede gegebene Projektion ist vom internen Zustand des Modells nicht bekannt, dass es den zugrunde liegenden physikalischen Zustand des wahren terrestrischen Klima enthüllt. Einfacher gesagt: Das Modell kann uns auf der Ebene der Auflösung des Treibhausgas-Antriebs einfach nichts über das physikalisch reale Klima sagen.

Das gleiche gilt notwendigerweise für jeden modellierten Klima-Energiezustand, einschließlich der modellierten Energiezustände der Klimavergangenheit.

Lassen Sie uns jetzt zurückblicken auf die Multi-Modell-Nachberechnung des durchschnittlichen 20. Jahrhunderts im oberen Bereich der Grafik 1. Analog der multiplen Temperaturprojektionen in Rowlands, et al., Grafik 1, die die Ignoranz Breite der Parametersätze darstellen, auf der Einzel Nachberechnungslinie SPM.5. Das bringt die Erkenntnis, dass es eine ebenso große Anzahl von gleichberechtigten, aber divergenten Nachberechnungen geben muss.

Jedes der multiplen Modelle, das eine Nachberechnung erzeugt, hat eine große Anzahl von alternativen Parametersätzen. Keiner dieser alternativen Sätze ist als physikalisch weniger gültig bekannt als jedweder andere Satz auch immer, der eine individuelle Modell-Nachberechnung erzeugt.

Es muss eine gestörte Physik-Aufspreizung existieren, sinngemäß zu Rowlands Grafik 1, für die Projektion der 20. Jahrhundert (Nachberechnung). Die alternativen Parametersätze, alle gleichermaßen gültig, würde eine Reihe von Nachberechnungen erzeugen, die mit der Zeit auseinanderlaufen würden. Beginnend ab 1900 würden die die einzelnen gestörte Physik-Nachberechnungen immer weiter von der bekannten Aufzeichnung der Lufttemperatur bis zum Jahr 2000 auseinander laufen. Aber sie wurden alle ausgespart aus Grafik SPM.5.

Die Modelle, die die SPM.5 Nachberechnungen des 20. Jahrhunderts ausführen, enthüllen überhaupt nichts über den wahren physikalischen Zustand des terrestrischen Klima des 20. Jahrhunderts, innerhalb der Auflösung des Antriebs im 20. Jahrhundert.

Das heißt, dass die Durchschnittswerte der Multi-Modell Nachberechnung in SPM.5 keine offensichtliche physikalische Bedeutung haben. Es ist der Durchschnitt der Nachberechnungsprojektionen, die keine physikalische Bedeutung haben. Dies ist der Grund für die großen Unsicherheitsbalken, trotz der Tatsache, dass der durchschnittliche Nachberechnungs-Temperaturtrend in der Nähe des beobachteten Temperaturtrends liegt. Die Modellzustände sagen uns nichts über die Ursache der beobachteten Temperaturen. Deshalb haben die Nachberechnungen der Lufttemperaturen keine physikalische Verbindung zu den beobachteten Lufttemperaturen. Die Divergenz der gestörten Physik-Nachberechnungen erhöht sich mit der Simulationszeit, in seiner Art und Weise genau durch die immer größeren Unsicherheitsbalken abgebildet.

Diese Schlussfolgerung gilt auch dann, wenn ein gegebenes Klimamodell zufälligerweise eine Projektierung erzeugt, die dem Verhalten der beobachteten Lufttemperaturen nachläuft. Solche Korrespondenzen sind zufällig, indem der für dieses Modell gewählte Parametersatz Offset Fehler haben muss. Diesem wurden versehentlich vorteilhafte Werte innerhalb ihrer Unsicherheitsgrenzen zugewiesen. Was auch immer diese vorteilhaften Werte sind, sie sind nicht bekannt, physikalisch korrekt zu sein. Ebenso wenig kann man die zufällige Korrelation mit Beobachtungen implizieren, dass der zugrunde liegende Modell Zustand dem wahren physikalischen Zustand des Klimas entspricht.

Die physikalische Bedeutung der kürzlich veröffentlichten Studie von M. England et al., [6] in Grafik 3 veranschaulicht, ist jetzt offensichtlich. England et al. berichten, dass einige CMIP5-Projektionen sich dem „Hiatus" der Lufttemperatur seit dem Jahr 2000 annähern. [lat. hiatus „Öffnung“, „Spalt“, „Kluft“ steht für die scheinbare Pause bei der globalen Erwärmung] Sie behaupteten dann, dass diese Übereinstimmung die „Robustheit der Erwärmungsprojektionen im 21. Jahrhundert" belegt und dass es „das Vertrauen in die letzten synthetisierten Projektionen im IPCC 5AR verstärkt."

Vergleichen Sie Grafik 1 von England et al., 2015 unten, mit der Grafik 1 Rowlands et al., 2012, oben. Die horizontalen schwarzen Linien und die senkrechte grüne Linie übermitteln die gleiche Diagnose wie die sinngemäßen Linien in Rowlands, et al., Grafik 1.

Der England et al.-Satz der CMIP5 Modelle produziert konstante Lufttemperaturen für mehrere Energiezustände und mehrere Lufttemperaturen für jeden einzelnen Jahresklima-Energiezustand. Dies trotz der Tatsache, dass "alle Simulationen identischen historischen Antrieben folgen ([6], Hintergrundinformationen)." Die Abweichung der Projektionen, trotz identischer Antriebe, zeigt deutlich eine Spreizung der Modellparameterwerte.

Grafik 3. Grafik 1 von England, et al. 2015 [6] Originale Legende: Globale durchschnittliche SAT-Anomalien in Bezug auf 1880-1900 in individuellen und Multi-Modell Durchschnitts CMIP5 Simulationen. Blaue Kurven: RCP4.5 Szenario; rote Kurven: RCP8.5 Szenario. Die horizontalen schwarzen Linien bei 2 C und 3 C und die vertikale grüne Linie auf 2060 sind vom Autor hinzugefügt.

Die Diagnose ergibt sich unmittelbar aus Grafik 3: CMIP5 Klimamodelle sind unfähig, eine eindeutige Lösung für das Problem des Klima-Energiezustandes zu liefern. Sie leiden alle unter internen Parametersätzen mit breiten Unsicherheitsbereichen. Die internen Zustände der Modelle verraten nichts über die zugrunde liegenden wahren physikalischen Zustände des Klimas in Vergangenheit oder Zukunft. Keine der CMIP5-Projektionen durch England et al. aufgeführt, hat eine erkennbare physikalische Bedeutung, egal ob sie über die "Erwärmungspause" führen oder nicht.

Das bringt uns zurück zur Bedeutung der großen Unsicherheitsbalken in dem unteren Feld der Nachberechnung des 20. Jahrhunderts in obiger Grafik 1. Diese ergeben sich aus dem Fortpflanzungsfehler der CMIP5-Modell ± 4 W/m² Durchschnitts Cloud Forcing. [7, 8] Wie Parameterunsicherheit, zeigen Cloud Forcings Fehler auch an, dass Klimamodelle keine eindeutige Lösung für das Problem des Klima- Energiezustandes bieten.

Unsicherheitsbalken sind eine Unwissenheitsbreite. Sie zeigen an, wie viel Vertrauen eine Vorhersage verdient. Parameter-Unsicherheit bedeutet, die richtigen Parameterwerte sind nicht bekannt. Cloud Forcing-Fehler bedeutet, der thermische Energiefluss der durch Wolken Feedback in die Troposphäre eingeführt wird, ist nicht bekannt. Modelle mit internen systematischen Fehlern präsentieren diesen Fehler in jedem einzelnen Schritt einer Klimasimulation. Je mehr Simulationsschritte, desto weniger ist über die Übereinstimmung zwischen dem simulierten Zustand und dem physikalisch wahren Zustand bekannt.

Je mehr Simulationsschritte, desto weniger Wissen, desto größer ist die Unwissenheit über die Modell Abweichungen vom physikalischen wahren Zustand. Das ist die Botschaft der zunehmenden Breite des Unsicherheitsbereichs des propagierten Fehlers.

Jede einzelne Projektion in Englands et al. Grafik 1 unterliegt dem ± 4 W/m² CMIP5 durchschnittliche Cloud Forcing Fehler. Zu einer korrekten Anzeige der physikalischen Bedeutung sollte ein Unsicherheitsbereich wie in obiger Grafik 1 unten gehören. Außerdem, der systematische Fehler in den Projektionen der einzelnen Modelle läuft in den Multi-Modell-Durchschnitt als quadratischer Mittelwert ein.[9]. Englands et al. Multi-Modell-Durchschnittsprojektionen – die dunklen roten und blauen Linien – haben sogar eine größere Unsicherheit als jede der einzelnen Projektionen. Dies ist eine Ironie, die regelmäßig Konsens-Klimatologen unterläuft.

Also, wenn Sie eine Grafik wie in Abbildung 4 oben sehen (unten), geliefert von der US National Academy of Sciences [10], erkennen Sie, dass eine Präsentation, die vollständig wissenschaftlichen Standards entsprechen würde, wie Abbildung 4 unten aussehen würde.

Abbildung 4. Oben: Grafik 4 aus [10]; Original Legende: Modellsimulationen der Klimaänderungen des 20. Jahrhunderts entsprechen besser der beobachteten Temperatur, wenn sowohl natürliche als auch menschliche Einflüsse enthalten sind. Die schwarze Linie zeigt die beobachteten Temperaturen. Unten, das linke obere US NAS Feld, die globale 20. Jahrhundert Lufttemperatur Nachberechnung, aber jetzt mit Unsicherheits Balken von propagiert ± 4 W/m² CMIP5 durchschnittlichen Cloud Forcing Fehler.

Es macht überhaupt keinen Sinn zu behaupten, dass eine Erklärung der späteren Erwärmung des 20. Jahrhunderts, ohne Einschluss "menschlicher Einflüsse" nicht möglich ist, wenn in der Tat eine Erklärung der späteren Erwärmung des 20. Jahrhunderts in diesem Zeitraum nicht möglich ist.

Klima-Modellierer wählen Parametersätze mit Offset Fehlern, um die Lufttemperatur des 20. Jahrhunderts erfolgreich nachzuberechnen. [11] Das bedeutet, jedwede Übereinstimmung zwischen nachberechneten Temperaturen und beobachteten Temperaturen ist tendenziös – Die Korrespondenz ist absichtlich eingebaut.

Der frühere Beitrag wies nach, dass ihre eigenen Aussagen zeigen, dass Klima-Modellierer nicht als Physiker ausgebildet sind. Es zeigte sich, dass das Modellieren von Klimamodellen selbst eine freie Kunst in der Art der Kulturwissenschaft ist, jedoch mit Mathematik erarbeitet. In den Kulturwissenschaften intellektualisiert Theorie nur die Vorurteile der Theoretiker. Dieser Beitrag stellt die andere Seite der Medaille dar: der Mangel an Verständnis, der aus der mangelnden Berufsausbildung folgt.

Die Tatsache, dass England, et al., behaupten können, die "Robustheit der einundzwanzigsten Jahrhunderts Erwärmung Projektionen" und "mehr Vertrauen" in IPCC Projektionen zu erreichen, wenn ihre Modelle offensichtlich nicht in der Lage sind, den Energiezustand des Klimas zu lösen, zeigt lediglich, dass sie keinerlei Verständnis haben von der Quelle der physikalische Bedeutung. Darum erkennen sie nicht, dass ihre Modell Projektionen keine physikalische Bedeutung aufweisen. Ebenso die Redakteure und Rezensenten von Nature Climate Change, die Verwaltung der US National Academy of Sciences, und das gesamte IPCC von oben nach unten.

Die Beweise zeigen, dass diese Menschen nicht wissen, wie sich die physikalische Bedeutung aus der physikalischen Theorie ergibt. Sie wissen nicht, wie man die physikalische Bedeutung erkennt, wie man physikalische Bedeutung präsentiert, noch wie man physikalische Bedeutung zu bewerten hat.

Kurz gesagt, sie verstehen weder Vorhersage noch Widerlegung; beides ist gemeinsam die Grundlage der Wissenschaft.

Klima-Modellierer sind keine Wissenschaftler. Sie arbeiten nicht wissenschaftlich. Ihre Klimamodellprojektionen haben keine physikalische Bedeutung. Ihre Klimamodellprojektionen haben niemals irgendeine physikalische Bedeutung.

Bis auf den heutigen Tag gab es keine einzige THG-Emissionen-Klimaprojektion überhaupt, die physikalische Bedeutung hatte. Daher sind all diese strittige Debatten darüber, ob irgendein Modell, einige aus der Menge von Modellen oder ein Multi-Modell Durchschnitt, die globale Lufttemperatur nachvollziehen oder nicht, völlig sinnlos. Es spielt keine Rolle, ob eine physikalisch bedeutungslose Projektion einige Beobachtungen trifft oder nicht. Die Projektion ist ohne physikalische Bedeutung. Es hat keinen wissenschaftlichen Inhalt. Die Debatte hat keinen materiellen Inhalt. Die Diskutanten können genauso gut die Anfechter der Theologie sein.

Wenn also jemand über AGW sagt: “The science is settled!", kann man wahrheitsgemäß antworten, dass es tatsächlich „abgeschlossen“ ist, es gibt keine Wissenschaft in AGW.

Erschienen am 20. Mai 2015 auf WUWT hier

References:

1. Frank, P., Negligence, Non-Science, and Consensus Climatology. Energy & Environment, 2015. 26(3): p. 391-416.

2. IPCC, Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change, S. Solomon, et al., Editors. 2007, Cambridge University: Cambridge.

3. Hansen, J., et al., GISS analysis of surface temperature change. J. Geophys. Res., 1999. 104(D24): p. 30997–31022.

4. Rowlands, D.J., et al., Broad range of 2050 warming from an observationally constrained large climate model ensemble. Nature Geosci, 2012. 5(4): p. 256-260.

5. Collins, M., et al., Climate model errors, feedbacks and forcings: a comparison of perturbed physics and multi-model ensembles. Climate Dynamics, 2011. 36(9-10): p. 1737-1766.

6. England, M.H., J.B. Kajtar, and N. Maher, Robust warming projections despite the recent hiatus. Nature Clim. Change, 2015. 5(5): p. 394-396.

7. Lauer, A. and K. Hamilton, Simulating Clouds with Global Climate Models: A Comparison of CMIP5 Results with CMIP3 and Satellite Data. J. Climate, 2013. 8. Frank, P., Propagation of Error and the Reliability of Global Air Temperature Projections; Invited Poster, in American Geophysical Union Fall Meeting. 2013: San Francisco, CA; Available from: http://meteo.lcd.lu/globalwarming/Frank/propagation_of_error_poster_AGU2013.pdf (2.9 MB pdf).

9. Taylor, B.N. and C.E. Kuyatt., Guidelines for Evaluating and Expressing the Uncertainty of NIST Measurement Results. 1994, National Institute of Standards and Technology: Washington, DC. p. 20.

10. Staudt, A., N. Huddleston, and I. Kraucunas, Understanding and Responding to Climate Change 2008, The National Academy of Sciences USA: Washington, D.C.

11. Kiehl, J.T., Twentieth century climate model response and climate sensitivity. Geophys. Res. Lett., 2007. 34(22): p. L22710. 26(11): p. 3823-3845.

Übersetzt von Andreas Demmig EIKE




In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (Teil2)

Nun hat EIKE-Leser Helmut Kuntz zu dem UBA-Papier einen sehr ausführlichen Fakten-Check erstellt, den wir hier in zwei Teilen publizieren.Teil 1 finden Sie hier. Der komplette Aufsatz wird am Ende des Textes als PDF-download zur Verfügung gestellt.

===================================================

Hier Teil 2

===================================================

In Deutschland kein Klimawandel in Sicht – das kann die SZ nicht auf sich sitzen lassen (2)

Helmut Kuntz  / Mai 2015

—————————————————————————————————————————–

Hinweis d.A. :  Als „Klimawandel“ ohne Zusatz wird in folgendem immer der anthropogen (CO2-) bedingte Wandel verstanden. Nach "Text:“ folgen Auszüge/Zitate aus dem Bericht.  

—————————————————————————————————————————–

Wassertemperaturen

Fazit

Dem Berichtsteil braucht man nichts hinzuzufügen. Die Fische brauchen sich zumindest vor dem Klimawandel nicht zu sorgen.

Der Meeresspiegel der Nord- und Ostsee steigt

Text: Die Gletscher und die Eisschilde der Pole schmelzen und liefern große Mengen von Schmelzwasser. Gleichzeitig dehnt sich bei steigenden Wassertemperaturen das Meerwasser aus. Die Gletscherschmelze und die Meerwasserausdehnung erklären 75 % des seit den frühen 1970er Jahren beobachteten Meeresspiegelanstiegs.

Der fünfte Klimabericht des Zwischenstaatlichen Ausschusses für Klimaänderungen (IPCC) von 2013 stellt fest, dass der globale mittlere Meeresspiegel im Zeitraum von 1901 bis 2010 um etwa 19 cm angestiegen ist. Der mittlere Anstieg betrug in dieser Zeit etwa 1,7 mm pro Jahr. In den letzten 20 Jahren war dieser Wert mit ca. 3,2 mm pro Jahr fast doppelt so groß. Das bedeutet, dass sich der Anstieg deutlich beschleunigt hat. Selbst wenn beträchtliche Klimaschutzanstrengungen unternommen werden, also das niedrigste Emissionsszenario den Projektionen zugrunde gelegt wird, ist dem IPCC zufolge bis Ende des 21. Jahrhunderts eine Erhöhung um weitere 26 bis 55 cm zu erwarten.

Die eigene Auswertung zeigt :

Dieses Berichtskapitel weicht bezüglich Darstellung und Argumentation völlig von den anderen ab. Verdächtig ist der Rückzug auf IPCC-Angaben. Zudem fehlen belastbare Datenangaben (außer, jemand kann aus der Grafik welche ableiten?).

Einmal sind die Angaben über die schmelzenden Pole schlichtweg falsch. Das AWI kam in seiner im August 2014 veröffentlichten Studie für beide Pole auf eine Schmelzrate von 500 km3 pa, was einem  gemessenen Schwund von 0,0016% pa der Gesamtmasse entspricht. Das Packeis des Nordpols kann zudem nichts zum Meeresspiegelanstieg beitragen und das Antarktiseis nimmt stetig nur zu.

Anm.: das Max Plank Institut für Meteorologie formuliert diese Tatsache auf seiner Homepage wie folgt: Für die Antarktis hingegen kann eine Zunahme des Eisvolumens nicht ausgeschlossen werden, was den Meeresspiegel entsprechend absenken würde.“

Zur Erinnerung, wo sich der der Meerespegel aktuell global befindet, eine Darstellung seit der letzten Eiszeit (Quelle: Wikipedia):

Die Erde befindet sich demnach aktuell in einer sehr glücklichen Periode. Wie man da auf Hysterie bezüglich des Meeresspiegels kommen kann, bleibt wohl noch länger ein Geheimnis.

Nun zu den Pegeln Nordsee und Ostsee, die im BMU-Bericht fehlen.

Nordsee

Zur Nordsee forscht die Uni Siegen und hat dazu im September 2013 im Fachmagazin Earth Science Reviews ihre Ergebnisse veröffentlicht. Zudem findet man an der Uni auch eine Dissertation dazu:

“Statistical methods to assess the hydrodynamic boundary conditions for risk based design approaches in coastal engineering Methods and application to the German North Sea coastline”, Uni Siegen.

Bilder aus der Studie :

Zitat aus der Publikation: „Es gibt ein relativ konstantes Anstiegsverhalten des Mittleren Meeresspiegels seit Beginn des 20. Jahrhunderts, aber keinen außergewöhnlichen Anstieg in den letzten Jahrzehnten, den wir direkt dem Klimawandel zuschreiben könnten.“

Man sieht, dass der Anstieg bereits ab 1900 beginnt. Aber auch, dass die Änderungsrate stark schwankt. Ein Zeitraum von 20 Jahren „in den letzten 20 Jahren war dieser Wert fast doppelt so groß“ reicht für eine belastbare Beurteilung nicht im Entferntesten aus.

Wie man anhand dieser Ergebnisse einen CO2-Einfluss konstruieren will, bleibt ein Rätsel.

Um zu zeigen, wie vollkommen normal beispielhaft der Pegelverlauf Cuxhaven aussieht, anbei ein Bild aus der Dissertation.

Im Bild sieht man, wann sich früher die Nordsee-Anwohner fürchten mussten.

Eine „Eskalation“ wie vorhergesagt (oder besser: simuliert) ist nicht erkennbar.

Fazit Nordsee

Betrachtet man den Langzeittrend, sieht man überhaupt nichts Spektakuläres. Aber auch der Trend-Änderungsverlauf ist keinesfalls Besorgnis erregend. Aktuell hat der Trend einen Wert wie um 1900. Man könnte dazu eine Periodizität ahnen, so dass Warten wahrscheinlich die beste „Lösung“ ist.

Wie man in den letzten 20 Jahren einen Meeresspiegel-Anstieg so genau messen will, dass sich eine Verdopplung (mit Langzeitverhalten) als Gefahr ableiten lässt, bleibt ein Rätsel. Alleine wegen der (in der Nordsee zudem hohen) Gezeiten und laufenden Verbauungen ist das in diesem kurzen Zeitraum nicht möglich.

Ostsee

Zur Ostsee finden sich in der Publikation „Ostseeküste im Klimawandel – Ein Handbuch zum Forschungsstand 2012“ vom Institut für Küstenforschung am Helmholtz-Zentrum Geesthacht Angaben.

Der Meeresspiegel ist in den letzten 100 Jahren weltweit durchschnittlich etwa zwei Dezimeter angestiegen. An der südlichen Ostseeküste ist der mittlere Wasserstand im selben Zeitraum ca. 14 cm angestiegen.

Insgesamt laufen höchste Wasserstände bisher jedoch nicht höher auf. So sind die Wasserstände der sehr schweren Ostseesturmflut von 1872 bis heute an keinem Pegel an der deutschen Ostseeküste überschritten worden.

Und dann kommt in dieser Publizierung eine frappierende Zusammenfassung:

Anbei ein Textauszug :

Fazit

In diesem Berichtskapitel stimmt einfach nichts. Es wurden lediglich die typischen Alarmpublizierungen, basierend auf IPCC-Szenarien hinein kopiert. Dass so etwas in einem Bericht des Uba „durchkommt“(und von der Uba-Chefin alarmistisch wiederholt wird: „Es ist aber erwiesen, dass der Meeresspeigel steigt“), lässt an der Qualität dieser Behörde massiv zweifeln.

Dass etwas dazu nicht stimmt, zeigt auch das Monitoring der Sturmfluten. Diese zeigen (wie die externen Analysen auch), dass weder an der Nordsee- noch Ostsee irgend etwas Klimawandel-bedingt spektakuläres passiert. Eher das Gegenteil, denn die Küste wird ja massiv verändert . Text: Zu einem Anstieg des Sturmflutspiegels kommt es außerdem durch die zunehmende Bedeichung und in jüngster Zeit auch durch das Absperren aller Nebenflüsse von Ems, Weser und Elbe. Damit sind die natürlichen Überflutungsflächen erheblich eingeengt worden.

Ertragsausfälle durch Extremwetterereignisse

Text: Der Klimawandel hat Auswirkungen auf den jahreszeitlichen Witterungsverlauf und dies wiederum beeinflusst den jahreszeitlichen Entwicklungsgang landwirtschaftlicher Kulturen. Für das Frühjahr werden steigende Temperaturen erwartet, die Sommer sollen trockener und heißer, die Winter wärmer und feuchter werden. Die genauen Zusammenhänge von Klimaveränderungen, vermehrtem Auftreten von Extremwetter-Ereignissen und der Zunahme von Schäden in der Landwirtschaft sind zwar noch nicht abschließend geklärt, sie sind aber Gegenstand intensiver Forschung.

Der Zusammenhang zwischen Klimawandel und steigenden Schäden durch Unwetter gilt noch nicht als gesichert, allerdings sprechen viele Indizien dafür.

Anm.: Welche Indizien auf einen Zusammenhang zwischen Klimawandel und steigenden Schäden durch Unwetter hinweisen sollen, ist im Bericht nicht ausgeführt. Auch keine Grafik im Bericht zeigt welche.

Fazit

Die im Einleitungssatz gelisteten Klimawandel-Auswirkungen wurden in den vorherigen Berichtskapiteln bereits widerlegt, was die Verfasser dieses Kapitels wohl nicht wussten. Aber dass die Hagelereignisse keinen eindeutigen Trend (man könnte eher einen fallenden vermuten) zeigen, ist auch sehr beruhigend und wird (publiziert) den Versicherungen nicht gefallen.

Einfluss des Klimawandels auf Vogelarten nimmt zu (?)

Aber was sagt das Bundesamt für Naturschutz in seinem Artenschutzreport 2015 :

An vorderster Stelle der Ursachen für die Gefährdung der Arten stehen intensive Formen der Landbewirtschaftung. Weitere wesentliche Gefährdungen liegen in der Forstwirtschaft, Wasserbau und Gewässerunterhaltung, Baumaßnahmen sowie Sport- und Freizeitaktivitäten. Unter den 25 wichtigsten Gefährdungsursachen dominieren damit Maßnahmen, die mit einer Intensivierung der Nutzung von Natur und Landschaft und damit einhergehenden Veränderungen bzw. der Zerstörung der Lebensräume verbunden sind. Aktuell spielt der Klimawandel noch keine große Rolle als Gefährdungsursache.

Hitzebelastung bringt steigende Gesundheitsrisiken

Text: Neben steigenden Durchschnittstemperaturen wird der Klimawandel voraussichtlich auch vermehrt gesundheitlich belastende Hitzeereignisse mit sich bringen. Im Rückblick zeichnet sich seit den 1970er Jahren bereits ein Trend zur Zunahme sogenannter „Heißer Tage“ ab, an denen der Tageshöchstwert der Temperatur 30 °C oder mehr beträgt. In „Tropennächten“ sinken die Temperaturen nicht unter 20 °C, eine nächtliche Erholung ist dann insbesondere nach sehr heißen Tagen eingeschränkt.Tropennächte treten bislang in unseren Breiten im Gegensatz zu den Heißen Tagen noch selten auf. Allerdings kommt es in Jahren mit ausgeprägten Hitzewellen auch regelmäßig zur Ausbildung von Tropennächten.

Auswertung

Bis 1992 passiert überhaupt keine Abweichung. Ab dann gibt es drei deutliche Jahres-Spitzen. Allerdings nehmen diese nach dem Hitzesommer 2003 schon wieder konsequent ab, so dass aktuell schon wieder das Spitzenwert-Niveau von 1970 erreicht ist.  Da der Trend hinterher läuft, kann er dies natürlich (noch) nicht zeigen  Der Verlauf erinnert an den der „Trockenheit“.

Was zeigt die eigene Auswertung

Leider ist beim DWD kein kostenloser Langzeit-Datensatz mit Tageswerten für Deutschland global hinterlegt. Deshalb als Beispiel die Darstellung für die Station Nürnberg, die in Tagesauflösung zurückreichend bis 1955 hinterlegt ist (und südlich gelegen, also mit hohen Tageswerten).

Auch das Bild der Anzahl heißer Tage der Station Nürnberg ist bei genauerer Betrachtung gar nicht so spektakulär. Auch dort zeigt sich, dass die Spitzenwerte deutlich zurückgehen und seit 10 Jahren wieder den Stand von 1970 haben. Nimmt man die absoluten Maximaltemperaturen, zeigt sich praktisch gar keine Erhöhung, was auch für die Tages-Mitteltemperaturen gilt.

Interessant ist der Langfristverlauf der Sommer-Mittelwerte. Obwohl man einen deutlichen Trendkanal ab 1955 erkennt, sind die Sommertemperaturen von der Spitze 2013 abgesehen, auf dem Stand von 1910 und 1950. Trends kann man nun natürlich beliebig generieren, aber einen CO2-bedingten, beschleunigten Anstieg kann man daraus nicht ableiten. Was man aber ahnen kann, ist ein unterlagerter Zyklus, der anstelle von CO2 den Verlauf mit-bestimmt.

Fazit

Es stimmt, dass die Anzahl heißer Tage zugenommen hat. Aber innerhalb von 20 Jahren  traten (Deutschland global) gerade einmal 3 Jahre auf, in denen der „Standard-Spitzenwert“ überschritten wurde. Und das mit +6, +19, +4 Hitzetagen (Standard-Spitzenwert: 10 Tage). Der Trend seit dem Spitzenjahr vor 14 Jahren ist stark negativ und der aktuelle Spitzenwert liegt wieder auf dem Niveau der 1970er Jahre.

Die Aussage: „… zeigt sich seit den 1970er Jahren bereits ein Trend zur Zunahme sogenannter „Heißer Tage“ ab, an denen der Tageshöchstwert der Temperatur 30 °C oder mehr beträgt.“, muss man korrigieren: Der Trend besteht seit 1955. Da damals das CO2 keine Rolle gespielt hat, kann er nicht dadurch entstanden sein. Dass sich trotzdem seit ca. 10 Jahren die Sommertemperaturen  von 1910 und 1950 ausprägen, belegen, dass keinerlei Anlass für einen Klimaalarm vorliegt.

Dies dürfte auch der Grund für die Berichts-Formulierung: wird der Klimawandel voraussichtlich auch vermehrt…"  sein.

Warum im Bericht mit dem Jahr 1970 begonnen wurde, kann man ebenfalls schön sehen. Gerade kurz davor war ein Minimum. Ein schönes Beispiel, wie man „gewünschte“ Trends optimiert.

Nachdem auch die Hitze-Toten "klimamonitort" werden, anbei ein Bild dazu. In USA ziehen viele Rentner – sofern sie es sich leisten können – nach Florida, wo es besonderst warm ist. Ein deutscher Rentner verträgt das natürlich nicht. Leider fehlt eine Grafik, wie viele Menschen durch Kälte sterben.

Stärkere Ertragsschwankungen erhöhen das Produktionsrisiko (?)

Text: Die Witterungsbedingungen gehören zu den wichtigsten produktionsbestimmenden Größen in der Landwirtschaft. Eine verlängerte Vegetationsperiode und höhere Temperatursummen können die Erträge steigern. Hinzu kommt, dass die höheren CO2-Konzentrationen in der Atmosphäre, die letztendlich für den Treibhauseffekt verantwortlich sind, die Photosynthese und das Pflanzenwachstum stimulieren können. Allerdings bringt der Klimawandel u. a. durch Trockenstress oder Extremereignisse wie Stürme, Starkregen, Hagel und Überschwemmungen auch zunehmende Risiken von Ertragseinbußen mit sich…

Die Ertragsstagnation, die beim Weizen in den letzten Jahren in der landwirtschaftlichen Praxis festzustellen war, hat komplexe Ursachen, die noch genauer untersucht werden müssen. Neben den bereits erwähnten Faktoren können hierfür auch der Anbau auf ertragsärmeren Standorten sowie engere Fruchtfolgen eine Ursache sein.

Das zeigt die eigene Auswertung :

Weitere Abb.: Siehe Anlage PDF.

Bildquellen:

www.zuechtungskunde.de/artikel.dll/hartmann-zuechtung-und-klimawandel-tabelle-und-grafiken_NDYwMDA1OQ.PDF

Und Baden-Württemberg 2014

http://www.statistik.baden-wuerttemberg.de/Pressemitt/2014283.asp?201408

Die durchschnittliche Flächenleistung liegt im Landesdurchschnitt und im Mittel aller Getreidearten bei 73,6 dt/ha und übersteigt damit im Land erstmals die Marke von 70 dt/ha. Das Vorjahresergebnis (68,0 dt/ha) wird um 8,2 Prozent, das langjährige Mittel 2008/13 (65,3 dt/ha) sogar um 12,6 Prozent übertroffen. Dabei zeichnen sich vor allem die Wintergetreidearten gegenüber dem langjährigen Mittel mit hohen Zuwachsraten aus, allen voran Wintergerste (75,7 dt/ha) mit einem Plus von 20 Prozent. Die Erträge von Winterweizen (80,5 dt/ha) und Triticale (73,1 dt/ha) übertreffen die langjährigen Durchschnitte um 12,4 bzw. 8,8 Prozent. Mit diesen Drusch-Ergebnissen setzen die Wintergetreidearten neue Rekordmarken im Land.

Fazit

Es muss wohl verschiedene Deutschlands mit Winterweizen geben. Schaut man sich die externen Ertragsinfos an, dann explodiert der Winterweizen geradezu. Das liegt aber wohl nicht am Klimawandel, sonst wäre dies im Bericht bestimmt ganz groß als Alarm herausgestellt worden. Gut, es heißt nicht, dass die Ertragsschwankungen (auf höchstem Niveau) direkt vom Klimawandel verursacht wären. Es werden „nur“ vorsorglich die üblichen Bedenken und Risiken gelistet, nach denen es ja sein könnte, dass der Klimawandel auch hier bald unerbittlich zuschlägt. Und die Grafik im Bericht ist wieder ein gutes Beispiel, wie etwas verzerrt dargestellt werden kann.

Kronenverlichtung durch Klimawandel ?

Text: Der Kronenzustand galt viele Jahre als geeigneter Indikator, um die Auswirkungen von Schadstoffbelastungen auf die Vitalität der Waldbäume abzubilden. Heute weiß man, dass die Ursachen vielfältiger sind und in komplexer Weise zusammenwirken. Das Witterungsgeschehen ist inzwischen stärker ins Blickfeld geraten, denn Zusammenhänge zwischen dem zeitlichen Verlauf der Nadel und Blattverluste und dem sommerlichen Witterungsverlauf sind offensichtlich geworden…..

Aufgrund der beschriebenen Zusammenhänge liegt es nahe, einen Einfluss des Klimawandels auf den Kronenzustand der Waldbäume zu diskutieren.

Abb.: siehe Anlage PDF

Das zeigt die eigene Auswertung :

Der NRW-Waldschadensbericht 2012 zeigt, dass der Wald 2012 den Zustand von 2000 hatte und überhaupt kein negativer Trend vorliegt.

Abb.: siehe Anlage PDF

Fazit

Auch der deutsche Wald ignoriert den Klimawandel. 

Folgekapitel

Da der Bericht insgesamt 97 Indikatoren listet, geht es so „endlos“ weiter. Deshalb als Abschluss nur noch ein paar exemplarische Darstellungen daraus. Man beachte die oft negativen Trends (höflich umschrieben mit "… noch ohne Trend“, welche allen Alarmmeldungen widersprechen.

Abb.: siehe Anlage PDF

Hier ein "signifikant positiver Trend" (?) :

Warnmeldungen zum Pollenflug werden immer öfters bereitgestellt und auch abgefragt. Beleg für den Klimawandel ?? 

Abb.: siehe Anlage PDF

========================================================================

Anm. EIKE-Red.: Anbei die komplette PDF zum Download; d o r t  sind auch die weiteren Abbildungen enthalten, die vorstehend wegen des nur beschränkt zur Verfügung stehenden Platzes im Editier-Programm fehlen.

=====================================================

Über den Autor:

Helmut Kuntz absolvierte ein Hochschulstudium mit den Schwerpunkten Messtechnik und Statistik. Er analysiert deshalb nicht Klimatheorien, sondern die in den Studien vorgenommenen, statistischen Auswertungen und prüft sie auf Plausibilität (auch im Vergleich  mit anderen Publizierungen). Die dabei gewonnenen Ergebnisse vergleicht er abschließend mit den oft als Pressemitteilung publizierten Kurz-Aussagen. Sein Ergebnis: Die Pressemitteilungen melden oft etwas anderes, als in den Studien ermittelt wurde (so dass man auf die Idee kommen könnte, diese werden teilweise unabhängig von den Studien vor-geschrieben)

====================================================

Related Files