Paltridge war leitender Forschungswissenschaftler bei der Commonwealth Scientific and Industrial Research Organization (CSIRO). Letztere ist das australische Äquivalent zur National Science Foundation, unsere massive Agentur, in der alle Zweige regierungsnaher Wissenschaft konzentriert sind.
Paltridge spricht zunächst alle wohlbekannten Unsicherheiten der Klimavorhersage an. Diese enthalten unsere Unfähigkeit, Wolken angemessen zu simulieren, obwohl wir sie in der realen Welt immer sehen, ebenso wie das ärgerliche Fehlen der Erwärmung im nunmehr 17. Jahr und das Herumfummeln bei den Versuchen, dieses Fehlen hinweg zu erklären, häufig mit sich widersprechenden Äußerungen.
Während der politisch korrekte Name der letzten 17 Jahre der Begriff „Stillstand“ ist [the Pause], scheint sie eher so eine Art P-Welle zu sein, wie sie Bewegungen der Erdkruste vorangeht, bevor ein katastrophales Erdbeben (und der Tsunami, falls dies untermeerisch stattfindet) ausbricht. Menschen können diese P-Welle nicht fühlen, sehr wohl aber viele Tiere, weshalb Vögel kurz vor dem Losbrechen der Hölle auffliegen.
Klimawissenschaftler haben sich angesichts der bekannten Probleme ausgesprochen defensiv verhalten. Paltridge erklärt elegant, warum dies so sein muss, und beschreibt die wahrscheinlich schlimmen Konsequenzen, wenn der Tag der Abrechnung schließlich da ist.
Dieser Tag kommt immer näher, weil, wie Paltridge anmerkt, „…der Kleine Mann auf der Straße, der inzwischen die Anzeichen einer übertriebenen Umweltkampagne schon meilenweit im Voraus riechen kann, allmählich den Verdacht schöpft, dass es mehr die Politik als die Wissenschaft ist, die in dieser Angelegenheit treibend wirkt“.
Das wissenschaftliche Establishment hat sich selbst bzgl. der globalen Erwärmung in die Ecke manövriert. Paltridges Erklärungen hierfür kommen einem erschreckend bekannt vor.
In den siebziger Jahren hat sich die Wissenschaft dramatisch verändert, als sich die Struktur der Bezahlung um die Akquise massiver Förderungen seitens der Steuerzahler rankte, die über die normalen Budgets der Universitäten und öffentlichen Agenturen hinausgingen. Dies bedeutet in der Klimawissenschaft, dass man sich zu diesem Thema immer politisch korrekt ausdrücken musste und häufig Allianzen mit Umweltorganisationen einging. Wie vorherzusehen war, fielen die Wissenschaftler (und ihre Institutionen) der Gier nach Wohlstand, Ruhm und vielen Flugreisen anheim:
„Ein neuer und reiche Früchte tragender Forschungsstil entwickelte sich. Darunter fiel auch das Austeilen von Ratschlägen an alle Ebenen der Regierung, die Verbreitung nicht in Frage zu stellender Meinungen an die allgemeine Öffentlichkeit und die einfache Rechtfertigung der Teilnahme an internationalen Konferenzen – letzteres viel luxuriöser als bislang in der normalen wissenschaftlichen Erfahrung und mit einer zuvor nie gekannten Häufigkeit“.
Jeder neue Anreiz verstärkte dieses Verhalten, hat doch die selbst ernannte Gemeinschaft der Klima-Clowns [climate boffins] jetzt begonnen, sowohl für sich selbst als auch im Dienst drastischer regulatorischer Maßnahmen seitens der Politik zu sprechen. In der maßvollen Tonart der bemerkenswert klaren und präzisen Sprache, für die Paltridge bekannt ist, erklärt er, wie die Ecke ausgestaltet worden ist:
„Die Falle ist schon in vollem Umfang zugeschnappt, als viele der weltweit führenden nationalen Wissenschaftsakademien (z. B. die Royal Society in UK, die National Academy of Sciences in den USA sowie die Australian Academy of Science) sich selbst dazu hergegeben haben, die Schlussfolgerungen des IPCC unterstützende Berichte herauszugeben. Die Berichte wurden als nationale Zustandsbeschreibungen hinaus posaunt, die vermeintlich unabhängig vom IPCC und voneinander seien, vielfach aber mit Hilfe und auf Geheiß von Wissenschaftlern durchgeführt worden sind, von denen viele in die internationalen Verflechtungen des IPCC involviert waren. Im Endeffekt haben sich die Akademien, eigentlich die hervorragendsten Institutionen der Wissenschaften, formal in die Ecke des politisch Korrekten gestellt.
Seit dieser Zeit vor etwa drei oder vier Jahren gab es für die wissenschaftliche Gemeinschaft keinen bequemen Weg mehr, das Spektrum der ernsten Unsicherheiten hinsichtlich der Vorhersagen einer Klimakatastrophe zu beleuchten“.
Jedes weitere Jahr ohne eine signifikante Erwärmung erodiert die Glaubwürdigkeit nicht nur der Klimawissenschaft, sondern der Wissenschaft allgemein immer mehr:
„Im Lichte all dieser Umstände müssen wir die Möglichkeit zumindest in Betracht ziehen, dass das wissenschaftliche Establishment hinter dem Thema globale Erwärmung in eine Falle der ernsten Übertreibung des Klimaproblems gezogen worden ist – oder, was das Gleiche ist, einer ernsten Untertreibung der mit dem Klimaproblem verbundenen Unsicherheiten – in dem Bemühen, die Gründe zu erklären. Vor allem im Zusammenhang mit der Wissenschaft ist es eine sehr üble Falle, weil sie droht, möglicherweise mehrere Jahrhunderte lang, den einhelligen und hart erarbeiteten Ruf der Ehrlichkeit als Basis des Respektes der Öffentlichkeit für wissenschaftliche Forschungen zu zerstören“. (Hervorhebung hinzugefügt).
Das ist der beängstigendste Teil, und es ist offensichtlich, dass die Bloßstellung bereits begonnen hat. Ernstzunehmende Scholaren der Wissenschaft wie Daniele Fanelli von der University of Montreal und John Iaonnadis von Stanford veröffentlichen quantitative Analysen der Wucherungen wissenschaftlicher Fehler, die wie Geschwüre die professionelle Wissenschaft befallen, zumindest teilweise wegen des Hungers nach Förderung und Anerkennung. Wenn dies aktiv von Personen dieser Güte erforscht wird, ist es offensichtlich, dass die Krankheit der Klimawissenschaft nicht auf die Klimawissenschaft beschränkt ist.
Wenn der Tsunami der Klimawissenschaft hereinbricht, wird die Zerstörung massiv und universal sein. Man kann guten Gewissens sagen, dass wissenschaftliche Seismologen wie Garth Paltridge die P-Welle der Erdbebens bereits entdeckt haben, und zwar in Form der fehlenden Erwärmung, die sich jetzt wahrscheinlich noch auf 23 Jahre ausdehnen wird. Die S-Welle folgt nicht lange danach. Wissenschaftler, sucht Schutz! Jetzt!
Übersetzt von Chris Frey EIKE
@ #34 P. Georgiev
“ Die „stimmende Statistik der Vergangenheit“ ist nicht das Ergebnis der Simulation, sondern das einzig möglich Ziel der Programmierer.“
Numerische Vorhersagemodelle sind nicht mit der üblichen Software, die man so kennt, zu vergleichen. Sie dienen der (numerischen) Lösung der Differentialgleichungen, die die atmosphärischen Felder beschreiben. Die Programmierer haben nicht die Möglichkeit irgendein Ergebnis vorzugeben.
Die ersten Vorhersagemodelle waren die barotropen Einschichtmodelle (60er Jahre), bei der die Atmosphäre als Flüssigkeit angenommen wurde. Dann kamen die baroklinen Mehrschichtmodelle in die in Abhängigkeit von den Rechnerkapazitäten (Speicher und Taktung, Parallelverarbeitung) immer mehr immer feiner eingebaut werden konnte. Wenn man heute unter bestimmten Bedingungen schon 10 Tage im Voraus weiß, daß sich eine bestimmte Großwetterlage mit entsprechender Wahrscheinlichkeit einstellen wird, hat das nur etwas mit der Güte der Abbildung der atmosphärischen Parameter und Bewegungsfeldern zu tun und nicht mit irgendwelchen Manipulationen der „Programmierer“.
Sturmflutvorhersagen 48 Stunden im Voraus sind keine Zufälle mehr. Bahn- und Stärkevorhersagen von tropischen Wirbelstürmen auch nicht.
Es gibt Modelle – ich habe auf Basis einer anderen Methode ein Vorhersagemodell für die Maisernten in den USA entwickelt – deren Vorhersagequalität verblüffend gut ist. Mit irgendwelchen Taschenspielertricks hat das nichts zu tun.
Gehen Sie auf die Seite wetterzentrale und schauen Sie sich da mal die „Cumputersimulationen“ der nahen Wetterzukunft an.
#33
Sehr geehrter Herr Heinzow,
wir werden keine Annäherung erzielen, da unsere Meinungen unvereinbar diametral auseinandergehen.
Im Grunde bin ich nicht immun gegenüber logische Argumente. In meinem Leben habe ich aber genug mit Softwareerstellung zu tun gehabt, um zu wissen, dass eine Simulation kein mehr oder weniger gelungenes Abbild dar Natur ist, sondern eine pure Nachahmung der Verläufe von natürlichen Prozessen mit ganz anderen Mitteln. Die „stimmende Statistik der Vergangenheit“ ist nicht das Ergebnis der Simulation, sondern das einzig möglich Ziel der Programmierer. Eine mögliche Übereinstimmung in der Zukunft wäre dann reiner Zufall.
Wie Herr Dr. Kuhnle in #25 berichtete, passen Versuchsergebnisse und Simulationvorhersagen häufig nicht zusammen, und die „Simulanten“ interessieren sich gar nicht WARUM. Weil sie dabei sind, einen vorhandenen Verlauf mit ihren Mitteln zu kopieren und wenn bei geänderten Parametern die Kopie nicht mehr hinhaut… wird eben die Formel weiterverfälscht bis der Auftraggeber zufrieden ist, ist halt der Job. Virtuelle Welt, gekonnt und fantasievoll erstellt, von der Wirklichkeit abgekoppelt.
Jedes Puzzleteil, dass man in der Simulation findet, hat der Programmierer vorher da rein gesteckt.
Wenn man den Zusammenhang CO2-Temperatur auf der Erde simulieren will, muss man zuerst die Erde von der von äußeren Faktoren abschirmen, den CO2 Gehalt stufenweise von 0 bis 100% erhöhen und dabei die Klimaänderungen messen. Die Versuchsreihe muss 3 mal wiederholt werden. Danach kann man die gemessene Abhängigkeit in den Simulationen einbringen. Und zugeben, dass es sich um einen eventuellen Verlauf bei gleichbleibende äußeren Faktoren handelt. Wenn man in den PIK-Simulationen (oder andere) einen Zusammenhang sieht, bedeutet das nichts weiter, als dass der Zusammenhang eingebaut wurde…
@ #32 P. Georgiev
„Wie wir aus den Vorhersagen wissen, laufen Wirklichkeit und Simulation immer auseinander, je länger der Zeitabstand ist.“
Das ist immer so. Gleichwohl gibt es sog. „festgefahrene“ Großwetterlagen, deren Ursachen im zirkumpolaren Strömungsfeld zu finden sind. Wenn man das weiß, kann man auch „Vorhersagen“ machen wie z.B. den Winter 2009/2010 in seiner Konsequenz – lang anhaltend, schneereich – vorhersagen. Es kommt nicht darauf an Tag für Tag das Strömungsfeld nebst der anderen Parameter exakt zu berechnen, sondern nur darauf an die generelle mittlere Strömung vorherzusagen. Läuft letztendlich darauf hinaus die „Standing Eddies“ (stationäre Anteile der Rossby-Wellen) vorherzusagen, also Lage und Intensität.
Ein gutes Modell kann diese stationären oder transienten Strömungsmuster in der statistisch relevanten Häufigkeit und Dauer abbilden. Entscheidend für die Bildung solch zirkumpolarer stationärer Strömungsmuster ist die meriodinale Krümmung der jeweilen (langen) Wellen (Wellenzahlen 1 bis 5) und die meriodanale Form des Zonalstroms, damit die Wellen Energie aus dem Zonalstrom erhalten, der wiederum von der Temperaturdifferenz und den kurzen Eddies gespeist wird.
Stimmt die Statistik für die Vergangenheit, spricht (erst mal) nichts dagegen, daß die auch in der Zukunft stimmt.
„Richtig wäre nicht „herausgefunden“ , sondern „eine sehr wahrscheinliche Erklärung gefunden““
Die Kausalität ist offensichtlich. Quasistationäre Strömungsmuster in der Atmosphäre haben Ihre Ursache in der Land-/Meerverteilung (incl. Gebirge) und den Oberflächentemperaturen der Ozeane und Landmassen. Und dann gibt es da noch Rückkopplungen … .
Alles mit Regressionsmethoden, auch multifaktoriellen, nicht oder nur begrenzt erfaßbar. Da sind die numerischen GCM das einzige „Hilfsmittel“, um die Energieflüsse etc. qualitativ und quantitativ aufzuklären.
“ sie können keine fehlende Puzzleteile des Wissens aus der Vergangenheit “
Genau die kann man damit finden. So wie man aus der Intensität von konvektiven Niederschlägen auf die (Feucht-)Labilität der athmosphärischen Schichtung schließen kann (geht für die Zeit vor der Möglichkeit aerologischer Aufstiege), kann man das auch in anderen Zusammenhängen.
Natürlich gibt es einen Zusammenhang zwischen Inflation und Beschäftigungsquote, nur ist der nicht so simpel, wie Schmidt das damals formulierte.
GCM sind Forschungsinstrumente. M.E. für „Vorhersagen“ nur bedingt geeignet.
#25
Sehr geehrter Herr Dr. Kuhnle,
natürlich sind Computersimulationen für den technischen Fortschritt unverzichtbar. Sie machen aber nur Sinn, wenn sie realitätsnah sind und nicht reine Spekulationen. Dafür sind, wie schon dargelegt und von Ihnen zum Teil bestätigt, 2 Voraussetzungen erforderlich, erstens der abzubildende Prozess muss bekannt sein und zweitens, die Überprüfbarkeit. Beides ist bei „Klimavorhersagesimulationen“, von mir aus GCM, nicht gegeben.
„Viele Parameter sind nicht genau bekannt und müssen abgeschätzt werden“ .Das ist richtig, da die Abhängigkeit der Temperatur von CO2 nicht bekannt ist, wird sie geschätzt oder mit anderen Worten in den Algorithmen beliebig festgelegt, manchmal vielleicht nach den Erwartungen des Auftragsgebers. Nur sollte dann das Ergebnis beim Namen genannt werden, eben Spekulation und nicht neue Erkenntnis oder gar Nachweis.
„Manchmal gelingt es aber auch Versuchsergebnisse gut vorherzusagen und man kann dann auf die Simulationen aufbauen.“ Das bedeutet aber auch, wenn man Simulationswerte nicht phasenweise mit der Wirklichkeit vergleichen kann, sind sie wertlos. Genau mein Gedanke, betrifft alle Klimasimulationen.
„Auf die Frage warum nicht, wissen die Simulanten oft keine Antwort und man hat das Gefühl es interessiere sie auch nicht. „ Richtig beobachtet, es interessiert sie nicht im Geringsten. Die Simulanten können nur eins machen, bekannte Verläufe nachahmen und hoffen, dass bei geänderten Parameter der Verlauf immer noch der Wirklichkeit ähnelt. Wenn nicht, wird weiter an Schrauben gedreht. Bei guter Arbeit ist die angestrebte Ähnlichkeit groß, aber wie Sie treffend festgestellt haben, sie haben mit der Realität nichts zu tun.
Da man weder alle Klimafaktoren exakt kennt, noch die Möglichkeit hat, vielversprechende Simulationen schrittweise mit der Wirklichkeit abzugleichen, kann man Klimasimulationen als hundertprozentige Spekulation betrachten.
Lieber Herr Heinzow,
die Zeilen oben sind auch für Sie bestimmt als Antwort auf #23. Ergänzen möchte ich noch:
„Die GCM’s sind Fortentwicklungen der Vorhersagemodelle der Wetterdienste mit einigen Besonderheiten“ „…ist die globale Zirkulation des Systems Atmosphäre/Ozean im Zeitablauf …“ Wie wir aus den Vorhersagen wissen, laufen Wirklichkeit und Simulation immer auseinander, je länger der Zeitabstand ist. Die Simulation von heute trifft den Verlauf von morgen mit hoher Wahrscheinlichkeit, den in 2 Wochen mit geringer Wahrscheinlichkeit und in 2 Monaten wohl Spekulation. Immer das gleiche unlösbare Problem, der Abgleich mit der Wirklichkeit. Und in Jahrzehnten?
„Mit GCM konnte man z.B. die Ursachen der großen Dürre der 30er Jahre im mittleren Westen der USA herausfinden…“ Richtig wäre nicht „herausgefunden“ , sondern „eine sehr wahrscheinliche Erklärung gefunden“
Das ist mein Hauptkritikpunkt am Umgang mit Simulationen, sie können keine fehlende Puzzleteile des Wissens aus der Vergangenheit oder Zukunft ersetzen wie es suggeriert wird, sondern höchstens ein Vermutung mit der Wahrscheinlichkeit von 0 bis 99%.
Sehr geehrter Herr Dr.Kuhnle, wirklich ALLE Prognosen im Leben sind mit Unsicherheiten verbunden. Ab wann man eine Prognose als zuverlässig bezeichnet, ist da reine Definitionssache.
„Was ist denn in Ihren Augen wahrscheinlich und wie hoch ist die Wahrscheinlichkeit und wie berechnen Sie diese Wahrscheinlichkeit?“
Da müssen Sie auch sagen, auf welches Ereignis sich das beziehen soll.
MfG
S.Hader
#26
jo Herr Hader, die Sturmwarnung passt wieder ganz gut zu Ihren Beispielen.
Wer fällt nach einer Sturmwarnung vorsorglich alle Bäume rund um’s Haus, um eventuell mögliche Schäden zu vermeiden? Ich zumindest nicht. Bestenfalls prüfe ich einzelne Bäume/Äste um das Schadensrisiko zu mindern. Darüber hinaus warte ich einfach ab, was passiert.
@#26
Sehr geehrter Herr Hader,
Ihr alltägliches Leben ist mir nicht bekannt. In meinem Leben werden Entscheidungen nur aus zuverlässigen Prognosen abgeleitet und nicht aus Prognosen, die sich bisher nicht bewährt haben. Die Wahrscheinlichkeit, dass eine Wetterprognose auch tatsächlich eintritt, leitet sich aus dem Prognoseerfolg der verwendeten Modelle und der Sofware ab. Aus einer unsicheren 3-Monatswettervorhersage würde ich keine Maßnahmen ableiten, die mich Haus und Hof kosten würden. würde Was ist denn in Ihren Augen wahrscheinlich und wie hoch ist die Wahrscheinlichkeit und wie berechnen Sie diese Wahrscheinlichkeit? Oder basieren Ihre Ansichten auf reinem Aberglauben?
Zu #26
Oder man glaubt an das Szenario Fegefeuer und Hölle und geht Samstags brav beichten und Sonntags in die Kirche … .
#25: Dr. Kuhnle sagt:
“ Die bunten Bilder und Videos eignen sich hingegen gut für nette Präsentationen, mit denen man Eindruck machen kann.“
Genau das ist ja das Problem, weil die Visualisierung eine (nicht gegebene) Realität vortäuscht.
„Simulationen und Modelle begleiten mich mein ganzes Berufsleben.“
Die begleiten alle Menschen das ganze Leben, denn das Gehirn modelliert ständig.
Wenn es denn plausibel klingt kommt dann sowas bei raus: „Lieber 5% Inflation als 5% Arbeitslose.“ Ein simples (plausibles!) ökonomisches Modell, welches (theoretisch) gar nicht so leicht zu falsifizieren ist. In der Realität war es dann sehr schnell widerlegt, denn Kanzler Schmidt hatte am Ende beides. 😉
„Aber wer aus den Simulationsergebnissen politische Forderungen ableitet, tut so als sei dem so und ist damit ein Schwindler.“
Nun ja, jeder ‚Christ‘ kennt ja die Geschichte mit den sieben Jahren. Manche auch die Geschichte des Dustbowls und der Nordamerikanischen Dürren. Mit Hilfe von sog. „Klimamodellen“ konnte nachgewiesen werden, daß die AMO + PDO ursächlich – neben Agrarmissmanagement – war. Das ermöglicht dann durch entsprechende politische Maßnahmen (Bevorratung etc.) eine rechtzeitige Anpassung und das Entstehen ökonomomischer Verluste. Voraussetzung ist aber eine zuverlässige Validierung der Modelle. Da gibt es aber offensichtlich Versagen auf Seiten der Modellierer, denn 2 K Abweichung (vorläufiges Ergebnis) im lokalen Jahresgang bei Minimum- und Maximumtemperatur über 75 Jahre (Tagesmittel!) sind nicht akzeptabel.
#25: „Aber wer aus den Simulationsergebnissen politische Forderungen ableitet, tut so als sei dem so und ist damit ein Schwindler.“
Sehr geehrter Dr.Kuhnle, jemand der aus Simulationen Maßnahmen ableitet macht nicht viel anderes, was wir im alltäglichen Leben tun. Derjenige berücksichtigt wahrscheinliche(!) Szenarien, um sich darauf einzustellen. Wenn wir im Leben Entscheidungen treffen, dann versuchen wir auch wahrscheinliche Szenarien zu antizipieren und richten uns darauf ein. Wenn beispielsweise eine Sturmwarnung kommt, dann heisst das auch nicht zwangsläufig, dass zu 100% ein heftiger Sturm kommt, aber das man prinzipiell damit rechnen muss und man verlegt entsprechend außerhäusliche Aktivitäten auf einen anderen Zeitpunkt.
Sehr geehrter Herr Heinzow,
Vielen Dank für ihre Beiträge, ich kann Ihnen nur zustimmen. Simulationen und Modelle begleiten mich mein ganzes Berufsleben. Die in unserem Konzern als „Simulanten“ betitelten Kollegen genießen nicht immer den besten Ruf und ich verteidige deren Arbeit gerne. Sie haben es nicht einfach. Viele Parameter sind nicht genau bekannt und müssen abgeschätzt werden. Vorhersagen und Ergebnisse von Experimenten passen dann oft nicht oder nur sehr schlecht zusammen. Auf die Frage warum nicht, wissen die Simulanten oft keine Antwort und man hat das Gefühl es interessiere sie auch nicht. Die bunten Bilder und Videos eignen sich hingegen gut für nette Präsentationen, mit denen man Eindruck machen kann.
Manchmal gelingt es aber auch Versuchsergebnisse gut vorherzusagen und man kann dann auf die Simulationen aufbauen. Selbst wenn dies nicht gelingt, können die Simulationsmodelle sehr viel zum Verständnis der Materie beitragen. Beim technischen Fortschritt sind Computermodelle daher unverzichtbar.
Auch die derzeitigen Klimamodelle sind etwas Positives. Man kann darüber diskutieren, ob das viele Geld, was in diesen Bereich geflossen ist, nich für andere Forschungs- und Enwicklungsthemen besser verwendet worden wäre, aber prinzipiell sind die Klimamodelle nicht das Übel. Das Übel sind die Fehlinterpretationen der Klimapolitiker. Diejenigen, die von (unbequemer) Wahrheit sprechen. Noch schlimmer sind die Wissenschaftler, die hier nicht widersprechen, sondern sogar selber suggerieren, die Simulationsergebnisse seien die Realität. Sie gehen bewusst in die Medien um die Bürger in die Irre zu führen. Freilich kann kein Wissenschaftler (außer völlige Idioten) glauben, dass die Klimamodelle die Realität sei. Aber wer aus den Simulationsergebnissen politische Forderungen ableitet, tut so als sei dem so und ist damit ein Schwindler.
@ #22
„M. E. haben hier die ökonomischen Modelle sehr viel Gemeinsamkeiten mit den Klimamodellen!“
Herr Vogt, außer der Bezeichnung Modell gibt es keine Gemeinsamkeiten.
@ #18
Herr Georgiev,
ich benutze den Begriff ‚Klimamodell‘ nicht, denn was mit den Computerprogrammen simuliert wird, ist die globale Zirkulation des Systems Atmosphäre/Ozean im Zeitablauf und nicht ‚das Klima‘. Deshalb steht bei mir immer GCM. Die GCM’s sind Fortentwicklungen der Vorhersagemodelle der Wetterdienste mit einigen Besonderheiten.
wenn man den Output dieser GCM über 30 Jahre oder mehr mittelt, erhält man in der Tat etwas, was man Klima nennen kann. Inwieweit das tatsächlich mit der Realität übereinstimmt – sog. Kontrolläufe – sollte man selbst überprüfen.
Jedenfalls ist der Jahresgang der Maximumtemperatur über lange Zeiträume nicht identisch mit der lokalen Realität. TMAX_M < TMAX_R, TMIN_M > TMIN_R. Und fürs Mittel kommt es dann in etwa hin.
So läufts Business. Die Niederschläge weisen auch systematische Abweichungen zur Realität auf.
Das finden Sie allerdings nicht in den IPCC-Berichten und auch nicht in den Papers.
„Es ist nur eine Frage, zu welcher Gruppe viele Klimawissenschaftler, u.a. vom PIK, zugeordnet werden.“
Dazu sollte man deren Papers lesen. Allerdings hat das PIK keinen Numberchruncher, sodaß die den verwendeten Modelloutput einkaufen müssen. Ich muß das ja auch. Allerdings leiste ich mir den Luxus den Output unter die Lupe zu nehmen.
Gleiches gilt für die Meßdaten des COOP-Netzes, die noch sehr viele Fehler – trotz Überprüfung durch das NCDC – enthalten.
Ich kann nur jedem empfehlen sich mal ein paar Datensätze anzuschauen, im Original. WUWT hat da ja gute Arbeit geleistet hinsichtlich der Visualisierung von diversen Stationen und den unglaublichen örtlichen Verhältnissen.
„Es geht nicht darum, wie gut oder ungenau die Modelle sind und welche Schwierigkeiten es gibt entsprechende Fachkenntnisse und Programmierkünste zusammenzufügen.“
Ohne das kann man keinen Fortschritt mehr im Erkennen des Zusammenwirkens der einzelnen Parameter erzielen.
Mit GCM konnte man z.B. die Ursachen der großen Dürre der 30er Jahre im mittleren Westen der USA herausfinden und modellieren. Ursache des Dustbowls war 1. der Mensch durch falsche Bodenbewirtschaftung und 2. die AMO im Zusammenspiel mit der PDO. Gilt übrigens in Form der Teleconnections auch für andere Regionen im Zusammenspiel mit El Nino und La Nina. Die GCM sind schon sehr mächtige Werkzeuge in der Meteorologie. Aber wie das so ist, derartige Dinge lassen sich auch zweckentfremden und mißbrauchen.
Da hier sowohl einige Ingenieure als auch Ökonomen mit an Bord sind, eine möglicherweise zum Erkenntnisgewinn hilfreiche , d.h. didaktische, Frage:
Was unterscheidet Klimamodelle von Simulatormodellen wie sie zum einen zum Training von Fugzeugpiloten oder auch zum Training von KKW – Technikern, zum Anderen von den volkswirtschaftlichen Modellen, welche von die Politik beratenden Wirtschaftsweisen oder auch von Börsen – Spekulanten zur Vorhersage künftiger wirtschaftlicher Entwicklungen infolge bestimmter Entscheidungen (Kaufen , Halten, Verkaufen ??? ) genutzt werden??
M. E. haben hier die ökonomischen Modelle sehr viel Gemeinsamkeiten mit den Klimamodellen!
Vielleicht sollte man in diesem Zusammenhang jedoch auch die schwarzen Schwäne sowie das darauf basierende Antifragilitäts- Theorem von Nassim N. Taleb erwähnen:
Schwarze Schwäne haben das Erdklima in Vergangenheit schon oft ganz enorm und plötzlich verändert, dennoch glaubt auch Taleb an die anthropogene Erderwärmung, fürchten muß er sie jedoch ganz sicher nicht!
#13: Gunnar Innerhofer sagt:
„Was machen sie hier? Ist ihnen langweilig wie Paul, Keks etc., Warum stören sie Klimaforen, wo sie doch von A bis Z keine Ahnung haben und nur ihre Meinung posten? Glauben sie wirklich, dass wäre von Nutzen, würde interessieren oder hätte irgendeinen konstruktiven Wert?“
Ja is gut Innerhofer.
Gehen Sie doch auf TOA wieder Treibhaus messen und ersparen Sie uns Ihr arrogantes „Ichweißalles“-Gesülze
#17: T. Heinzow,
ich wüsste nicht,
dass hier irgend ein Klimawissenschaftler ein konkretes „Modell“ vorgestellt hätte, das Voraussagen zulässt, oder größere Schwankungen der Vergangenheit erklärt.
Mathematik wirkt nicht in der Natur, sondern Physik.
Mathematik ist lediglich eine „Formalwissenschaft“. Ich könnte also Modelle mit physikalischen Fehler mathematisch beschreiben,
die allerdings wertlos sind.
Die Formalwissenschaft Mathematik ist dagegen durchaus in der Lage, Wahrscheinlichkeiten von physikalischen Zusammenhängen von REALEN BEOBACHTUNGEN (Messung) zu erkennen und hieraus hypothetische causale Mechanismen zu postulieren.
Nur haben diese natürlich durchgeführten Analysen bisher keinen Hinweis auf eine „Klimawirksamkeit“ von CO2 gezeigt.
mfG
„und nur ihre Meinung posten?“
Meinungsfreiheit ist in Deutschland ein sehr hohes Rechtsgut.
#17
Hallo Herr Heinzow,
computergestützte Klimamodelle habe ich in meinem Beitrag als „Modelle“ abgekürzt, wodurch der Inhalt verfälscht werden könnte. Da Sie Wissenschaftler und ich „Wissenschaftler“ geschrieben haben, sehe ich primär keinen Widerspruch. Es ist nur eine Frage, zu welcher Gruppe viele Klimawissenschaftler, u.a. vom PIK, zugeordnet werden.
@ #15 P. Georgiev
„Ein Großteil der „Wissenschaftler“ hält die Modelle für ein mehr oder weniger gelungenes Abbild der Natur.“
Ich kenne keinen Wissenschaftler, der Modelle (insbesondere GCM) für naturgetreue Abbilder der Realität hält, Politiker, Lehrer etc. dafür viele.
Jedes Modell hat je nach Komplexität seine eigene Aussagekraft. Ohne Modellierung (vereinfachte Darstellung der Bedingungen und Randbedingungen) hätte es in der Wissenschaft keinen Fortschritt gegeben.
#14
Sehr geehrter Herr Heinzow,
bei allem Respekt muss ich Ihnen widersprechen.
Es geht nicht darum, wie gut oder ungenau die Modelle sind und welche Schwierigkeiten es gibt entsprechende Fachkenntnisse und Programmierkünste zusammenzufügen. Ihr Wort „…künste“ bring es auf den Punkt. Kunst ist kein Abbild der Wirklichkeit, sonder die Sichtweise des Künstlers.
Ein Großteil der „Wissenschaftler“ hält die Modelle für ein mehr oder weniger gelungenes Abbild der Natur. Mit einem gewissen Hintergrundwissen habe ich in #5 versucht darzulegen, warum Klimamodelle und Natur nichts, aber auch gar nichts miteinander zu tun haben können.
Danke an alle, die meine Meinung bestätigt haben!
#12: sehr richtig, sehr geehrter Herr Dr. Kuhnle:
„Das große Übel der Klimawissenschaften ist, dass ein paar Klimaclowns sich dazu hinreißen ließen politische Maßnahmen (Klimaschutz) zu fordern. Damit haben sie die Wissenschaft verlassen und sind zu Demagogen konvertiert.“
Auf die verrückte Idee ist auch nicht der viel zitierte „Erfinder“ Arrhenius gekommen, der CO2 für sehr „klima“-nützlich hielt und Angst vor einer Eiszeit hatte und der bereits 1900 von Angström und vor allem durch das intelligente Experiment des Physikers WOOD 1909 widerlegt wurde.
Eines der Pseudostrategien der Schwindler war und ist, die Angelegenheit zu „Geheimwissenschaft“ der Klimatologen“ zu erklären, die nur sie selbst mit ihren Komputermodellen richtig einschätzen könnten,
Hauptsache, die Menschheit wird in Angst und Schrecken versetzt und der Rubel rollt für eine eletäre Minderheit mit gottgleicher Kompetenz mit einem Auftrag die Menschheit zu bestrafen zu dürfen („große Transformation“).
Ich halte, lieber Herr Kunle dagegen
den Zusammenhang von 2 Faktoren, nämlich CO2 und erdnaher Temperatur weder für eine „Geheimwissenschaft“ noch für NICHT labormäßig überprüfbar, noch viel weniger für NICHT empirisch in Gegenwart und Vergangenheit erkennbar.
Ein bischen logische Denkvermögen reicht dazu vollkommen aus.
Das freche Ignorieren einfacher Zusammenhänge, die gegen diese „Erwärmungs“-Katastrophen-Hypothese sprechen, ist dabei ein Phänomen, das in diesem Umfang auch in der „freien Wissenschaft“ allerdings ein skandalöses Phänom darstellt. Die große Mehrheit tut dies völlig freiwillig und völlig verantwortungslos unterstützt von fragwürdigen Massenmedien mit erkennbarer Einschränkung der Meinungsfreiheit.
mfG
@ #12 Dr. Kuhnle
„Als Wissenschaftler muss man ein verblendeter Idiot sein, wenn man Modelle mit der Realität verwechselt.“
Das tut kein Wissenschaftler. Es sind die Politiker, die das allzugerne tun, weil die eben keine Wissenschaftler (mehr – siehe Dr. Merkel) sind.
Allerdings sagen uns die Modellierer nicht, wie schlecht tatsächlich die Modelle sind.
Die Modelldaten des US-Modells GFDL sind frei verfügbar. Die US-Meßdaten des engmaschigen COOP-Netztes ebenfalls.
Das Problem der meisten Blogger hier besteht darin, daß die die riesigen Datenmengen in nicht adäquaten Formaten bekommen und zudem nicht über die notwendigen Programmierkünste verfügen, um die Datensätze des GFDL-Gitters mit den Stationsdaten kompatibel aufzubereiten.
Auch für die Modellierer ist die Darstellung der Realität zur Validierung der Modellergebnisse in Eigenregie extrem aufwendig. Also wird eingekauft und danach das Modell mit Hilfe der Stellschrauben angepaßt.
Als Maß für die Güte der Modelle wird dann die Reproduktion des Verlaufs der durch arithmetische Mittelung gewonnenen „Globaltemperatur“ herangezogen.
Sowas mag ja Politiker überzeugen, wissenschaftlich brauchbar ist diese Methode aber nicht.
Dementsprechend böse sieht dann das Ganze auf lokaler Ebene aus. So weist das GFDL-Modell lokal im Jahresgang der über 75 Jahre gemittelten Minimumtemperatur je nach Jahreszeit systematische Abweichungen von bis zu 3,5 °C gegenüber den Meßwerten auf.
Daraus ergibt sich, daß das GFDL-Modell die Strahlungsbilanz nicht korrekt nachbilden kann und somit das Modell für Aussagen über das Klima so nicht tauglich ist.
Beim ECHAM5-Modell tauchte dieser Fehler auch auf, allerdings gehen die Temperaturwerte (in 2m-Höhe) nicht in die Rechnungen mit ein. Es sind reine Output-Werte.
Ob das ECHAM6 besser ist, wird man sehen … .
Hr. Kuhnle #12
„Das große Übel der Klimawissenschaften ist…“
Woher wollen sie denn was über Klimawissenschaft wissen, hmm?
Warum sind sie nicht einfach leise bei Themen, wo sie benstensfalls primitiver Laie sind?
Was macht ihre Aussagem relevant, wenn sie doch von sich selbst sagen, nichts mit vom Thema zu verstehen, wenn es um ihre Ausbildung geht.
Was machen sie hier? Ist ihnen langweilig wie Paul, Keks etc., Warum stören sie Klimaforen, wo sie doch von A bis Z keine Ahnung haben und nur ihre Meinung posten? Glauben sie wirklich, dass wäre von Nutzen, würde interessieren oder hätte irgendeinen konstruktiven Wert?
Das große Übel der Klimawissenschaften ist, dass ein paar Klimaclowns sich dazu hinreißen ließen politische Maßnahmen (Klimaschutz) zu fordern. Damit haben sie die Wissenschaft verlassen und sind zu Demagogen konvertiert.
Die angebliche Notwendigkeit für politische Maßnahmen beruht dabei auf Aussagen von Computermodellen. Als Wissenschaftler muss man ein verblendeter Idiot sein, wenn man Modelle mit der Realität verwechselt. Es ist einfach unfassbar, wie sich ein solcher Unsinn etablieren konnte und ich kann nicht nachvollziehen, dass es Akademiker gibt, die dieser Ideologie anhängen. Da scheint irgendetwas bei der Schulbildung schief gegangen zu sein. Es fehlen die Basics, um die Wortwahl spezieller Diskussionskollegen zu benutzen.
Als wir noch einen Wissenschaftsjournalisten alter Schule hatten, gab es im TV folgende niveauvolle Sendung zu sehen:
http://Www.tinyurl.com/qgz63mh
Joachim Bublath sagt dort:
„Das Klimageschehen ist äußerst komplex, und es ist sehr schwierig überhaupt Vorhersagen zu machen. Naturwissenschaften benutzen dazu Modelle. Modellvorstellungen sind aber begrenzt. Aber es gibt viele, die diese Modellvorstellungen der Naturwissenschaften mit der Realität verwechseln. Dann gibt es Überraschungen.“
Im Filmbeitrag werden dann die Modelle erläutert. Es wird klar und deutlich gesagt: „Prognosen für das Klima sind nicht möglich“. Dem ist nichts hinzuzufügen.
Nach der Sendung wurde Bublath übrigens in Rente geschickt und durch Harald Lesch ersetzt (Ob sich Herr Rahmstorf mal wieder beschwert hat, ist nicht bekannt). Über seinen Nachfolger äußerte sich Blubath skeptisch, weil jener auch ordentlicher Professor sei. Er könne sicher gut Sendungen über Astronomie machen, aber unmöglich über das Klima. Da müsste er sich ja gegen seine eigene Zunft stellen. Lesch hat sich (leider) zum Klimathema mehrfach geäußert und hat dabei jämmerlich versagt. Dank Lesch wenden sich jetzt viele junge Menschen mit Grausen von den Naturwissenschaften ab. Schwindeln und Lügen finden viele nicht so gut.
@ #5: Peter Georgiev
Sehr guter Beitrag.
Wenn sich schon das Verhalten des einfachen Doppelpendels (http://tinyurl.com/kxca7ut) jeder mathematischen Lösung entzieht, wie will man dann das Klimageschehen, das von vielen ganz unterschiedlichen Faktoren abhängt, die noch nicht einmal alle bekannt sind, in mathematische Formeln pressen? Sogar die Empirie der Klimawissenschaft scheint mir noch nicht ausgereift. Über Persistenzen in Datenreihen ist z.B. noch wenig bekannt.
Natürlich kann man auch Vereinfachungen vornehmen. Das setzt aber voraus, dass ich den dadurch entstehenden Fehler größenordnungsmäßig abschätzen kann und vor allem seine Richtung kenne. So vereinfache ich in der Statik komplexe Gebilde, um sie überhaupt berechnen zu können. Ich tue es aber so, dass der sich dadurch ergebende Fehler mir beim Ergebnis eine höhere Sicherheit gibt.
Vielleicht tun das die Klimatologen ja auch: Zur Sicherheit kommt dann die Klimakatastrophe heraus.
@ #6
Danke Herr Schlohr.
Netter Artikel, der beweist, wie schlampig die Reviwer im Klimabereich arbeiten.
Abb. 1a wäre bei mir nicht durchgegangen, wegen Skaleninkompatibilität.
Die Autoren haben dann noch übersehen, daß da ein großer „Un-?)Bekannter, der Pazifik mit seiner PDO mitspielt.
Bereits Schillig/Heinzow haben Mitte der 70er Jahre Periodizitäten nachgewiesen, die sich zu Vorhersagen der Variabilität der Westwinddrift der Nordhalbkugel eignen.
Und was das Arbeitslager betrifft, so hat China andere Probleme zu lösen als sich von der Klimahysterie anstecken zu lassen. Die Geschäfte zur Verbesserung der Wellness der Infizierten nimmt man natürlich gerne mit.
Allerdings kann es in D eher sein, daß Nichtinfizierte bei Hartz IV landen … .
@admin (#5): Ihre Anmerkung teile ich voll und ganz. Weitere Indizien sind die viele Worte für Wahrscheinlichkeit (Glück, Pech, Vorhersehung, selbst Glaube, uvm.) und die menschliche Unzulänglichkeit sich selbst immer im Mittelpunkt zu sehen inkl. der allumfassenden Beherrschung des Universums und natürlich auch der Generalschuld an jeglichen Ereignissen, die – ja genau – dem Zufall geschuldet sind.
#6: Alfred Schlohr
„In China wird kaum jemand wagen, zu behaupten, dass der Anstieg der Temperaturen nicht anthropogen gewesen ist, sonst droht wohl Arbeitslager…..“
Da ich dienstlich oft in China bin und auch dort Chinesen als Freunde gewonnen habe, kann ich Ihre Vermutung nicht bestätigen. Die Chinesen trauen sich alles, nur nichts gegen die Partei zu sagen, jedenfalls nichts gravierendes.
Klimaerwärmung und Co2 ist für meine Kontakte kein Problemthema. Smog, Umweltverschmutzung, Arbeitsverhältnisse eher, aber daran wird gearbeitet, z.T. sehr erfolgreich.
@#1
Genau Herr Schlohr.
Die AGWler haben eine Erklärungen für alles.
Beispiel:
Der Polar Vortex wurde von Obamas’s Science Advisor, Dr. John Holdren, nicht direkt als Beweis für Global Warming benutzt. Er sagte nur das wir so etwas mit einer erhöhten Frequenz sehen können während die globale Erwärmung weiter geht.
http://tinyurl.com/kamjgmv
Was machen die Medien? Die zeigen es, da es doch vom Weißen Haus kommt.
Das UK Met Office verbindet den Klimawandel mit den Stürmen und Überschwemmungen der letzten Wochen. Gerade eben zieht ein Sturm über die UK und Irland.
Zumindestens drehen sich die Windmühlen und produzieren mehr Strom als sonst. Gerade dann wenn „260.000 Stromkunden wegen Sturmschäden ohne Strom sind. Verursacht durch Winde von bis zu 160 km/h“.
Herr Heinzow: J. Li, C. Sun. F.-F. Jin, Geophysical Research Letters 40(20) (2013) 5497 – 5502 (scheint open access zu sein. Bei Problemen lasse ich Ihnen die Arbeit ueber Herrn Limburg zukommen, der sicher Ihre email-Adresse hat)
abstract:
—————
[1] The twentieth century Northern Hemisphere mean surface temperature (NHT) is characterized by a multidecadal warming-cooling-warming pattern followed by a flat trend since about 2000 (recent warming hiatus). Here we demonstrate that the North Atlantic Oscillation (NAO) is implicated as a useful predictor of NHT multidecadal variability. Observational analysis shows that the NAO leads both the detrended NHT and oceanic Atlantic Multidecadal Oscillation (AMO) by 15–20?years. Theoretical analysis illuminates that the NAO precedes NHT multidecadal variability through its delayed effect on the AMO due to the large thermal inertia associated with slow oceanic processes. An NAO-based linear model is therefore established to predict the NHT, which gives an excellent hindcast for NHT in 1971–2011 with the recent flat trend well predicted. NHT in 2012–2027 is predicted to fall slightly over the next decades, due to the recent NAO decadal weakening that temporarily offsets the anthropogenically induced warming.
—————
In China wird kaum jemand wagen, zu behaupten, dass der Anstieg der Temperaturen nicht anthropogen gewesen ist, sonst droht wohl Arbeitslager. Unter diesem Gesichtspunkt ist das schon ein sehr sehr offenes paper, aber lesen Sie bitte selber.
Ich frage mich immer wieder, wieso intelligente Menschen, auch die Mehrheit hier im Forum den Klimamodellen irgend eine Aussagekraft zusprechen. Es geht nicht um Fehler in den Algorithmen, sondern um den Grundsatz, kann man mittels Computersimulationen das Klima abbilden, ja oder nein?
Man kann einen Prozess nur dann naturgetreu simulieren, wenn dessen natürliche Wirkungsweise exakt bekannt ist. Dies ist beim Klima nicht der Fall, also sind alle Modelle eine Nachahmung der Vergangenheit und eine hundertprozentige Spekulation für die Zukunft.
Man kann eine Simulation nur dann bewerten und kalibrieren, wenn vielfach Ergebnisse mit der Wirklichkeit verglichen werden. Da per Definition das Klima ein 30-jähriges Wettermittel ist, könnte man theoretisch vielleicht in 300 oder besser in 1000 Jahren die Simulationen bewerten und anpassen. Bis dahin sind sie reine Spekulation.
Beim Klima-Simulationen kommt noch erschwerend hinzu, dass der Vorgang so komplex ist, dass das gesamte menschliche Wissen nicht in der Lage ist, den Prozess vollständig zu begreifen. Den Einwand einer „vereinfachten Form“ kann nicht gelten, da eine Vereinfachung immer auch eine Verfälschung ist. Und eine sehr große Vereinfachung eine sehr große Verfälschung bedeutet. Da nach seriösen wissenschaftlichen Meinungen nicht einmal exakt bekannt ist, wie viel und welche Faktoren die natürliche Klimaschwankungen in welcher Größenordnung das Klima beeinflussen, wie soll da eine Rechenmaschine, die eigentlich nur 1 und 1 richtig addiert, die Zukunft richtig vorhersagen???
Da keiner weiß, wie und warum sich das Klima ändert, und bis auf dem Autor der Algorithmen keiner weiß, was in den Simulationen wirklich passiert, wird die gewollte zufällige Ähnlichkeit zwischen vergangene Klimaverläufe und Simulationen meistens als „z.T. gelungene Naturabbildung“ verstanden. Absolut naiv!!
@ #1
„Dabei haben Chinesen die stillstehende Erwärmung auf der Nordhalbkugel doch schon mit der NAO in Zusammenhang bringen können.“
Soso, wie soll das denn funktionieren?
Sehr geehrter Herr Schlohr,
inzwischen haben wir 37 oder 38 „Erklärungen“ der AGW-Wissenschaft zur Erklärung des Stillstands des Temperaturanstiegs. Irgendetwas passendes wird sich da doch für die Politiker und AGWler immer finden.
MfG
sehr schönes captcha :heulst
Muss nicht unbedingt sein. Man kann ganz einfach unterschiedliche Klasse der Wissenschaften definieren. Z.B. die offenbarten Wissenschaften (analog zur Theologie oder anderen Prophezeiungen), die nicht widerlegbar sind und die keine reale Auswirkungen auf unsere Leben haben (es sei denn die politischen wie Sanktionen gegen Ketzer, Kirchensteuer oder Glaubenkriege) im Gegensatz zu den funktionierenden Wissenschaften, die die Funktion unserer technischen Geräte definieren.
Ich wäre mal nicht so ganz optimistisch, denn die Modellierer werden ALLES tun, um ihre Modelle so anzupassen, dass auf einmal die stillstehende Erwärmung bspw. mit La Ninja erklärt wird:
http://url9.de/SqM
Dabei haben Chinesen die stillstehende Erwärmung auf der Nordhalbkugel doch schon mit der NAO in Zusammenhang bringen können.
Wenn der kommende El Ninjo spitz ausfallen sollte, heißt es dann: Das ist die lange vermisste CO2-Wärme aus der Tiefsee, die deutsche Presse wird sich darüber hermachen, die Grünen kommen aus ihren Löchern, und den Deutschen droht dann die Dämmpflicht für Häuser, eine Umlage auf den Gaspreis und weiß der Geier was sonst noch. Ich hoffe, dass sich dann ein paar Leute erheben und ein paar anderen Leuten mal was auf die Mütze geben.
Das vollständige Versagen der Klima-„Forscher“ wird Michel ihnen eher aber schnell verzeihen, die Deutschen werden es bereitwillig glauben und vermutlich noch mehr Geld für die Narretei Energiewende hergeben – ja, wenn es dem Eisbär nutzt …….
Über die menschliche Dummheit kann ich wirklich nur den Kopf schütteln. Ich fürchte, Deutschland und die EU werden aus dieser selbst gewählten Falle alleine nicht mehr rauskommen.