[Alle Hervorhebungen in diesem Beitrag im Original!]
„Menschen verwenden Begriffe wie ’sicher‘, um ihre Unsicherheit über ein Ereignis zu beschreiben … und Begriffe wie „Zufall“, um ihre Unsicherheit über die Welt zu beschreiben.“ – Mircea Zloteanu
In vielen Bereichen der Wissenschaft wird heute das Wort „Ungewissheit“ in den Mund genommen, ohne dass darüber nachgedacht wird, was mit „Ungewissheit“ gemeint ist, oder zumindest ohne dass dies zum Ausdruck gebracht wird. Diese einfache Tatsache ist so bekannt, dass eine Gruppe in UK mit der Bezeichnung „Sense about Science“ eine Broschüre mit dem Titel „Making Sense of Uncertainty“ (.pdf) veröffentlicht hat. Die Gruppe „Sense about Science“ setzt sich für evidenzbasierte Wissenschaft und Wissenschaftspolitik ein. Die 2013 veröffentlichte Broschüre Making Sense of Uncertainty ist leider ein nur vage getarnter Versuch, den Klimaskeptizismus auf der Grundlage der großen Unsicherheiten in der Klimawissenschaft zu bekämpfen.
Nichtsdestotrotz enthält sie einige grundlegende und notwendige Erkenntnisse über Unsicherheit:
Michael Hanlon: „Wenn die Ungewissheit die Bandbreite der Möglichkeiten sehr groß macht, sollten wir nicht versuchen, eine einzige, präzise Zahl zu ermitteln, da dies einen falschen Eindruck von Gewissheit erweckt – falsche Präzision.“
Ein guter und berechtigter Punkt. Aber das größere Problem ist der „Versuch, eine einzige … Zahl zu finden“, egal ob sie „fälschlich präzise“ ist oder nicht.
David Spiegelhalter: „In der klinischen Medizin können Ärzte nicht genau vorhersagen, was mit jemandem passieren wird, und verwenden daher vielleicht eine Formulierung wie ‚von 100 Menschen wie Ihnen werden 96 die Operation überleben‘. Manchmal gibt es nur so wenige Anhaltspunkte, zum Beispiel weil der Zustand eines Patienten völlig neu ist, dass keine Zahl mit Sicherheit angegeben werden kann.“
Nicht nur in der klinischen Medizin, sondern in vielen Forschungsbereichen werden Arbeiten veröffentlicht, die – trotz vager, sogar widersprüchlicher und begrenzter Beweise mit zugegebenen Schwächen im Studiendesign – endgültige numerische Ergebnisse angeben, die nicht besser als wilde Vermutungen sind. (Siehe die Studien von Jenna Jambeck über Plastik im Meer).
Und, vielleicht die größte Untertreibung und der am wenigsten zutreffende Gesichtspunkt in dieser Broschüre:
„Es besteht eine gewisse Verwirrung zwischen dem wissenschaftlichen und dem alltäglichen Gebrauch der Wörter ‚Unsicherheit‘ und ‚Risiko‘. [Dieser erste Satz stimmt – kh] In der Alltagssprache könnten wir sagen, dass etwas, das unsicher ist, riskant ist. Im wissenschaftlichen Sprachgebrauch bedeutet Risiko jedoch im Großen und Ganzen eine Unsicherheit, die in Bezug auf eine bestimmte Gefahr quantifiziert werden kann – für eine bestimmte Gefahr ist das Risiko also die Wahrscheinlichkeit, dass sie eintritt.“
Viel Konfusion
„Das Risiko ist die Chance, dass es passiert“. Ist das wirklich so? William Briggs weist in seinem Buch „Uncertainty: The Soul of Modeling, Probability & Statistics“ (etwa: Die Seele der Modellierung, Wahrscheinlichkeit und Statistik) darauf hin, dass für eine „Chance“ (d. h. eine „Wahrscheinlichkeit“) zunächst eine Aussage wie „Die Gefahr (der Tod) wird diesem Patienten widerfahren“ und klar dargelegte Prämissen erforderlich sind, von denen die meisten angenommen und nicht dargelegt werden, wie z. B. „Der Patient wird in einem modernen Krankenhaus behandelt, ist ansonsten gesund, der Arzt ist voll qualifiziert und verfügt über umfassende Erfahrung mit dem Verfahren, die Diagnose ist korrekt…“. Ohne vollständige Darlegung der Prämissen kann keine Wahrscheinlichkeitsaussage getroffen werden.
Vor kurzem habe ich hier zwei Aufsätze veröffentlicht, die sich mit der Unsicherheit befassen [Titel übersetzt]:
„Plus oder Minus ist keine Frage“ (hier) und „Grenzen des zentralen Grenzwertsatzes“ (hier).
Jeder von ihnen benutzte fast kindlich einfache Beispiele, um einige sehr grundlegende, wahre Punkte über die Art und Weise darzustellen, wie Ungewissheit verwendet, missbraucht und oft missverstanden wird. Ich hatte mit einem angemessenen Maß an Widerstand gegen diesen unverhohlenen Pragmatismus in der Wissenschaft gerechnet, aber die Heftigkeit und Hartnäckigkeit der Opposition hat mich überrascht. Wenn Sie diese verpasst haben, sehen Sie sich die Aufsätze und ihre Kommentare an. Keiner der Kritiker war in der Lage, ein einfaches Beispiel mit Diagrammen oder Illustrationen zu liefern, um seine konträren (fast immer „statistischen“) Interpretationen und Lösungen zu untermauern.
Wo liegt hier also das Problem?
1. Definition: In der Welt der Statistik wird die Unsicherheit als Wahrscheinlichkeit definiert. „Die Unsicherheit wird durch eine Wahrscheinlichkeitsverteilung quantifiziert, die von unserem Informationsstand über die Wahrscheinlichkeit abhängt, wie hoch der einzelne, wahre Wert der unsicheren Größe ist.“ [Quelle]
[In dem verlinkten Artikel wird die Unsicherheit kontrastiert mit: „Die Variabilität wird durch eine Verteilung der Häufigkeiten mehrerer Instanzen der Größe quantifiziert, die aus beobachteten Daten abgeleitet wird.“]
2. Falsche Anwendung: Die obige Definition wird falsch angewandt, wenn wir die absolute Messunsicherheit betrachten.
Der absolute Fehler oder die absolute Unsicherheit ist die Unsicherheit bei einer Messung, die in den entsprechenden Einheiten ausgedrückt wird.
Die absolute Unsicherheit einer Größe ist der tatsächliche Betrag, um den die Größe unsicher ist, z. B. wenn Länge = 6,0 ± 0,1 cm, ist die absolute Unsicherheit der Länge 0,1 cm. Beachten Sie, dass die absolute Unsicherheit einer Größe die gleichen Einheiten hat wie die Größe selbst.
Anmerkung: Die korrekteste Bezeichnung dafür ist absolute Messunsicherheit. Sie ergibt sich aus dem Messverfahren oder dem Messgerät selbst. Wenn eine Temperatur immer (und nur) in ganzen Grad angegeben wird (oder wenn sie auf ganze Grad gerundet wurde), hat sie eine unausweichliche absolute Messunsicherheit von ± 0,5°. Der als 87° gemeldete/aufgezeichnete Thermometerwert muss also seine Unsicherheit tragen und als „87° ± 0,5°“ angegeben werden – was gleichbedeutend ist mit „irgendeinem Wert zwischen 87,5 und 86,5“ – es gibt eine unendliche Anzahl von Möglichkeiten in diesem Bereich, die alle gleichermaßen möglich sind. (Die natürliche Welt beschränkt die Temperaturen nicht auf die Werte, die genau mit den kleinen Strichen auf den Thermometern übereinstimmen).
Würfeln für die Wissenschaft
Schauen wir uns ein einfaches Beispiel an – einen einzelnen Würfel und ein Würfelpaar zu werfen.
Ein einzelner Würfel (ein Würfel, normalerweise mit leicht abgerundeten Ecken und Kanten) hat sechs Seiten – jede mit einer Anzahl von Punkten: 1, 2, 3, 4, 5 und 6. Wenn er richtig hergestellt ist, hat er eine perfekt gleichmäßige Verteilung der Ergebnisse, wenn viele Male gewürfelt wird. Jede Seite des Würfels (Zahl) wird genauso oft mit der Seite nach oben gefunden wie jede andere Seite (Zahl).
Dies stellt die Verteilung der Ergebnisse von 1.000 Würfen mit einem einzigen fairen Würfel dar. Hätten wir etwa eine Million Mal gewürfelt, lägen die Verteilungswerte der Zahlen näher bei 1:6 für jede Zahl.
Was ist der Mittelwert der Verteilung? 3.5
Wie groß ist die Spanne des erwarteten Ergebnisses bei einem einzelnen Wurf? 3.5 +/- 2.5
Da jeder Wurf eines Würfels völlig zufällig ist (und innerhalb seiner Parameter nur ganze Werte von 1 bis 6 würfeln kann), können wir für jeden nächsten Wurf den Wert von 3,5 ± 2,5 [nur ganze Zahlen] vorhersagen. Diese Vorhersage wäre zu 100 % korrekt – in diesem Sinne gibt es keinen Zweifel daran, dass der nächste Wurf in diesem Bereich liegen wird, da es nicht anders sein kann.
Da es sich um einen reinen Zufallsprozess handelt, hat jeder Wert, der durch den Bereich „3,5 ± 2,5“ [nur ganze Zahlen] repräsentiert wird, die gleiche Wahrscheinlichkeit, bei jedem „nächsten Wurf“ aufzutreten.
Wie wäre es, wenn wir ein Paar Würfel werfen?
Ein Würfelpaar, zwei der oben beschriebenen Würfel, die gleichzeitig geworfen werden, haben eine Werteverteilung, die wie folgt aussieht:
Wenn wir zwei Würfel werfen, erhalten wir etwas, das wie eine unverzerrte „Normalverteilung“ aussieht. Hätten wir das Würfelpaar eine Million Mal gewürfelt, wäre die Verteilung näher an der vollkommenen Normalverteilung – sehr nahe an der gleichen Anzahl für 3er und 11er und der gleichen Anzahl für 2er wie für 12er.
Welches ist der Mittelwert der Verteilung? 7
Wie groß ist der Bereich des zu erwartenden Ergebnisses bei einem einzelnen Wurf? 7 ± 5
Da jeder Wurf des Würfels völlig zufällig ist (innerhalb seiner Parameter kann er nur ganze Werte von 2 bis 12 würfeln), können wir für jeden nächsten Wurf den Wert „7 ± 5“ vorhersagen.
Aber bei einem Würfelpaar ist die Verteilung nicht mehr gleichmäßig über den gesamten Bereich. Die Werte der Summen der beiden Würfel reichen von 2 bis 12 [nur ganze Zahlen]. 1 ist kein möglicher Wert, ebenso wenig wie eine Zahl über 12. Die Wahrscheinlichkeit, eine 7 zu würfeln, ist viel größer als eine 1 oder 3 oder 11 oder 12 zu würfeln.
Jeder Würfelspieler kann erklären, warum das so ist: Es gibt mehr Kombinationen der Werte der einzelnen Würfel, die 7 ergeben, als solche, die 2 ergeben (es gibt nur eine Kombination für 2: zweimal die 1 und eine Kombination für 12: zweimal die 6).
Würfeln in einer Schachtel
Um aus dem Würfelbeispiel eine echte absolute Messunsicherheit zu machen, bei der wir einen Wert und seine bekannte Unsicherheit angeben, aber den tatsächlichen (oder wahren) Wert nicht kennen (können), legen wir die Würfel in eine geschlossene Schachtel mit einem Deckel. Und dann schütteln wir die Schachtel (würfeln). (Ja, Schrödingers Katze und so weiter.) Wenn wir den Würfel in einen verschlossenen Kasten legen, können wir den Wert nur als eine Menge aller möglichen Werte angeben, oder als Mittelwert ± die oben genannten bekannten Unsicherheiten.
Wir können also unsere Werte für ein Würfelpaar als die Summe der beiden Bereiche für einen einzelnen Würfel betrachten:
Die arithmetische Summe von 3,5 ± 2,5 plus 3,5 ± 2,5 ist eindeutig 7 ± 5. (siehe meine Arbeit „Plus oder Minus ist keine Frage“). Dies ist die korrekte Handhabung der Addition der absoluten Messunsicherheit.
Es wäre genau dasselbe, wenn man zwei Gezeitenmessungen addiert, die eine absolute Messunsicherheit von ± 2 cm haben, oder wenn man zwei Temperaturen addiert, die auf ein ganzes Grad gerundet wurden. Man addiert den Wert und addiert die Unsicherheiten. (Es gibt viele Referenzen dafür. Versuchen Sie es hier.)
Statistiker (als Gruppe) bestehen darauf, dass dies nicht korrekt ist – „Falsch“, wie ein kluger Kommentator bemerkte. Die Statistiker bestehen darauf, dass die korrekte Summe lauten würde:
7 ± 3.5
Einer der Kommentatoren zu Plus oder Minus gab diese statistische Einschätzung ab: „die Unsicherheiten addieren sich IN QUADRATUR. Zum Beispiel: (25,30+/- 0,20) + (25,10 +/- 0,30) = 50,40 +/- SQRT(0,20² + 0,30²) = 50,40 +/-0,36 … Sie würden das Ergebnis als 50,40 +/- 0,36 angeben.
In Worten ausgedrückt: Die Summe der Werte, wobei die Unsicherheit als „Quadratwurzel der Summe der Quadrate der Unsicherheiten“ angegeben wird.
Versuchen wir also, dies auf unser einfaches Würfelproblem mit zwei Würfeln anzuwenden:
(3.5 ± 2.5) + (3.5 ± 2.5) = 7 ± SQRT (2.5² + 2.5²) = 7 ± SQRT(6.25 + 6.25) = 7 ± (SQRT 12.5) = 7 ± 3.5
(Der genauere Wert von √12,5 ist 3,535533905932738…)
Oh je. Das ist etwas ganz anderes als das Ergebnis, wenn man die Regeln für die Addition der absoluten Unsicherheiten befolgt.
Im blauen Diagrammkasten können wir jedoch sehen, dass die korrekte Lösung, die den gesamten Bereich der Unsicherheit einschließt, 7 ± 5 beträgt.
Wo weichen die Ansätze also voneinander ab?
Falsche Annahmen: Der statistische Ansatz verwendet eine Definition, die nicht mit der realen physikalischen Welt übereinstimmt: „Unsicherheit wird durch eine Wahrscheinlichkeitsverteilung quantifiziert“.
So sieht ein Statistiker das Problem:
Wenn es sich jedoch um absolute Messunsicherheiten handelt (oder, wie im Beispiel des Würfelspiels, um absolut bekannte Unsicherheiten – die Unsicherheit ist aufgrund der Beschaffenheit des Systems bekannt), führt die Anwendung der statistischen Regel des „Addierens in Quadratur“ zu einem Ergebnis, das nicht mit der Realität übereinstimmt:
Ein Kommentator des Aufsatzes Grenzen des zentralen Grenzwertsatzes begründete diese Absurdität wie folgt: „Die Wahrscheinlichkeit, dass beide Messungen um den vollen Unschärfewert in dieselbe Richtung abweichen, ist nahezu Null.“
In unserem Würfelbeispiel würden, wenn wir diesen Standpunkt anwenden, die Einsen und Sechsen unserer einzelnen Würfel in einem Paar mit einer Wahrscheinlichkeit von „nahe Null“ zusammenkommen (bei einem Wurf von zwei Würfeln), um die Summen 2 und 12 zu ergeben. 2 und 12 stellen den Mittelwert ± den vollen Unsicherheitswert von plus oder minus 5 dar.
Unser Verteilungsdiagramm der Würfelwürfe zeigt jedoch, dass 2 und 12 nicht einmal selten sind, auch wenn sie seltener vorkommen. Und dennoch können 2er und 12er bei Anwendung der „Quadraturregel“ für die Addition zweier Werte mit absoluter Unsicherheit einfach ignoriert werden. Wir können auch die 3er und 11er ignorieren.
Jeder Würfelspieler weiß, dass dies einfach nicht stimmt, denn die kombinierte Wahrscheinlichkeit, eine 2 oder 3 oder 11 oder 12 zu würfeln, beträgt 18 % – fast 1:5. Eine Wahrscheinlichkeit von 1:5 zu ignorieren, z. B. „die Wahrscheinlichkeit, dass der Fallschirm nicht funktioniert, beträgt 1:5“, ist töricht.
Falls wir die von Statistikern regelmäßig empfohlene „1 Standardabweichung“ (ca. 68 % – gleichmäßig auf beide Seiten des Mittelwerts verteilt) verwenden würden, müssten wir alle 2er, 3er, 11er und 12er und etwa ½ der 3er und 4er aus unserer „Unsicherheit“ eliminieren – die 34 % (>1-in-3) der tatsächlich erwarteten Würfe ausmachen.
Man beachte, dass wir in diesem Beispiel die gewöhnliche Unsicherheit eines zufälligen Ereignisses (Würfelwurf) in eine „absolute Messunsicherheit“ umgewandelt haben, indem wir unsere Würfel in eine Box mit einem Deckel gelegt haben, die uns daran hindert, den tatsächlichen Wert des Würfelwurfs zu kennen, uns aber erlaubt, die gesamte Bandbreite der Unsicherheit zu kennen, die mit der „Messung“ (dem Würfelwurf) verbunden ist. Genau das geschieht, wenn eine Messung „gerundet“ wird – wir verlieren Informationen über den gemessenen Wert und erhalten einen „Wertebereich“. Das Runden auf den „nächsten Dollar“ führt zu einer Unsicherheit von ± 0,50 $; das Runden auf das nächste ganze Grad führt zu einer Unsicherheit von ± 0,5°; das Runden auf die nächsten Jahrtausende führt zu einer Unsicherheit von ± 500 Jahren. Messungen, die mit einem ungenauen Werkzeug oder Verfahren durchgeführt werden, ergeben ebenso dauerhafte Werte mit einer bekannten Unsicherheit.
Diese Art von Unsicherheit lässt sich nicht durch Statistik beseitigen.
Unter dem Strich:
1. Wir scheinen von der Forschung immer eine Zahl zu verlangen – „nur eine Zahl ist am besten“. Dies ist ein miserabler Ansatz für fast jede Forschungsfrage. Der „Trugschluss einer einzigen Zahl“ (den ich, glaube ich, vor kurzem, in diesem Augenblick, geprägt habe. Korrigieren Sie mich, wenn ich falsch liege.) ist „der Glaube, dass komplexe, komplizierte und sogar chaotische Themen und ihre Daten auf eine einzige signifikante und wahrheitsgemäße Zahl reduziert werden können“.
2. Das Beharren darauf, dass alle „Unsicherheit“ ein Maß für die Wahrscheinlichkeit ist, ist eine verzerrte Sicht der Realität. Wir können aus vielen Gründen unsicher sein: „Wir wissen es einfach nicht.“ „Wir haben nur begrenzte Daten“. „Wir haben widersprüchliche Daten.“ „Wir sind uns über die Daten nicht einig.“ „Die Daten selbst sind unsicher, weil sie aus wirklich zufälligen Ereignissen resultieren.“ „Unsere Messinstrumente und -verfahren selbst sind grob und unsicher.“ „Wir wissen nicht genug.“ – Diese Liste ließe sich seitenlang fortsetzen. Fast keiner dieser Umstände lässt sich dadurch korrigieren, dass man so tut, als könne man die Ungewissheit als Wahrscheinlichkeiten darstellen und mit statistischen Ansätzen reduzieren.
3. Die absolute Messunsicherheit ist dauerhaft – sie kann nur durch bessere und/oder genauere Messungen verringert werden.
4. Durchschnittswerte (Mittelwerte und Mediane) neigen dazu, die ursprüngliche Messunsicherheit zu verschleiern und zu verdecken. Durchschnittswerte sind selbst keine Messungen und bilden die Realität nicht richtig ab. Sie sind eine gültige Sichtweise auf einige Daten – verbergen aber oft das umfassendere Bild. (siehe Die Gesetze der Durchschnittswerte)
5. Nur in den seltensten Fällen wird die ursprüngliche Messunsicherheit bei Forschungsergebnissen angemessen berücksichtigt – stattdessen wurde den Forschern beigebracht, sich auf die Vorspiegelung statistischer Ansätze zu verlassen, um ihre Ergebnisse präziser, statistisch signifikanter und damit „wahrer“ erscheinen zu lassen.
——————————–
Kommentar des Autors:
Ich würde mich wirklich freuen, wenn ich in diesem Punkt widerlegt werden würde. Aber bis jetzt hat noch niemand etwas anderes als „mein Statistikbuch sagt …“ vorgelegt. Wer bin ich, dass ich ihren Statistikbüchern widerspreche?
Aber ich behaupte, dass ihre Statistikbücher nicht über das gleiche Thema sprechen (und keine anderen Ansichten zulassen). Man muss schon ziemlich lange suchen, um die korrekte Methode zu finden, mit der zwei Werte mit absoluter Messunsicherheit addiert werden sollen (wie in 10 cm ± 1 cm plus 20 cm ± 5 cm). Es gibt einfach zu viele ähnliche Wörter und Wortkombinationen, die den Internet-Suchmaschinen „gleich erscheinen“. Das Beste, was ich gefunden habe, sind YouTubes zur Physik.
Also, meine Herausforderung an die Herausforderer: Nennen Sie ein kindlich einfaches Beispiel, wie ich es verwendet habe, zwei Messungen mit absoluten Messunsicherheiten, die zueinander addiert werden. Die Arithmetik, ein visuelles Beispiel für die Addition mit Unsicherheiten (auf einer Skala, einem Lineal, einem Thermometer, beim Zählen von Bären, Pokerchips, was auch immer) und zeigen Sie, wie sie physikalisch addiert werden. Wenn Ihre Veranschaulichung gültig ist und du zu einem anderen Ergebnis kommst als ich, dann haben Sie gewonnen! Versuchen Sie es mit den Würfeln. Oder mit einem Zahlenbeispiel, wie es in Plus oder Minus verwendet wird.
Link: https://wattsupwiththat.com/2023/01/03/unknown-uncertain-or-both/
Übersetzt von Christian Freuer für das EIKE
Wir freuen uns über Ihren Kommentar, bitten aber folgende Regeln zu beachten:
#Thomas Heinemann am 8. Januar 2023 um 9:40
„Führen Sie in Zukunft Ihre Gedanken so aus, dass der Interpretationsspielraum nicht sinnlos groß wird. Ansonsten verzichten Sie lieber auf Kommentare.“
Wer oder was sind Sie eigentlich, dass Sie glauben, anderen Menschen Kommandos geben zu können, was sie zu tun oder zu lassen haben? Möchten Sie vielleicht mit „Ihre Durchlaucht Thomas Heinemann“ angesprochen werden, falls sich jemand um Mittelwerte und den damit verbundenen falschen Anwendungen auseinandersetzt?
Ich denke, wenn es um Klimadaten und Klimaprognosen geht, kommen wir mit Würfeln, d.h. mit milden Zufälligkeiten, d.h. unterstellter Normalverteilung, nicht weiter. Hinter Klimaänderungen, da auf komplexen, rekursiven, Prozessen, also auf sehr wilden Zufälligkeiten aufbauend, stehen „höhere“ Wahrscheinlichkeitsverteilungen, mindestens Potenzverteilungen. Dadurch sind die zur Zeit ermittelten Erwartungswerte (Mittelwerte, etc.), mit den begrenzt vorliegenden Stichprobengrößen (Temperaturwerte, Zeitreihen dieser, in absolut unsicherer Form, …) in diesen chaotischen Systemen überhaupt nicht sicher aussagefähig. Die „Wetterwissenschaft“ weiß das und wirft für sinnvolle örtliche Prognosen spätestens nach 10 Tagen das Handtuch. Die heutige Mainstream-Klimawissenschaft ignoriert das Wissen der „Wetterwissenschaft“ und integriert Wetter zu Klima und ermächtigt sich sodann zu mathematisch und physikalisch völlig unhalt- und unbeweisbaren langfristigen und globalen Prognosen. Belegt diese Prognosen zum Teil mit teil-ehrlichen riesigen Schwankungsbreiten (Unsicherheiten) verbunden mit der Forderung nach mehr und größerer Rechentechnik und Fördergeldern zur angeblichen Beseitigung dieser Unsicherheiten, was aber an sich unmöglich ist. Lobbyisten entfernen alle Unsicherheit aus den Prognosen, verkürzen und übergeben an die Politik, dabei verdienen sie sehr gut. Ideologen, Parteien und Politik nutzen das nunmehr vorliegende todsichere Prognoseergebnisse zur Panikmache und in allseits bekannter Manier zur Befriedigung eigner Interessen durch klimarettungsbegründete Umverteilungsmaßnahmen, d.h. Ausbeutung, Enteignung und Disziplinierung auf der einen Seite und Zufluss von Reichtum und Posten auf der anderen Seite. Dem schließen sich in der Folge unendlich viele Trittbrettfahrer an (NGOs, Banken, Behörden, Verbände, …).
So ist sodann die historische Mission der Klimarettung geboren. Sie wird von (fast)allen gesellschaftlichen Kräften befürwortet, begründet und gelebt, sei es Wissenschaft, Philosophie, Soziologie, Kunst, Kirchen, Erziehung, … . Politik setzt das ganze sodann in planwirtschaftliches Handeln um. Ausschalten lässt sich das ganze dann nicht mehr im gesellschaftlichen Diskus, sondern nur mehr in einer gesamtgesellschaftlichen Krise. Das kann dauern und heftig werden.
Wir haben solch einen vergleichbaren gesellschaftlichen Prozess in jüngerer Vergangenheit, 1917 – 1989, in Form der Historischen Mission der Arbeiterklasse, in den sozialistischen planwirtschaftlichen Staaten erlebt bzw. gar miterlebt. Es sei hier an die vielen Toten und die allumfassende Wohlstandsvernichtung in mehreren Generationen erinnert. Ähnliches steht offenbar bevor, oder?
Herr Lange
Ihr Argument basiert auf falschen Voraussetzungen, denn Wetter ist nicht Klima.
Eine Klimaprognose prognostiziert die Statistik des Wetters (=Klima) und nicht das Wetter. D.h. die Klimaprognose stimmt, wenn die Ergebnisse nicht das Wetter in seinem tatsächlichen Ablauf richtig vorhergesagt werden, sondern nur die Wetterlagen-Statistik (als Statistik von Messwerten).
Übertragen auf den einfachen Versuch mit zwei Würfeln und der Augensumme als Ergebnis. Die zeitliche Abfolge der Augensumme von aufeinanderfolgenden Zweifachwürfen entspricht dem Wetter, die Statistik dieser Ergebnisse dem Klima. Der Unterschied zwischen Würfeln und Wetter ist – wie Sie schon sagten, aber in Wirklichkeit ist es andersherum -, dass das Würfeln mit idealen Würfeln komplett zufällig ist: jeder Wurf ist unabhängig von den Ergebnissen der Vergangenheit. Das Wetter ist hingegen über vielleicht 10 Tage deterministisch vorhersagbar, und es ist zudem autokorreliert. Die Klimavorhersage stimmt dann, wenn die Wttervorhersage nach 10 Tagen zwar nicht stimmen muss, aber zumindest ein Wetter vorhersagt, welches zur Klimavorhersage passt, also z.B. nicht Schnee im Sommer vorhersagt, sondern ein Sommerwetter.
Der gewichtigere Unterschied zwischen Wetter und Würfel ist jedoch, dass beim Würfeln die Randbedingungen bekannt und fix sind. Nämlich zwei Würfel mit den Augenzahlen jeweils von 1 bis 6. Damit ist die Statistik determiniert! Man kann zwar nicht vorhersagen, was als nächstens gewürfelt wird, aber man weiß exakt, dass die Ergebnisverteilung mit mehr Versuchen gegen die theoretisch zu erwartende Verteilung strebt. Die Randbedingungen bei Wetter ändern sich langfristig jedoch, z.B. weil die Treibhausgase ansteigen. Damit verschiebt sich langfristig die Verteilung der Wettervorhersagen, was nichts anderes als Klimaänderung ist. Wenn man aber die Änderung der Randbedingungen kennt (annimmt), kann man Klimaprognosen (Klimaszenarien) mit Wettervorhersagemodellen machen.
Zwischen Wettersimulationen und Klimasimulationen gibt es einen entscheidenden Unterschied: Den Wahrheitsgehalt der Wettersimulationen kann man überprüfen und weiß, dass alle Prognosen über 10 Tage sich deutlich der 50% Marke bei der Trefferquote nähert, und über 30 Tage keinen Wert haben, man kann voraussagen was man will und es nimmt keiner übel, wenn es anders kommt.
Die unüberprüfbaren Klimasimulationen haben alle keinen Wert, wer daran glaubt, ist selbst daran schuld bzw. hat sie selbst erstellt und glaubt, die Schöpfung nachgemacht zu haben!
Was reden sie denn da?
Natürlich kann man auf diesem Bezugszeitraum die gleichen Qualitätsmaße wie für eine Wettervorhersage angeben. Bis auf das Skalenniveau und die damit einhergehende Aggregation ist da kein Unterschied. Sie können Klimasimulationen übrigens auch rückwirkend betreiben und mit Proxydaten vergleichen. Baumringe und Fossilien lassen nämlich nur einen Rückschluss auf Klima zu, nicht aber auf Wetter.
Lesen Sie den Beitrag von Herrn Gert Lange vom 9.1. um 2:05 Uhr. Es sind die gleichen Gedanken, nur besser und ausführlicher formuliert.
Darüber hinaus war ich über Jahrzehnte für den finanziellen Erfolg von komplexe Software verantwortlich, und ich kann es, Programmierer zu zwingen, ihre Software so lange zu trimmen, bis exakt das herauskommt, was der zahlende Kunde erwartet, ohne Rücksicht auf die eigenen Meinung. Daher ist mir vielleicht besser als der Mehrheit klar, dass Software immer das errechnet, war der Entwickler bzw. sein Chef will. Daher ist ein Programm(Simulations)-Ergebnis nur dann kompatibel mit der Wirklichkeit, wenn man jeden Schritt mit der Wirklichkeit vergleichen kann.
Simulationen sind grundsätzlich nur sinnvoll, wenn man bekannte Prozesse mit echt gemessenen Daten simuliert. Werden gemessene Daten zunehmend durch simulierte Daten ersetzt, wird das Ergebnis immer mehr zu Schrott. Das Wetter von morgen wird aufgrund der heutigen Echtdaten berechnet und man ist daher nahe der Wirklichkeit, die gleiche Simulation 20 Tage weitergeführt, nunmehr auf Basis der simulierten Daten, ist nur noch für den Papierkorb.
Klimasimulationen sind von Hause aus Schrott, da man einen unbekannten Prozess simuliert. Also nicht die natürlichen Prozesse abgebildet, da man sie nicht kennt, sondern mit der Kunst der Entwickler Verläufe der Geschichte nachstellt, besser, nachgeschummelt. Ein Abgleich mit der Wirklichkeit findet nicht wirklich statt, man stellt nur fest, die Erwärmung die man vor 15 Jahren vorausgerechnet hat, nicht wirklich stattgefunden hat.
Zum Schluß geht es nur um Geld, wie Herr Lange richtig ausgeführt hat. Würde eine Klimasimulation keine Erwärmung anzeigen, bekommt man keine Förderung mehr. Würde die Klimakirche eine neue Eiszeit als Katastrophe an die Wand malen, würden alle Simulationen, der gleichen Autoren wie heute, geschlossen eine Abkühlung zeigen. Die Mehrheit glaubt eben gern an Glaskugeln, und Glaskugelbetreiber leben immer besser, früher wie heute.
Herr Georgiev, Sie müssen sich mal entscheiden. Sie vertreten Hü und Hott gleichermaßen. Ein Abgleich zwischen Simulation und Realität ist nicht möglich, oder doch möglich und fällt dann negativ aus. Wo lernt man denn solch ein Doppeldenk?
Herr Lange,
denkende Menschen koennen ihnen nur, ohne Arroganz zu zeigen, zustimmen.
Wir retten das Klima, egal wie viele Tote es kostet!
Egal was es der Gesellschaft kostet!
Egal ob Klima ueberhaupt gerettet werden kann, wovor, warum?
Danke fuer ihren super Beitrag!
Wenn man die Ergebnisse der „1000 Wurf mit einem Würfel“ betrachtet (oberste Grafik) da fallen Gleichmäßigkeit auf, die u.U. mit einer „inneren Gewichtsverteilung“ des Würfels Ursache sein könnten.
2 + 5 = höchste Häufigkeit, 2 und 5 liegen sich im Würfel gegenüber.
3 + 4 = zweithöchste Häufigkeit, auch 3 und 4 liegen sich gegenüber
1 + 6 = niedrigste Häufigkeit, bekanntlich liegen sich diese Zahlen auch gegenüber.
Ist das Zufall, oder?
Na ja, der Autor wirft mal wieder zwei verschiedene Dinge in denselben Topf, um daraus einen Zwist zu konstruieren, den es in der Fachkunde gar nicht gibt.
1. unter der absoluten Unsicherheit versteht Kip nichts anderes als die Wertemenge. Also die Menge aller grundsätzlich möglichen Ergebnisse unabhängig von der Wahrscheinlichkeit ihres Auftretens in der Praxis.
2. Die statistische Unsicherheit hingegen berücksichtigt die Wahrscheinlichkeit des Auftretens der möglichen Ergebnisse in der Praxis. Danach wird die Unsicherheit bzw. komplementär dazu der Genauigkeitsbereich zu einer vorgegebenen Wahrscheinlichkeit angegeben: in 95% der Fälle liegt das Ergebnis zwischen Cl und Cu. Je höher die Wahrscheinlichkeit angesetzt wird, desto weiter liegen Cl und Cu auseinander und das Intervall (Cl, Cu) umfasst jedes Intervall mit geringerer Wahrscheinlichkeit.
Das Intervall mit der Wahrscheinlichkeit 100% („sicher“) ist mit dem Intervall der absoluten Ungenauigkeit von 1. identisch.
Aber welche der beiden Unsicherheitmaße 1. oder 2. ist praxisreleventer?
Kip meint 1., die Statistiker und messende Wissenschaftler nehmen meistens 2.
Nehmen wir Kips Beispiel mit den Würfeln in der Box, bei denen man die Summe der Augenzahl unabhängig von der Kombination der einzelnen Würfelaugenzahlen als Ergebnis nimmt. Kip hat schon mit einem und zwei Würfeln argumentiert und meinte, bei zwei Würfeln sei die absolute Unsicherheit 7 ± 5 die relevantere Angabe und nicht das Intervall (3.5 ± 2.5) + (3.5 ± 2.5) = 7 ± SQRT (2.5² + 2.5²) = 7 ± SQRT(6.25 + 6.25) = 7 ± (SQRT 12.5) = 7 ± 3.5, welches nur einen Wahrscheinlichkeitsbereich eingrenzt, aber die selteneren aber dennoch auftretenden Ergebnisse nicht mit einschliesst.
Ok, ja und? Beide Intervalle sind wie gesagt gültig; sie geben einfach nur unterschiedliche Ungenauigkeitsdefinitionen an. Daher gibt es keinen Zwist. Nur warum bevorzugen Statistiker i.d.R. Definition 2. als Angabe? Ist es wirklich so, dass man – wie Kip es vermutet – den gesamten (absoluten) Unsicherheitsbereich „verschleiern“ will und daher 2. wählt? Oder nimmt man 2. , weil 1. schon bekannt, i.d.R. aber uninteressant ist?
Erhöhen wir für unsere Urteilsbildung die Zahl der Würfel in der Box von 2 auf 200. Die kleinstmöglich auftretende Augensumme beträgt 200, nämlich wenn alle 200 Würfel die Augenzahl 1 haben, die höchstmögliche beträgt 1200, wenn alle 6 haben. Die Wahrscheinlichkeit für das Auftreten des Ergebnisses 200 bzw. 1200, also den Grenzpunkten der absoluten Unsicherheit, beträgt jeweils (1/6)^200 = 2,3*10^-156 (das ist unwahrscheinlicher als ein einzelnes bestimmtes Atom nach gutem Vermischen im gesamten Universum darin wiederzufinden). Die wahrscheinlichste beträgt 3,5×200 = 700. Somit beträgt Kips absolute Unsicherheit 700 ± 500, wobei sich jetzt schon jeder fragt, worin die praktische Relevanz darin besteht, in die Unsicherheitsgrenzen von ± 500 auch noch die heillos unwahrscheinlichen Fälle mit einschließen zu wollen…
Insgesamt haben wir überschaubare 1001 mögliche Ergebnisse für die Augensumme: von der einen Kombination 1+1+1+…+1 = 200 für die Augensumme 200, über die 200 Kombinationen für Augensumme 201: 2+1+1+…+1 = 1+2+1+…+1 = … = 1+1+1+…+2 = 201 bis wieder nur genau eine für 6+6+6+…+6 = 1200.
Zum Motivieren einer persönlichen Urteilsbildung, welches Intervallangabe (1. oder 2.) mehr praktische Relevanz hat, sei nun mit dem Augensummenergebnis eines Boxversuches – aber jetzt mit den 2000 Würfeln darin – eine Chance verknüpft. Bei 2000 Würfeln gibt es 10001 mögliche Augensummenergebnisse (2000 bis 12000).
Die Chance besteht darin: Jeder Mitspieler zahlt 100 Euro in den Pott und darf sich dafür von den nunmehr 10001 möglichen Zahlenergebnissen 300 daraus (etwa 3%) aufschreiben. Den Pott gewinnt der Mitspieler (mehrere Gewinner teilen sich ihn), der unter den 300 aufgeschriebenen Zahlen das Ergebnis des Versuches notiert hat.
Mit Kips absolute Unsicherheitsangabe von 2000 bis 12000, würden Sie sich trauen, das Spiel einzugehen? Welche 3% der möglichen Ergebniszahlen würden Sie auswählen und warum?
Was haben Sie dagegen, wenn Fehler korrigiert oder Aussagen präzisiert werden? Statt sich angegriffen zu fühlen, tragen Sie doch einfach zu einer sachgerechten Aufklärung bei.
Auch durch eine Anrede lösen Sie Ihr Problem nicht, die Thematik nicht fachgerecht anzugehen. Kümmern Sie sich nicht um mich, sondern um den Inhalt Ihre Beiträge.
Was ist denn nun mit meinem eigentlichen Kommentar zu Ihrem Beitrag, haben Sie damit etwas dazugelernt oder haben Sie ihn nicht verstanden? Wenn letzteres, so fragen Sie. Falls umgekehrt ich Sie missverstanden haben sollte, so zeigen Sie mir, wo ich irren sollte. Aber bleiben Sie bitte sachlich.
Ich sehe, niemand hat Kips bzw. meine Präzisierung dazu verstanden oder ist auf die damit verknüpfte Wette eingegangen.
Der Clou seines Artikels scheint nicht verstanden worden zu sein. Dabei ist es wichtig, den Unterschied zwischen der „Kipschen“ und der Gaußschen Fehlerrechnung zu verstehen, denn letztere beherrschen viele hier nicht und verstehen wie Kip den Sinn nicht.
Der wichtigste Satz in diesem hoch interessanten Essay:
„1. Wir scheinen von der Forschung immer eine Zahl zu verlangen – „nur eine Zahl ist am besten“. Dies ist ein miserabler Ansatz für fast jede Forschungsfrage. Der „Trugschluss einer einzigen Zahl“ (den ich, glaube ich, vor kurzem, in diesem Augenblick, geprägt habe. Korrigieren Sie mich, wenn ich falsch liege.) ist „der Glaube, dass komplexe, komplizierte und sogar chaotische Themen und ihre Daten auf eine einzige signifikante und wahrheitsgemäße Zahl reduziert werden können“.
Diesen Satz sollten alle Wissenschaftler verinnerlichen, die sich immer noch an sog. Global-Temperaturen ereifern, mit und ohne Weltuntergangs-Prognose. Noch schlimmer, wenn sie mit auf eine Zahl reduzierten Parametern anschließend noch weitere mathematische Verknüpfungen vornehmen und dann in ihrem Übermut, tatsächlich aber ungebildeter Physik glauben, die Zukunft eines ganzen Planeten vorhersagen zu können.
Da liefert jede Glaskugel oder jeder Veitstanz bessere Ergebnisse!
—-
„Korrigieren Sie mich, wenn ich falsch liege.„
Sehr geehrter Herr Hansen,
Sie liegen nachweislich nicht falsch, es gibt genügend erprobte Beispiele in der Elektrotechnik, wo die Richtigkeit Ihrer Aussage bei der Reduktion von stochastisch gebildeten Größen bei entsprechend stochastisch ablaufenden Prozessen auf einen Mittelwert falsch und damit unzulässig ist. Nur bei Parametern die angeblich unser Klima beschreiben sollen, ist man eben noch nicht dahinter gekommen. Wahrscheinlich ist ein PIK mit seinen vielen Mitarbeiten dazu immer noch überfordert, wir müssen den weiteren Ausbau des PIK in Potsdam beschleunigen. Dann können wir mit besseren Ergebnissen rechnen. Bei den Windrädern soll das ja auch der Fall sein. – Wenn etwas nicht taugt, braucht man einfach mehr davon!
„sog. Global-Temperaturen“
Herr Professor, wenn Sie sich ein Bild machen wollen, ob die Wohnung kalt oder warm ist, dann messen Sie die Temperatur – möglichst an einer Stelle, die repräsentativ ist. Ist die Wohnung groß, dann messen Sie evtl. an mehreren Stellen und bilden einen mehr oder weniger korrekten Mittelwert. Wie wollen Sie sonst eine Aussage treffen, wie warm die Wohnung ist? Und ob es in der Wohnung kälter oder wärmer wurde? Noch besser machen es Satelliten, sie messen die Lufttemperatur über dem Boden und zwar ziemlich flächendeckend. Deshalb, finde ich, ist die grundsätzliche Kritik an einer mittleren Global-Temperatur übertrieben. Wie wollen Sie sonst feststellen, ob es auf dem Planeten insgesamt kälter oder wärmer wurde? Dass bei der Temperatur-Ermittlung häufig besch…. wird, das ist ein anderes Kapitel.
Sehr geehrter Herr Dr. Ullrich,
brauchbare Ergebnisse bei der Messung von Durchschnittstemperaturen sind nur möglich in relativ geschlossene Systeme mit relativ homogenen Temperaturverlauf. In meiner früheren DDR Wohnung hätten Sie eine solche nicht messen können. Unten in der Nähe der undichten Balkontür war es sehr kalt, kurz unter der Decke war es wesentlich wärmer als auf Körperhöhe.
Wenn Sie die Temperatur einer heißen Suppe messen wollen, machen Sie ohne Überlegungen den Fehler, das Thermometer mittig positionieren, so wie meine Kinder den Löffel und sich dabei regelmäßig die Zunge verbrennen. Ich als geübter Suppenesser nehme nur am Rande und bin schon fertig, während die Kinder immer noch pusten. Nur wenn Sie vor dem Messen die Suppe umrühren, bekommen Sie ein Ergebnis nah an der Wirklichkeit.
Die die Atmosphäre nicht umgerühert wird, ist keine reelle Messung möglich.
Sie sagen also jedem Meteorologen, dass die unzähligen Messungen mit Wetterballons alle für die Katz waren. Und als Begründung muss mal wieder die eigene Wohnung herhalten. Man fasst es nicht!
Hermann, um den Menschen in einem braven Stimmvieh und anspruchlosen Verbraucher, der jedem Trend nachläuft um die Börsenkurse zu heben, zu verwandeln, muss man das analytische Denken und jeden Ansatz von Logik nachhaltig ausrotten. Ansonstan merkt jemand vielleicht noch, dass Fleischverzicht die Welt nicht wirklich rettet. Im Westen ist dieser Prozess weit fortgeschritten und Sie sind ein leuchtendes Beispiel.
Man braucht keine Physik, sondern nur einen Funken Logik um zu verstehen, dass man weder bei einem Teller Suppe, schon gar nicht bei der Atmosphäre einen mittleren Temperaturwert ohne Weiteres messen kann. Messen Sie bei der Suppe in der Mitte 70 und am Rande 40 Grad, bedeutet das nur, dass die mittlere Temperatur dazwischen liegt. nicht mehr! Ist der größte Teil der Suppe heiß, kann der Mittelwert bei 65 liegen, es kann aber umgedreht sein. Aus wenige Stichproben einen Mittelwert zu berechnen ist Schwachsinn. Man muss genau ermitteln, welcher Anteil x Grad hat, welcher y, möglichst fein gegliedert. Bei der Suppe kann man umrühern, dann misst man den Mittelwert. Je größer die Abweichungen, um so schwieriger einen Temperaturmittel zu finden. Und beim Angebot der Atmosphäre von 50 bis – 50, und im größten Teil davon, weit weg von Siedlungen und Schiffrouten, wird schon mal überhaupt nicht gemessen! Es steht aber irgendwo ein Wert und man will es glauben, weil Nachdenken zu schwer ist!
Aber wie gesagt, könnte man denken, müsste man so vieles was man hört und liest, anzweifeln. Daher ist das Denken hier ziemlich ausgerottet.
Aha, also abseits der Schiffsrouten messen die Satelliten nichts. Is klar, Herr Georgiev. Sie amüsieren mich.
Was denn nun, Satelliten oder Wetterbalons?
Beides sind nur Stichproben, und aus den höchst unterschiedlichen Werten wird ein Mittelwert errechnet, der auch 10K daneben liegen kann
Herr Georgiev, wie wollen sie denn eine Verteilung ohne Stichproben erfassen? Es geht nun mal nicht anders. Und die Verteilung der Temperaturen hat nun mal Lage- und Streuungsmaße. Gab es das in der DDR nicht? Konnte man dort die Stichproben nicht mit anderen, älteren Stichproben vergleichen und schlussfolgern, dass es im Mittel wärmer oder kälter geworden ist?
Hr. Dr. Ullrich,
der grundsätzliche Fehler der Klima“Wissenschaftler“ liegt darin, überhaupt die Temperatur als Bezugsgrösse in den Vordergrund zu stellen. Die einzig wirklich relevante Grösse ist Energie. Temperaturen werden nur deshalb immer noch als Hauptkriterium gesehen, weil systematische Temperaturmessungen bereits lange vorgenommen wurden, bevor die moderne Physik und Chemie entwickelt wurden.
Entscheidend für die Frage, ob unsere Erde im Energiegleichgewicht ist oder nicht, sind doch Bestimmungen der Enthalpie und Entropie aller für diese Aspekte relevanten Stoffe. Luft hat die geringste spez. Wärmekapazität und die Bestimmung ihrer Temperatur in 2 m Höhe ist angesichts der ständigen Veränderung der Gradienten untauglich. Der Erdboden wird im Tagesrhythmus bis in rund 1 m Tiefe aufgeheizt wieder abgekühlt, im Jahresrhythmus geht dies sogar bis in mehr als 12 m Tiefe. Bei den Ozeanen gehen diese Einflüsse sogar noch viel tiefer, und sowohl Erde als auch Ozeane haben massiv höhere Wärmekapazitäten als die Luft. Hinzu kommt die Verdampfung und Kondensation des Wassers mit enormer Verdampfungsenthalpie, die sich jedoch der Temperaturmessung gänzlich entzieht.
Jegliche Klimabetrachtung, welche sich lediglich auf Lufttemperaturen bezieht, ist demnach von vornherein Unsinn.
Da das offenkundig in der Klimawissenschaft nicht der Fall ist, ist Ihre Aussage sinnfrei. Informieren Sie sich vorher über den Stand der Wissenschaft, dann können Sie sich sinnlose Kommentare sparen.
#Anton Pirol am 7. Januar 2023 um 12:0
„Die einzig wirklich relevante Grösse ist Energie.“
…. und nur darauf kommt es an. Es ist naheliegend, dass man sich mit solchen physikalischen Grundsätzen sehr viele Gegner macht, da das Messen von Temperaturen viel einfacher ist, als das Bestimmen der jeweiligen Energie, die diejenigen Teilkörper haben, auf welche sich die jeweils gemessene Temperatur bezieht.
Das Adjustieren, Homogenisieren und Verbiegen von Temperaturen oder deren Mittelwerten bis hin zu globalen Temperatur-Mittelwerten, ist eine unglaublich große Spielwiese, auf der sich zahlreiche Leute tummelen und sicher auch sehr viel Arbeit hinein gesteckt haben. Unter der jahrelangen Arbeit rund um Temperatur-Mittelwerte, Strahlung und Gegenstrahlung haben sie dann vergessen, dass ihr physikalischer Ansatz zur Bestimmung einer Erwärmung oder Abkühlung im Sinne von Energiezunahme oder Energieabnahme vom Grundsatz her falsch ist. Aus menschlicher Sicht ist es verständlich, dass die endlos falsche Rechnerei mit den größten und schnellsten Computern dann doch nur Humbug ist, aber auf Teufel komm heraus verteidigt wird.
Eine einfache erste Frage an die Temperatur-Mittelwertbildner: In einem Raum misst man an 2 unterschiedlichen Stellen 292K und 302K. Wenn man die beiden jetzt addiert ergibt sich der Skalar 594. Sind das immer noch Kelvin?
Und die einfache zweite Frage: Die Energien in 2 Gefässen mit 1l Wasser und 10 l Wasser betragen 1kWh und 15kWh. Wenn man die beiden Energien addiert, ergibt der Skalar das Ergebnis 16 und man staune, es sind immer noch kWh, also Energie!
Sehr geehrte Herren,
ich hoffe, dass ich nicht aus Versehen hier eine Dame übersehen habe.
Mit Freude habe ich diese Diskussion verfolgt. Sie zeigt mir eines, und da bin ich mir mit allen Teilnehmern und Lesern sicher einig, in der Wissenschaft sind vielfältige Meinungen und Positionen die Regel. Eine Übereinstimmung von 97% der Wissenschaftler als einen Beweis herzunehmen, ist die Durchsetzung einer politischen Agenda und keine Wissenschaft.
Meine Position zur „Vorausberechnung“ der Zukunft, also des Klimas in 50 oder 100 Jahren, ist die, dass dies m. E. nach nicht möglich sein wird. Schon allein die vielen Nichtlinearitäten in den Klimamodellen sprechen dagegen. Zudem sind längst nicht alle Einflüsse bekannt. Neulich las ich in einem Buch über Gesteine, dass unter den Bedingungen der Hochtemperaturmetamorphose noch unbekannte Quellen für Kohlendioxid existieren können. Das weiß man erst seit den 90er Jahren. Deren Größe und Ausmaß sind nahezu unbekannt.
Die Rolle des Kohlendioxides wird m. E. nach auch überschätzt. Leider ist an diese Frage ein politisches Programm der Umverteilung gekoppelt, die Protagonisten prostituieren dafür die Wissenschaft und verleumden die wissenschaftliche und gesellschaftliche Meinungsvielfalt.
Ich hoffe, dass der Angriff auf die Demokratie und den Pluralismus abgewehrt werden kann und wünsche Ihnen noch einen fruchtbringenden Gedankenaustausch!
Wolfram Härtel
Das ist zu einfach. Für die Klimaphysik sind weitaus mehr Größen als nur die Energie relevant. Wichtig ist auch, auf welche Energieformen sich die Gesamtenergie aufteilt und wie die Kaskadierung abläuft. Klimamodelle werden daran getestet.
Ja, die Einheit bleibt die gleiche. Aber einfach addieren ist sinnlos. Wenn die beiden Messwerte repräsentativ für zwei Teilvolumina des Raumes wären, wäre das volumen- bzw. massegewichtete Mittel sinnvoll.
Und wo ist da die Frage?
Möchten Sie den unterschiedlichen Sinn oder Unsinn zwischen der Addition von intensiven und extensiven Größen thematisieren?
…. und was nützt mir Ihr Mittelwert, wenn ich mich in dem Bereich aufhalte oder aufhalten muss, der eine niedrigere Temperatur hat? Physik kennt Augenblickswerte und mit denen kann man etwas anfangen, alles andere ist nur etwas für Menschen die sich an Zahlen erfreuen können. Je größer das komplexe System, desto größer ist die Freude an genau nur einer einzigen Zahl. Ist man ja vielleich vom Bankkonto so gewohnt, hilft aber beim Versuch einer wirklichen Erkenntnis über den Energiezustand eines Globus genau keinen Millimeter weiter.
Sie liegen hier zweifach falsch
1. aus der globalen Mitteltemperatur können alleine keine detaillierten Schlüsse für das regionale Klima gezogen werden. Für die regionale Klimaentwicklung existieren bekanntlich regionale Klimamodelle
2. Eine „Weltuntergangs-Prognose“ ist eine suggestive und vergröbende (und damit sinnfreie) Umschreibung. Führen Sie in Zukunft Ihre Gedanken so aus, dass der Interpretationsspielraum nicht sinnlos groß wird. Ansonsten verzichten Sie lieber auf Kommentare.
#Thomas Heinemann am 8. Januar 2023 um 9:40
„Sie liegen hier zweifach falsch“
Ihre Behauptung begründen Sie erst gar nicht, sonder treiben sich unter 1. und 2. auf ganz anderen Baustellen herum.
„Ansonsten verzichten Sie lieber auf Kommentare.“ … wäre vielleicht eher eine Anregung für Sie selbst.
Herr Heinemann,
Sie vergessen sich!
Solche „suggestiven und vergröbernden (und damit sinnfreien) Umschreibungen“ sind doch die Domäne des Prof. Schellnhuber, dargelegt in seinem Buch „Selbstverbrennung“. Prof. Schellnhuber ist, wie Ihnen eigentlich bekannt sein sollte, anerkannter „Papst“ der Klimawissenschaften, ehemaliger Chef des hochwissenschaftlichen „Potsdam Instituts für Klimafolgenforschung“ (PIK), entscheidender Berater der „Klimakanzlerin“ Merkel und weltweit angesehener und hochdekorierter Publizist und Vortragender auf allen nur denkbaren Konferenzen.
Halten Sie uns doch bitte nicht für beschränkt.
„Selbstverbrennung“. von Prof. Schellnhuber ist offensichtlich keine wissenschaftliche Arbeit. Sie beziehen sich falsch. Ich kenne das Buch nicht, aber wahrscheinlich hat es einen Annex mit wissenschaftlichen Belegen. Die sind relevant.
Wenn Schellnhuber glaubt, er müsse eine markige Sprache wählen, so ist das seine Sache, es ist jedenfalls keine Wissenschaft. Sie müssen schon das richtige lesen.
Das wäre eine von zwei möglichen Erklärungen. Wobei diese die für Alle günstigere Alternative darstellt.
Ich habe Sie so verstanden, dass Sie die von Ihnen zitierte Aussage
beispielhaft auf die globale Mitteltemperatur anwenden und daran eine analoge Schlußfolgerung ableiten wollen, indem Sie behaupten, die Wissenschaft wolle mit der globalen Mitteltemperatur alleine das komplexe Klimasystem beschreiben. In meinem 1. habe ich Sie darüber informiert, dass Ihr Beispiel nicht zutrifft. Ich denke nicht, dass diese öffentlich zugängliche Information noch einer Begründung bedarf.
Zu meinem 2.. Der Begriff „Weltuntergangs-Prognose“ existiert in den Klimawissenschaften nicht. Es ist Ihre Umschreibung von wahrscheinlich verschiedenen Risiken, die die Wissenschaft für die Biosphäre und den Menschen aufgrund einer deterministisch gegebenen Klimaentwicklung sehen, wenn THGs weiter steigen werden und andere Klimafaktoren sich nicht unversehens kompensatorisch entwickeln. Führen Sie in Zukunft Ihre Gedanken so aus, dass Sie sich auf das konkrete Risiko beziehen.
Dann sind das also keine Wissenschaflter. die anhand der globalen Mitteltemperatur die globale Kathastrophe glaskugelesen?
Na dann ist ja gut.
Vielleicht sollten sie ihre Erkenntnisse bei den Medien darlegen!
Und wenn sie ein Wissenschaftler in dem Bereich sind, waere es Zeit nicht, nur hier, sondern auch in Ihrem Fachbereich, als Physiker?, den Mund aufzumachen!
„Wenn wir zwei Würfel werfen, erhalten wir etwas, das wie eine unverzerrte „Normalverteilung“ aussieht. Hätten wir das Würfelpaar eine Million Mal gewürfelt, wäre die Verteilung näher an der vollkommenen Normalverteilung – sehr nahe an der gleichen Anzahl für 3er und 11er und der gleichen Anzahl für 1er wie für 12er.“
Ich denke, es muss „…. und der gleichen Anzahl für 2er wie für 12er“ heißen. „1“ als Ergebnis bei 2 Würfeln gibt es nur, wenn ein Würfel vom Tisch gefallen und verschwunden ist!
Danke für den Hinweis, ist korrigiert.