Unbekannt, unsicher – oder beides?

Kip Hansen

[Alle Hervorhebungen in diesem Beitrag im Original!]

„Menschen verwenden Begriffe wie ’sicher‘, um ihre Unsicherheit über ein Ereignis zu beschreiben … und Begriffe wie „Zufall“, um ihre Unsicherheit über die Welt zu beschreiben.“ – Mircea Zloteanu
In vielen Bereichen der Wissenschaft wird heute das Wort „Ungewissheit“ in den Mund genommen, ohne dass darüber nachgedacht wird, was mit „Ungewissheit“ gemeint ist, oder zumindest ohne dass dies zum Ausdruck gebracht wird. Diese einfache Tatsache ist so bekannt, dass eine Gruppe in UK mit der Bezeichnung „Sense about Science“ eine Broschüre mit dem Titel „Making Sense of Uncertainty“ (.pdf) veröffentlicht hat. Die Gruppe „Sense about Science“ setzt sich für evidenzbasierte Wissenschaft und Wissenschaftspolitik ein. Die 2013 veröffentlichte Broschüre Making Sense of Uncertainty ist leider ein nur vage getarnter Versuch, den Klimaskeptizismus auf der Grundlage der großen Unsicherheiten in der Klimawissenschaft zu bekämpfen.

Nichtsdestotrotz enthält sie einige grundlegende und notwendige Erkenntnisse über Unsicherheit:

Michael Hanlon: „Wenn die Ungewissheit die Bandbreite der Möglichkeiten sehr groß macht, sollten wir nicht versuchen, eine einzige, präzise Zahl zu ermitteln, da dies einen falschen Eindruck von Gewissheit erweckt – falsche Präzision.“

Ein guter und berechtigter Punkt. Aber das größere Problem ist der „Versuch, eine einzige … Zahl zu finden“, egal ob sie „fälschlich präzise“ ist oder nicht.

David Spiegelhalter: „In der klinischen Medizin können Ärzte nicht genau vorhersagen, was mit jemandem passieren wird, und verwenden daher vielleicht eine Formulierung wie ‚von 100 Menschen wie Ihnen werden 96 die Operation überleben‘. Manchmal gibt es nur so wenige Anhaltspunkte, zum Beispiel weil der Zustand eines Patienten völlig neu ist, dass keine Zahl mit Sicherheit angegeben werden kann.“

Nicht nur in der klinischen Medizin, sondern in vielen Forschungsbereichen werden Arbeiten veröffentlicht, die – trotz vager, sogar widersprüchlicher und begrenzter Beweise mit zugegebenen Schwächen im Studiendesign – endgültige numerische Ergebnisse angeben, die nicht besser als wilde Vermutungen sind. (Siehe die Studien von Jenna Jambeck über Plastik im Meer).

Und, vielleicht die größte Untertreibung und der am wenigsten zutreffende Gesichtspunkt in dieser Broschüre:

„Es besteht eine gewisse Verwirrung zwischen dem wissenschaftlichen und dem alltäglichen Gebrauch der Wörter ‚Unsicherheit‘ und ‚Risiko‘. [Dieser erste Satz stimmt – kh] In der Alltagssprache könnten wir sagen, dass etwas, das unsicher ist, riskant ist. Im wissenschaftlichen Sprachgebrauch bedeutet Risiko jedoch im Großen und Ganzen eine Unsicherheit, die in Bezug auf eine bestimmte Gefahr quantifiziert werden kann – für eine bestimmte Gefahr ist das Risiko also die Wahrscheinlichkeit, dass sie eintritt.“

Viel Konfusion

„Das Risiko ist die Chance, dass es passiert“. Ist das wirklich so? William Briggs weist in seinem Buch „Uncertainty: The Soul of Modeling, Probability & Statistics“ (etwa: Die Seele der Modellierung, Wahrscheinlichkeit und Statistik) darauf hin, dass für eine „Chance“ (d. h. eine „Wahrscheinlichkeit“) zunächst eine Aussage wie „Die Gefahr (der Tod) wird diesem Patienten widerfahren“ und klar dargelegte Prämissen erforderlich sind, von denen die meisten angenommen und nicht dargelegt werden, wie z. B. „Der Patient wird in einem modernen Krankenhaus behandelt, ist ansonsten gesund, der Arzt ist voll qualifiziert und verfügt über umfassende Erfahrung mit dem Verfahren, die Diagnose ist korrekt…“. Ohne vollständige Darlegung der Prämissen kann keine Wahrscheinlichkeitsaussage getroffen werden.

Vor kurzem habe ich hier zwei Aufsätze veröffentlicht, die sich mit der Unsicherheit befassen [Titel übersetzt]:

„Plus oder Minus ist keine Frage“ (hier) und „Grenzen des zentralen Grenzwertsatzes“ (hier).

Jeder von ihnen benutzte fast kindlich einfache Beispiele, um einige sehr grundlegende, wahre Punkte über die Art und Weise darzustellen, wie Ungewissheit verwendet, missbraucht und oft missverstanden wird. Ich hatte mit einem angemessenen Maß an Widerstand gegen diesen unverhohlenen Pragmatismus in der Wissenschaft gerechnet, aber die Heftigkeit und Hartnäckigkeit der Opposition hat mich überrascht. Wenn Sie diese verpasst haben, sehen Sie sich die Aufsätze und ihre Kommentare an. Keiner der Kritiker war in der Lage, ein einfaches Beispiel mit Diagrammen oder Illustrationen zu liefern, um seine konträren (fast immer „statistischen“) Interpretationen und Lösungen zu untermauern.

Wo liegt hier also das Problem?

1. Definition: In der Welt der Statistik wird die Unsicherheit als Wahrscheinlichkeit definiert. „Die Unsicherheit wird durch eine Wahrscheinlichkeitsverteilung quantifiziert, die von unserem Informationsstand über die Wahrscheinlichkeit abhängt, wie hoch der einzelne, wahre Wert der unsicheren Größe ist.“ [Quelle]

[In dem verlinkten Artikel wird die Unsicherheit kontrastiert mit: „Die Variabilität wird durch eine Verteilung der Häufigkeiten mehrerer Instanzen der Größe quantifiziert, die aus beobachteten Daten abgeleitet wird.“]

2. Falsche Anwendung: Die obige Definition wird falsch angewandt, wenn wir die absolute Messunsicherheit betrachten.

Der absolute Fehler oder die absolute Unsicherheit ist die Unsicherheit bei einer Messung, die in den entsprechenden Einheiten ausgedrückt wird.

Die absolute Unsicherheit einer Größe ist der tatsächliche Betrag, um den die Größe unsicher ist, z. B. wenn Länge = 6,0 ± 0,1 cm, ist die absolute Unsicherheit der Länge 0,1 cm. Beachten Sie, dass die absolute Unsicherheit einer Größe die gleichen Einheiten hat wie die Größe selbst.

Anmerkung: Die korrekteste Bezeichnung dafür ist absolute Messunsicherheit. Sie ergibt sich aus dem Messverfahren oder dem Messgerät selbst. Wenn eine Temperatur immer (und nur) in ganzen Grad angegeben wird (oder wenn sie auf ganze Grad gerundet wurde), hat sie eine unausweichliche absolute Messunsicherheit von ± 0,5°. Der als 87° gemeldete/aufgezeichnete Thermometerwert muss also seine Unsicherheit tragen und als „87° ± 0,5°“ angegeben werden – was gleichbedeutend ist mit „irgendeinem Wert zwischen 87,5 und 86,5“ – es gibt eine unendliche Anzahl von Möglichkeiten in diesem Bereich, die alle gleichermaßen möglich sind. (Die natürliche Welt beschränkt die Temperaturen nicht auf die Werte, die genau mit den kleinen Strichen auf den Thermometern übereinstimmen).

Würfeln für die Wissenschaft

Schauen wir uns ein einfaches Beispiel an – einen einzelnen Würfel und ein Würfelpaar zu werfen.

Ein einzelner Würfel (ein Würfel, normalerweise mit leicht abgerundeten Ecken und Kanten) hat sechs Seiten – jede mit einer Anzahl von Punkten: 1, 2, 3, 4, 5 und 6. Wenn er richtig hergestellt ist, hat er eine perfekt gleichmäßige Verteilung der Ergebnisse, wenn viele Male gewürfelt wird. Jede Seite des Würfels (Zahl) wird genauso oft mit der Seite nach oben gefunden wie jede andere Seite (Zahl).

Dies stellt die Verteilung der Ergebnisse von 1.000 Würfen mit einem einzigen fairen Würfel dar. Hätten wir etwa eine Million Mal gewürfelt, lägen die Verteilungswerte der Zahlen näher bei 1:6 für jede Zahl.

Was ist der Mittelwert der Verteilung? 3.5

Wie groß ist die Spanne des erwarteten Ergebnisses bei einem einzelnen Wurf? 3.5 +/- 2.5

Da jeder Wurf eines Würfels völlig zufällig ist (und innerhalb seiner Parameter nur ganze Werte von 1 bis 6 würfeln kann), können wir für jeden nächsten Wurf den Wert von 3,5 ± 2,5 [nur ganze Zahlen] vorhersagen. Diese Vorhersage wäre zu 100 % korrekt – in diesem Sinne gibt es keinen Zweifel daran, dass der nächste Wurf in diesem Bereich liegen wird, da es nicht anders sein kann.

Da es sich um einen reinen Zufallsprozess handelt, hat jeder Wert, der durch den Bereich „3,5 ± 2,5“ [nur ganze Zahlen] repräsentiert wird, die gleiche Wahrscheinlichkeit, bei jedem „nächsten Wurf“ aufzutreten.

Wie wäre es, wenn wir ein Paar Würfel werfen?

Ein Würfelpaar, zwei der oben beschriebenen Würfel, die gleichzeitig geworfen werden, haben eine Werteverteilung, die wie folgt aussieht:

Wenn wir zwei Würfel werfen, erhalten wir etwas, das wie eine unverzerrte Normalverteilung aussieht. Hätten wir das Würfelpaar eine Million Mal gewürfelt, wäre die Verteilung näher an der vollkommenen Normalverteilung – sehr nahe an der gleichen Anzahl für 3er und 11er und der gleichen Anzahl für 2er wie für 12er.

Welches ist der Mittelwert der Verteilung? 7

Wie groß ist der Bereich des zu erwartenden Ergebnisses bei einem einzelnen Wurf? 7 ± 5

Da jeder Wurf des Würfels völlig zufällig ist (innerhalb seiner Parameter kann er nur ganze Werte von 2 bis 12 würfeln), können wir für jeden nächsten Wurf den Wert „7 ± 5“ vorhersagen.

Aber bei einem Würfelpaar ist die Verteilung nicht mehr gleichmäßig über den gesamten Bereich. Die Werte der Summen der beiden Würfel reichen von 2 bis 12 [nur ganze Zahlen]. 1 ist kein möglicher Wert, ebenso wenig wie eine Zahl über 12. Die Wahrscheinlichkeit, eine 7 zu würfeln, ist viel größer als eine 1 oder 3 oder 11 oder 12 zu würfeln.

Jeder Würfelspieler kann erklären, warum das so ist: Es gibt mehr Kombinationen der Werte der einzelnen Würfel, die 7 ergeben, als solche, die 2 ergeben (es gibt nur eine Kombination für 2: zweimal die 1 und eine Kombination für 12: zweimal die 6).

Würfeln in einer Schachtel

Um aus dem Würfelbeispiel eine echte absolute Messunsicherheit zu machen, bei der wir einen Wert und seine bekannte Unsicherheit angeben, aber den tatsächlichen (oder wahren) Wert nicht kennen (können), legen wir die Würfel in eine geschlossene Schachtel mit einem Deckel.  Und dann schütteln wir die Schachtel (würfeln). (Ja, Schrödingers Katze und so weiter.) Wenn wir den Würfel in einen verschlossenen Kasten legen, können wir den Wert nur als eine Menge aller möglichen Werte angeben, oder als Mittelwert ± die oben genannten bekannten Unsicherheiten.

Wir können also unsere Werte für ein Würfelpaar als die Summe der beiden Bereiche für einen einzelnen Würfel betrachten:

Die arithmetische Summe von 3,5 ± 2,5 plus 3,5 ± 2,5 ist eindeutig 7 ± 5. (siehe meine Arbeit „Plus oder Minus ist keine Frage“). Dies ist die korrekte Handhabung der Addition der absoluten Messunsicherheit.

Es wäre genau dasselbe, wenn man zwei Gezeitenmessungen addiert, die eine absolute Messunsicherheit von ± 2 cm haben, oder wenn man zwei Temperaturen addiert, die auf ein ganzes Grad gerundet wurden. Man addiert den Wert und addiert die Unsicherheiten. (Es gibt viele Referenzen dafür. Versuchen Sie es hier.)

Statistiker (als Gruppe) bestehen darauf, dass dies nicht korrekt ist – „Falsch“, wie ein kluger Kommentator bemerkte. Die Statistiker bestehen darauf, dass die korrekte Summe lauten würde:

7 ± 3.5

Einer der Kommentatoren zu Plus oder Minus gab diese statistische Einschätzung ab: „die Unsicherheiten addieren sich IN QUADRATUR. Zum Beispiel: (25,30+/- 0,20) + (25,10 +/- 0,30) = 50,40 +/- SQRT(0,20² + 0,30²) = 50,40 +/-0,36 … Sie würden das Ergebnis als 50,40 +/- 0,36 angeben.
In Worten ausgedrückt: Die Summe der Werte, wobei die Unsicherheit als „Quadratwurzel der Summe der Quadrate der Unsicherheiten“ angegeben wird.

Versuchen wir also, dies auf unser einfaches Würfelproblem mit zwei Würfeln anzuwenden:

(3.5 ± 2.5) + (3.5 ± 2.5) = 7 ± SQRT (2.5² + 2.5²) = 7 ± SQRT(6.25 + 6.25) = 7 ± (SQRT 12.5) = 7 ± 3.5

(Der genauere Wert von √12,5 ist 3,535533905932738…)

Oh je. Das ist etwas ganz anderes als das Ergebnis, wenn man die Regeln für die Addition der absoluten Unsicherheiten befolgt.

Im blauen Diagrammkasten können wir jedoch sehen, dass die korrekte Lösung, die den gesamten Bereich der Unsicherheit einschließt, 7 ± 5 beträgt.

Wo weichen die Ansätze also voneinander ab?

Falsche Annahmen: Der statistische Ansatz verwendet eine Definition, die nicht mit der realen physikalischen Welt übereinstimmt: „Unsicherheit wird durch eine Wahrscheinlichkeitsverteilung quantifiziert“.

So sieht ein Statistiker das Problem:

Wenn es sich jedoch um absolute Messunsicherheiten handelt (oder, wie im Beispiel des Würfelspiels, um absolut bekannte Unsicherheiten – die Unsicherheit ist aufgrund der Beschaffenheit des Systems bekannt), führt die Anwendung der statistischen Regel des „Addierens in Quadratur“ zu einem Ergebnis, das nicht mit der Realität übereinstimmt:

Ein Kommentator des Aufsatzes Grenzen des zentralen Grenzwertsatzes begründete diese Absurdität wie folgt: „Die Wahrscheinlichkeit, dass beide Messungen um den vollen Unschärfewert in dieselbe Richtung abweichen, ist nahezu Null.“

In unserem Würfelbeispiel würden, wenn wir diesen Standpunkt anwenden, die Einsen und Sechsen unserer einzelnen Würfel in einem Paar mit einer Wahrscheinlichkeit von „nahe Null“ zusammenkommen (bei einem Wurf von zwei Würfeln), um die Summen 2 und 12 zu ergeben. 2 und 12 stellen den Mittelwert ± den vollen Unsicherheitswert von plus oder minus 5 dar.

Unser Verteilungsdiagramm der Würfelwürfe zeigt jedoch, dass 2 und 12 nicht einmal selten sind, auch wenn sie seltener vorkommen. Und dennoch können 2er und 12er bei Anwendung der „Quadraturregel“ für die Addition zweier Werte mit absoluter Unsicherheit einfach ignoriert werden. Wir können auch die 3er und 11er ignorieren.

Jeder Würfelspieler weiß, dass dies einfach nicht stimmt, denn die kombinierte Wahrscheinlichkeit, eine 2 oder 3 oder 11 oder 12 zu würfeln, beträgt 18 % – fast 1:5. Eine Wahrscheinlichkeit von 1:5 zu ignorieren, z. B. „die Wahrscheinlichkeit, dass der Fallschirm nicht funktioniert, beträgt 1:5“, ist töricht.

Falls wir die von Statistikern regelmäßig empfohlene „1 Standardabweichung“ (ca. 68 % – gleichmäßig auf beide Seiten des Mittelwerts verteilt) verwenden würden, müssten wir alle 2er, 3er, 11er und 12er und etwa ½ der 3er und 4er aus unserer „Unsicherheit“ eliminieren – die 34 % (>1-in-3) der tatsächlich erwarteten Würfe ausmachen.

Man beachte, dass wir in diesem Beispiel die gewöhnliche Unsicherheit eines zufälligen Ereignisses (Würfelwurf) in eine „absolute Messunsicherheit“ umgewandelt haben, indem wir unsere Würfel in eine Box mit einem Deckel gelegt haben, die uns daran hindert, den tatsächlichen Wert des Würfelwurfs zu kennen, uns aber erlaubt, die gesamte Bandbreite der Unsicherheit zu kennen, die mit der „Messung“ (dem Würfelwurf) verbunden ist. Genau das geschieht, wenn eine Messung „gerundet“ wird – wir verlieren Informationen über den gemessenen Wert und erhalten einen „Wertebereich“. Das Runden auf den „nächsten Dollar“ führt zu einer Unsicherheit von ± 0,50 $; das Runden auf das nächste ganze Grad führt zu einer Unsicherheit von ± 0,5°; das Runden auf die nächsten Jahrtausende führt zu einer Unsicherheit von ± 500 Jahren. Messungen, die mit einem ungenauen Werkzeug oder Verfahren durchgeführt werden, ergeben ebenso dauerhafte Werte mit einer bekannten Unsicherheit.

Diese Art von Unsicherheit lässt sich nicht durch Statistik beseitigen.

Unter dem Strich:

1. Wir scheinen von der Forschung immer eine Zahl zu verlangen – „nur eine Zahl ist am besten“. Dies ist ein miserabler Ansatz für fast jede Forschungsfrage. Der „Trugschluss einer einzigen Zahl“ (den ich, glaube ich, vor kurzem, in diesem Augenblick, geprägt habe. Korrigieren Sie mich, wenn ich falsch liege.) ist „der Glaube, dass komplexe, komplizierte und sogar chaotische Themen und ihre Daten auf eine einzige signifikante und wahrheitsgemäße Zahl reduziert werden können“.

2. Das Beharren darauf, dass alle „Unsicherheit“ ein Maß für die Wahrscheinlichkeit ist, ist eine verzerrte Sicht der Realität. Wir können aus vielen Gründen unsicher sein: „Wir wissen es einfach nicht.“ „Wir haben nur begrenzte Daten“. „Wir haben widersprüchliche Daten.“ „Wir sind uns über die Daten nicht einig.“ „Die Daten selbst sind unsicher, weil sie aus wirklich zufälligen Ereignissen resultieren.“ „Unsere Messinstrumente und -verfahren selbst sind grob und unsicher.“ „Wir wissen nicht genug.“ – Diese Liste ließe sich seitenlang fortsetzen. Fast keiner dieser Umstände lässt sich dadurch korrigieren, dass man so tut, als könne man die Ungewissheit als Wahrscheinlichkeiten darstellen und mit statistischen Ansätzen reduzieren.

3. Die absolute Messunsicherheit ist dauerhaft – sie kann nur durch bessere und/oder genauere Messungen verringert werden.

4. Durchschnittswerte (Mittelwerte und Mediane) neigen dazu, die ursprüngliche Messunsicherheit zu verschleiern und zu verdecken. Durchschnittswerte sind selbst keine Messungen und bilden die Realität nicht richtig ab. Sie sind eine gültige Sichtweise auf einige Daten – verbergen aber oft das umfassendere Bild. (siehe Die Gesetze der Durchschnittswerte)

5. Nur in den seltensten Fällen wird die ursprüngliche Messunsicherheit bei Forschungsergebnissen angemessen berücksichtigt – stattdessen wurde den Forschern beigebracht, sich auf die Vorspiegelung statistischer Ansätze zu verlassen, um ihre Ergebnisse präziser, statistisch signifikanter und damit „wahrer“ erscheinen zu lassen.

——————————–

Kommentar des Autors:

Ich würde mich wirklich freuen, wenn ich in diesem Punkt widerlegt werden würde. Aber bis jetzt hat noch niemand etwas anderes als „mein Statistikbuch sagt …“ vorgelegt. Wer bin ich, dass ich ihren Statistikbüchern widerspreche?

Aber ich behaupte, dass ihre Statistikbücher nicht über das gleiche Thema sprechen (und keine anderen Ansichten zulassen). Man muss schon ziemlich lange suchen, um die korrekte Methode zu finden, mit der zwei Werte mit absoluter Messunsicherheit addiert werden sollen (wie in 10 cm ± 1 cm plus 20 cm ± 5 cm). Es gibt einfach zu viele ähnliche Wörter und Wortkombinationen, die den Internet-Suchmaschinen „gleich erscheinen“. Das Beste, was ich gefunden habe, sind YouTubes zur Physik.
Also, meine Herausforderung an die Herausforderer: Nennen Sie ein kindlich einfaches Beispiel, wie ich es verwendet habe, zwei Messungen mit absoluten Messunsicherheiten, die zueinander addiert werden. Die Arithmetik, ein visuelles Beispiel für die Addition mit Unsicherheiten (auf einer Skala, einem Lineal, einem Thermometer, beim Zählen von Bären, Pokerchips, was auch immer) und zeigen Sie, wie sie physikalisch addiert werden. Wenn Ihre Veranschaulichung gültig ist und du zu einem anderen Ergebnis kommst als ich, dann haben Sie gewonnen!  Versuchen Sie es mit den Würfeln. Oder mit einem Zahlenbeispiel, wie es in Plus oder Minus verwendet wird.

Link: https://wattsupwiththat.com/2023/01/03/unknown-uncertain-or-both/

Übersetzt von Christian Freuer für das EIKE

 




Der Neue Stillstand verlängert sich weiter: 100 Monate ohne jede Erwärmung

Christopher Monckton of Brenchley

Die kalte Witterung auf beiden Seiten des Atlantiks im vergangenen Monat scheint sich auf die Temperatur ausgewirkt zu haben, die im Vergleich zum November stark gesunken ist, wodurch sich die Neue Pause auf 8 Jahre und 4 Monate verlängert hat, wie die von Dr. Roy Spencer und Dr. John Christy von der Universität von Alabama in Huntsville entwickelten, gebauten und betriebenen Satelliten zeigen:

Das Diagramm zeigt den Trend der linearen Regression nach der Methode der kleinsten Quadrate für die monatlichen globalen mittleren Anomalien der unteren Troposphäre. Die Methode der kleinsten Quadrate wurde von Professor Jones von der University of East Anglia als eine vernünftige Methode zur Darstellung des Trends bei stochastischen Temperaturdaten empfohlen.

Erinnern wir uns daran, dass das Diagramm keine Vorhersage darstellt: Es gibt lediglich den längsten Zeitraum an, in dem der Temperaturtrend von der Gegenwart aus betrachtet nicht positiv ist.

Wie immer finden Sie hier den vollständigen 45-jährigen UAH-Datensatz von Dezember 1978 bis Dezember 2022, der einen keineswegs dramatischen globalen Erwärmungstrend von nur 0,134 K/Dekade zeigt:

Einer der Vorzüge der langen Stillstände, welche die Aufzeichnung der globalen Temperaturanomalien sogar in den letzten Jahrzehnten charakterisiert haben ist, dass sie einen einfachen und sofort verständlichen Beweis dafür liefern, dass die Rate der globalen Erwärmung weniger als die Hälfte der ursprünglichen mittleren Vorhersage des IPCC (1990) beträgt, der vier Emissionsszenarien vorstellte, von denen sich das Business-as-usual-Szenario A als der Realität am nächsten erwiesen hat. Szenario B beispielsweise basierte auf der Annahme, dass die Emissionen bis 2025 konstant auf dem Niveau von 1990 bleiben würden. Das ist nicht eingetreten. Die Emissionen sind so stark gestiegen, dass der anthropogene Treibhauseffekt seit 1990 um mehr als 1 W/m² zugenommen hat.

Obwohl die Emissionen somit nahe an Szenario A liegen, war die mittelfristige Vorhersage dieses Szenarios von 0,3 K/Dekade mehr als doppelt so hoch wie die tatsächliche Entwicklung: die beobachtete Erwärmung seit 1990 betrug nur 0,13 K/Dekade. Da Szenario A 3 K ECS vorausgesagt hat, beträgt die korrigierte ECS auf der Grundlage der Ergebnisse seit 1990 also nur 1,3 K: ein wunderbar einfaches Argument.

Ein ähnliches Ergebnis lässt sich mit einer anderen einfachen Methode erzielen: der Energiebudget-Analyse. In einer kürzlich erschienenen Kolumne habe ich diese Analyse demonstriert, was einige Kommentatoren dazu veranlasste, nach einer Erklärung der Energiebudget-Gleichung zu fragen. Also hier ist sie:

Die Energiebudget-Gleichung besagt, dass die gleichgewichtige verdoppelte CO-äquivalente Empfindlichkeit (ECS), die Standardmetrik, das Produkt aus dem anthropogenen Anteil M der beobachteten Erwärmung des Industriezeitalters ΔTobs und dem Verhältnis des verdoppelten CO-Antriebs ΔQ1 zur Differenz zwischen dem beobachteten Industriezeitalter-Antrieb ΔQobs und dem von den Satelliten beobachteten Strahlungsungleichgewicht ΔNobs ist.

Bei einem thermischen Gleichgewicht (wie in der Zeit von 1850-1930, als der Trend der globalen mittleren Temperatur gleich Null war) sind die von der Erdatmosphäre absorbierte solare Strahlungsenergie und die von der Erde in den Weltraum abgegebene thermische Infrarotstrahlung etwa gleich groß.

Das seither gemessene positive Energie-Ungleichgewicht ΔNobs deutet jedoch darauf hin, dass das System Erde-Atmosphäre an Energie gewinnt, weshalb es sich erwärmt.

Der Nenner ΔQobs – ΔNobs in der Gleichung ist die Komponente des Periodenforcings ΔQobs, die bisher in der beobachteten Periodenerwärmung ΔTobs realisiert wurde. Das Verhältnis des verdoppelten CO-Antriebs zu dieser realisierten Komponente des Periodenantriebs wandelt den anthropogenen Anteil von ΔTobs in ECS um.

Erhöht man in der Gleichung die Schätzung eines der vier in rot dargestellten Terme, so erhöht sich ECS. Erhöht man jedoch die Schätzung des beobachteten periodischen Antriebs ΔQobs, der in grün dargestellt ist, so verringert sich ECS.

Kurz gesagt, die Energiebudget-Gleichung eignet sich hervorragend, um zu sehen, was unter der Haube vor sich geht. Man kann beobachten, wie die üblichen Verdächtigen die Daten verzerren und malträtieren, um das hohe ECS-Narrativ zu untermauern, auf dem das wackelige, schäbige Gebäude der internationalen Politik der Zerstörung des verhassten Westens unsolide gegründet ist.

Nehmen wir den anthropogenen Anteil M der Erwärmung in der Industriezeit. Aus Tabelle 2 von Wu et al. (2019), in der die anthropogenen und natürlichen Komponenten der Erwärmung über acht Zeiträume von 114 Jahren bis 2013 aufgeführt sind, lässt sich ableiten, dass etwa 74 % der bisherigen Erwärmung anthropogenen Ursprungs sind. Die Klimatologie neigt jedoch dazu, M auf 100 % zu treiben, und Extremisten werden versuchen, diesen Wert auf etwa 110 % zu erhöhen – d. h., die Erde würde sich abkühlen, wenn wir keinen Einfluss auf das Klima hätten.

Die beobachtete Temperatur ΔTobs im Industriezeitalter wird ebenfalls nach oben korrigiert. HadCRUT4 gab die Erwärmung bis Anfang 2022 mit 0,93 K an – bis heute sind es 0,95 K. Aber HadCRUT5 erhöht diesen Wert auf etwa 1,05 K, und IPCC (2021) erhöht ihn auf wundersame Weise auf 1,27 K.

Die gleiche traurige Geschichte ist es mit dem verdoppelten CO-Antrieb ΔQ1. Bereits in den 1980er Jahren wurde uns gesagt, dass die Unsicherheit bei ΔQ1 ±10 % beträgt. Obwohl die CMIP5-Modelle (Andrews 2012) ΔQ1 mit durchschnittlich 3,45 W/m² und CMIP6 mit 3,52 W/m² (Zelinka et al. 2020) angeben, erhöht das IPCC (2021) den Wert um 14 % auf 3,93 W/m².

Ebenso hat die offizielle Darstellung jahrzehntelang versucht, den Wert des beobachteten industriezeitlichen Treibhauseffekts ΔQobs zu minimieren, um die ECS zu maximieren. Wie Professor Lindzen seit langem betont, wird eine Reihe von Ausflüchten verwendet, nicht zuletzt die Vorstellung, dass unsere Partikelemissionen einen großen negativen Aerosolantrieb verursacht hätten, was der Professor unverblümt als „Fudge-Faktor“ bezeichnet. Der tatsächliche Aerosolantrieb ist wahrscheinlich verschwindend gering von Null verschieden. Die NOAA gibt 3,2 W/m² an, die allein durch die anthropogene Emission von Treibhausgasen verursacht werden, bevor man den Ozonantrieb von weiteren 0,4 W/m² berücksichtigt. Das IPCC (2021) kommt jedoch nach Anwendung des Aerosol-Fudge-Faktors auf insgesamt nur 2,8 W/m².

Bislang war das Strahlungs-Ungleichgewicht ΔNobs jedoch nicht berücksichtigt worden. Er wurde allgemein mit etwa 0,79 W/m² angegeben. Die immer verzweifelteren Revisionisten haben sich jedoch auch darauf gestürzt und im letzten Jahr behauptet, dass ΔNobs eher bei 1,1 W/m² liegt.

Setzt man all diese geänderten, aber angeblich „mittleren“ Schätzungen in die Energiebudget-Gleichung ein, ergibt sich ECS mit 3,2 K, was der langjährigen offiziellen Darstellung entspricht. Jetzt wissen Sie, wie der Trick funktioniert: Ändern Sie alle fünf Variablen so, dass der mittlere ECS-Wert maximiert wird, und geben Sie damit vor, die ansonsten offensichtlich überhöhte offizielle Zahl zu rechtfertigen.

Nimmt man die vernünftigeren und gängigeren Werte, die in meinem früheren Beitrag über die Energiebudget-Methode gezeigt wurden, so ergibt sich ein mittlerer ECS-Wert von 1,3 K, der mit den hier beschriebenen, aus Beobachtungen abgeleiteten 1,3 K übereinstimmt.

Ein weiterer Vorteil der Energiebudget-Methode ist, dass sie absolut keine Kenntnis der Amplituden der Temperatur-Rückkopplungen erfordert. Das ist auch gut so, denn die derzeitige Schätzung des IPCC, dass ECS zwischen 2 K und 5 K liegt, impliziert eine absolute Gesamtstärke der Rückkopplung zwischen 0,22 und 0,27 W/m²K. Die Breite dieses Intervalls, nur 0,05 W/m²K, ist so gering, dass jeder Versuch, ECS durch Rückkopplungsanalyse abzuleiten, sei es direkt oder über die Diagnose von Rückkopplungsstärken aus den Ergebnissen von Modellen, statistisch gesehen nicht besser als Raterei ist. Die Unsicherheiten bei der Stärke der Rückkopplung sind viel zu groß, als dass man einer Vorhersage aus einem allgemeinen Zirkulationsmodell Glauben schenken könnte, da die von diesen Modellen diagnostizierten Rückkopplungen die absolute Stärke der Rückkopplung um eine Größenordnung übersteigen.

Wie lange wird die derzeitige Pause andauern? Die UNO, die jetzt verzweifelt ist, da diese zweite Pause ziemlich ernst zu werden beginnt, sagt – wahrscheinlich zu Recht – dass der nächste El Niño die Pause beenden wird, so wie der letzte große El Niño die vorherige 19-jährige Pause beendet hat. Aber die Tatsache dieser häufigen und langen Pausen ist ein eindrucksvoller Beweis dafür, dass sich die Welt einfach nicht in dem Maße erwärmt wie die ursprünglich vorhergesagten 0,3 K/Dekade.

Die Profiteure des Untergangs stellen die Pause natürlich in einem ganz anderen Licht dar. Sie sagen, dass die acht Jahre der aktuellen Pause die höchsten Temperaturen seit Beginn der Aufzeichnungen waren. Nur war es in den Warmzeiten des Mittelalters, der Römer, der Minoer und des alten ägyptischen Reiches noch viel wärmer, was in den Aufzeichnungen irgendwie nie erwähnt wird.

Einige Kommentatoren haben hier spekuliert, dass die Sonne voraussichtlich 60 ruhige Jahre durchlaufen wird, die zu einer allmählichen globalen Abkühlung führen werden. Es ist jedoch noch nicht klar, ob zuverlässige langfristige Vorhersagen zur Sonnenaktivität gemacht werden können. Ein eindrucksvolles Beispiel für die Schwierigkeiten ist die aktuelle Sonnenfleckenbilanz:

Die vorhergesagte Sonnenfleckenzahl ist die rote Kurve. Die tatsächlichen Daten sind die schwarze Spline-Kurve, mit dem laufenden Sechs-Monats-Mittelwert in blau. Die Abweichung von der Vorhersage – auf der hohen Seite – ist es wert, im Auge behalten zu werden. Es könnte sein, dass die Ruhephase der Sonne bereits vorbei ist. Wer kann das schon sagen?

Was wir sagen können, ist dies: Selbst wenn der gesamte Westen bis 2050 tatsächlich Netto-Null-Emissionen erreichen würde, wäre die Welt nur um ein Siebzehntel Grad kühler als wenn der derzeitige und anhaltende Aufwärtstrend bei den globalen Emissionen anhält. Und jede Milliarde Dollar, die wir für die Zerstörung der westlichen Volkswirtschaften ausgeben, würde zwischen einem Viermillionstel und einem Dreißigmillionstel Grad künftiger Erwärmung verhindern. Und nicht einmal das können wir erreichen, weil die notwendigen technischen Metalle zur Erreichung von Netto-Null einfach nicht verfügbar sind.

Link: https://wattsupwiththat.com/2023/01/04/the-new-pause-lengthens-100-months-with-no-warming-at-all/

Übersetzt von Christian Freuer für dass EIKE

 




Die Net-Zero-Straße ins Nichts

Steve Milloy, JunkScience.com

Mein neuester Artikel im Wall Street Journal (WebPDF).

„Netto-Null bis 2050“ ist mehr als ein Slogan des Klima-Aktivismus‘. Es ist zu einem wichtigen Organisationsprinzip für multinationale Unternehmen und das von BlackRock geführte Kartell geworden, das Investitionen in Umwelt, Soziales und Unternehmensführung [ESG] vorantreibt.

„Netto-Null“ wurde im Jahr 2022 in mehr als 6.000 Berichten an die Securities and Exchange Commission (SEC) und unzählige Male von börsennotierten Unternehmen und Investorengruppen in Erklärungen und auf ihren Websites erwähnt. Die SEC sagt, dass ihre vorgeschlagene Regel zur Offenlegung des Klimas den Anlegern helfen wird, „den Fortschritt bei der Erfüllung der Netto-Null-Verpflichtungen zu bewerten und alle damit verbundenen Risiken einzuschätzen“.

„Netto-Null“ und die damit verbundene „Energiewende“ werden so oft und so locker erwähnt, dass viele sie als erstrebenswerte Ziele ansehen, die mit mehr Engagement von Politikern und Wirtschaftsführern erreicht werden könnten. Zwei neue Berichte der Energieversorgungsbranche sollten diesem Gerede jedoch ein Ende setzen.

Im September veröffentlichte das Electric Power Research Institute, der Forschungszweig der US-Strom-Versorgungsbranche, einen Bericht mit dem Titel „Net-Zero 2050: U.S. Economy-Wide Deep Decarbonization Scenario Analysis“.

Der EPRI-Bericht kommt zu dem Schluss, dass die Energie-Versorgungsbranche Netto-Null nie erreichen kann. „Diese Studie zeigt, dass saubere Elektrizität, direkte Elektrifizierung und Effizienz allein nicht ausreichen, um die Netto-Null-Emissionen der gesamten Wirtschaft zu erreichen.

Mit anderen Worten: Keine noch so großen Mengen an Windturbinen, Sonnenkollektoren, Wasserkraft, Kernenergie, Batteriestrom, Elektrifizierung von Technologien für fossile Brennstoffe oder Energieeffizienztechnologien werden uns bis 2050 zum Netto-Null-Ziel bringen.

Selbst um bis 2050 eine „tief greifende Dekarbonisierung“ zu erreichen – was nicht Netto-Null bedeutet – ist laut EPRI „ein breites Portfolio von Optionen erforderlich, das kohlenstoffarme Brennstoffe und Technologien zur Kohlenstoffentfernung umfasst „.

Aber „kohlenstoffarme Kraftstoffe“ – effiziente Biokraftstoffe – gibt es nicht. „Technologien zur Kohlenstoffentfernung“ lassen sich nicht in großem Maßstab einsetzen, und selbst wenn, würde es zu heutigen Preisen etwa 1 Billiarde Dollar kosten, um die 1,6 Billionen Tonnen atmosphärischen Kohlendioxids zu entfernen, die laut dem US-Klimabeauftragten John Kerry „aus der Atmosphäre gesaugt werden müssen, selbst wenn wir netto null erreichen“.

Das ist noch nicht alles. Im EPRI-Bericht heißt es: „Diese Studie enthält keine detaillierte Bewertung von Faktoren wie Einschränkungen in der Versorgungskette [und] betriebliche Zuverlässigkeit und Widerstandsfähigkeit“ eines Netto-Null-Stromnetzes.

Die Frage, wie ein Netto-Null-Netz aufgebaut werden und funktionieren könnte, wäre eine Untersuchung wert, wenn es überhaupt möglich wäre. Aber das ist es einfach nicht.

Wenn es keine unvorhergesehenen Wundertechnologien gibt, wird „Netto-Null bis 2050“ also nicht möglich sein.

Das Merkwürdige an dem Bericht ist, dass er weitgehend ein EPRI-Geheimnis geblieben ist. Die Medien haben nicht über ihn berichtet. Ich erfuhr erst davon, als ich beim Stromversorger Alliant Energy einen Aktionärsantrag zum Thema „Netto-Null“ einreichte. Das Unternehmen bot den Bericht als Verteidigung gegen meinen Vorschlag an, die Unternehmensleitung solle erklären, wie sie ihr Ziel, bis 2050 netto null zu produzieren, erreichen wolle.

Der andere aktuelle Bericht ist die „2022 Long-Term Reliability Assessment“ der North American Electric Reliability Corp, einer von der Regierung zertifizierten Gruppe für Netzzuverlässigkeit und Standardsetzung. Die NERC kam zu dem Schluss, dass die mit fossilen Brennstoffen betriebenen Kraftwerke zu schnell vom Netz genommen werden, um die anhaltende Stromnachfrage zu befriedigen, wodurch der größte Teil des Landes dem Risiko von Netzausfällen und Blackouts bei extremen Wetterbedingungen ausgesetzt ist. Einen weiteren Vorgeschmack darauf bekamen die USA gerade während des Stromnetz-Notstandes zu Weihnachten.

Da haben wir es also: Wir sind dabei, unser Stromnetz auf gefährliche Weise zu demontieren, während wir es mit noch mehr Nachfrage belasten, in der Hoffnung, das Ziel „Netto-Null-Stromverbrauch bis 2050“ zu erreichen, was, wie die Versorgungsindustrie zugegeben hat, ein Hirngespinst ist.

Der Kongress sollte Anhörungen zu den „Netto-Null-Zielen bis 2050“ durchführen, bevor es zu einer echten Katastrophe kommt. Er sollte Zeugen von Versorgungsunternehmen, Kommissionen für öffentliche Dienstleistungen, Netzbetreibern, Regulierungsbehörden und dem ESG-Kartell vorladen und sie unter Eid erklären lassen, wie sie das Unmögliche erreichen wollen.

Mr. Milloy is a senior fellow with the Energy and Environment Legal Institute.

Appeared in the December 29, 2022, print edition as “A Quiet Refutation Of ‘Net Zero’”.

Link: https://wattsupwiththat.com/2023/01/01/the-net-zero-road-to-nowhere/

Übersetzt von Christian Freuer für das EIKE

 




Der unterschätzte Kältetod

Vielleicht weil es gut zur Klimapolitik passt, wird im Sommer viel über Hitzetote geredet. Vielleicht weil es zum drastischen Energiesparen nicht passt, will im Winter niemand über die viel bedrohlichere Kälte sprechen.

von Wolfgang Meins

In Bezug auf das temperaturbedingte vorzeitige Ableben gilt: Nicht die Wärme ist der Bösewicht, sondern die Kälte. Je nach untersuchten Ländern und verschiedenen Klimazonen kommt ein kältebedingter Tod sehr viel häufiger vor als ein wärmebedingter. Da ist die Forschungslage ausgesprochen einheitlich. Das gilt allerdings nicht im selben Maße auch für das Ausmaß der Unterschiede. So zeigt eine umfassende Lancet-Studie aus dem Jahr 2021, dass der kältebedingte Tod zum Beispiel global 9,4-mal, in Europa 3,7-mal, in Nordafrika 16,4-mal und in Subsahara-Afrika gar 59,3-mal häufiger vorkommt.

Eine Studie aus dem letzten Jahr demonstrierte dagegen für England und Wales ein sage und schreibe 78-mal höheres Risiko für einen kältebedingten Tod, was nicht wirklich gut zu den eben genannten Resultaten passt. Offensichtlich hängen die Ergebnisse auch stark von der (sehr komplexen) Forschungsmethodik, der Datenqualität und, böser Verdacht, vielleicht auch der politischen Grundhaltung ab. Wie dem auch sei: Ganz offensichtlich vermag der Mensch sich besser an Wärme anzupassen als an Kälte. Was wiederum kein Zufall ist, stand die Wiege der Menschheit doch in Ostafrika – und nicht am Polarkreis.

Obwohl es im internationalen Schrifttum mittlerweile zahlreiche fundierte Belege für die vorrangig von Kälte ausgehende gesundheitliche Gefährdung gibt, dringen diese, zumindest in Deutschland, kaum noch in die medizinische Diskussion ein, von der politmedialen ganz zu schweigen. Stattdessen geht es dort beim Problem der  temperaturabhängigen Todesfälle nur um die sogenannten Hitzetoten, meist in Verbindung mit dem dringenden Ruf nach Hitzeaktionsplänen. Kältetote geraten in dieser ideologisierten Welt allenfalls in Gestalt von erfrorenen Obdachlosen ins Blickfeld. Aber die spielen zahlenmäßig keine nennenswerte Rolle. Das Erfrieren ist letztlich eine (noch?) vergleichsweise selten vorkommende kältebedingte Todesart, die zudem häufig durch übermäßigen Alkoholkonsum getriggert ist.

So tötet Kälte

Wesentlich bedeutsamer sind bestimmte ungünstige Auswirkungen von Kälte auf den Körper beziehungsweise bestimmte Organsysteme. Kälte macht empfänglicher für virale und als Folge davon oft auch bakterielle Erkrankungen der oberen und unteren Atemwege, verschlimmert Asthmaerkrankungen, erhöht den Blutdruck und die Neigung zur Thrombenbildung, also zur „Verklumpung“ des Blutes. Im Gefolge davon steigt das Risiko für Herzinfarkte und Schlaganfälle. Deshalb kann es nicht verwundern, dass konstant über die Jahrzehnte auch in Deutschland die Sterblichkeit in den Wintermonaten deutlich am höchsten ausfällt. Die Opfer dieser kältebedingten Übersterblichkeit werden im Folgenden vereinfachend als „Kältetote“ bezeichnet.

Nach einer US-Studie aus dem Jahr 2007 sind 0,8 Prozent aller Todesfälle dort kältebedingt – und damit häufiger als die Summe der Todesfälle infolge von Leukämie, Mord und chronischen Lebererkrankungen. Unter den Kältetoten finden sich vor allem Personen über 75 Jahre, darunter zwei Drittel Frauen, warum auch immer. In Gegenden mit niedrigem Einkommen überwogen unter den Kältetoten dagegen Männer, Säuglinge und Kleinkinder. Im Gegensatz zu den wärmebedingten Todesfällen, deren Häufigkeit nach Abklingen einer Hitzeperiode sehr rasch rückläufig ist, hält eine Welle kältebedingter Übersterblichkeit auch noch Wochen nach erfolgter Temperaturnormalisierung an.

Die Kältetoten in Europa

Nach aktuellen Berechnungen des Economist fiel in „Europa“ – das heißt 27 EU-Staaten, außer Malta, plus Großbritannien, Norwegen und der Schweiz – von 2000 bis 2019 die temperaturbedingte Übersterblichkeit während der Monate Dezember bis Februar jeweils deutlich höher aus als die von Juni bis August. Im Mittel starben während dieses 20-jährigen Zeitraums in den drei Wintermonaten pro Woche 21 Prozent mehr Menschen als während der drei Sommermonate. In absoluten Zahlen waren das in einem „milden“ Winter insgesamt 32.000 Extratote beziehungsweise Kältetote, in einem „harten“ Winter 335.000.

Im Mittel führt eine Abweichung von der langjährigen winterlichen Durchschnittstemperatur von minus 1 Grad in Europa zu 1,2 Prozent mehr Toten und in Deutschland zu knapp 2 Prozent mehr Toten. Im Hinblick auf die Ergebnisse in den einzelnen Ländern gilt es zu berücksichtigen, dass der Unterschied zwischen Wärme- und Kältesterblichkeit in wärmeren Ländern deutlich stärker ausgeprägt ist. Der wesentliche Grund dafür sind die in den kühleren Ländern besseren Heizungsmöglichkeiten und Isolationen. Das ändert aber nichts an der Tatsache, dass sowohl in den warmen als auch den kalten Ländern – etwa Portugal gegenüber Finnland – die Kälte jeweils deutlich mehr Todesopfer fordert.

Wie wirken sich die gestiegenen Energiepreise aus?

Was läge angesichts dieser eindeutigen medizinischen Datenlage also näher als der Frage nachzugehen, ob, und wenn ja, wie viele zusätzliche Kältetote in diesem Winter infolge der gestiegenen Energiepreise beziehungsweise deren Auswirkungen auf das praktische Leben – vor allem durch niedrigere Wohnungstemperaturen – zu erwarten sind? Eigentlich wäre das die Aufgabe des Umweltbundesamtes (UBA) oder auch der anderen einschlägigen epidemiologischen Forschungseinrichtungen. Aber auf deren Ergebnisse kann man lange warten. Dabei wäre das UBA – das sich ansonsten zu jeder noch so abseitigen Thematik ausführlich äußert – geradezu in der Pflicht, zu diesem Thema sowohl die Fachdiskussion zu befördern als auch den politisch Verantwortlichen die Konsequenzen ihrer Energiepolitik im Hinblick auf die Volksgesundheit aufzuzeigen.

Diese Forschungsleerstelle hat nun das angesehene britische Wirtschaftsmagazin The Economist zumindest teilweise ausgefüllt. Im Heft vom 26. November wird eine eigene Studie zu der Frage vorgestellt, wie sich der Anstieg der Energiepreise in diesem Winter auf die Sterblichkeit in den oben genannten europäischen Staaten auswirken wird. Als Korrelat für die Energiepreise wird der Strompreis verwendet, was angesichts der engen Verknüpfung der Preise von Elektrizität, Gas und anderen Brennstoffen auch durchaus angemessen erscheint. Diese methodisch überzeugende Studie des Economist hat bei deutschen Medien – von einer Ausnahme abgesehen – bisher keine Resonanz gefunden. Und das, obwohl – oder weil? – die Ergebnisse ausgesprochen besorgniserregend sind.

Im Zeitraum von 2000 bis 2019 hatten die vergleichsweise niedrigen und nur wenig schwankenden Energiepreise jeweils nur einen geringen Effekt auf die Anzahl der Kältetoten. Ein Preisanstieg von 10 Prozent allerdings, so die Berechnungen des Economist, führt bereits zu einem Anstieg der Kältetoten um 0,6 Prozent, abgeschwächt oder auch verstärkt durch besonders milde oder kalte Temperaturen. Aufgrund der diesjährigen starken Verteuerung von Energie, so die Hypothese der Economist-Autoren, ist folglich davon auszugehen, dass die Energieknappheit beziehungsweise der Preisanstieg die winterbedingte Übersterblichkeit deutlich in die Höhe treiben wird.

Diese Faktoren spielen eine Rolle

Die Autoren „bauten“ und prüften also ein statistisches Modell, in das sie – neben dem Strompreis für jedes Land – die Faktoren einschlossen, von denen bekannt ist, dass sie einen Einfluss auf die Anzahl der Kältetoten haben. An erster Stelle stehen dabei natürlich die kommenden Wintertemperaturen von „mild“ über „durchschnittlich“ bis „hart“ – basierend auf dem Temperaturspektrum von 2000 bis 2019. Außerdem wurden in das Modell noch eingeschlossen der Schweregrad der (noch nicht beendeten) Grippesaison – unterstellt wurde eine „normale“ Saison – und die relevanten demographischen Charakteristika der einzelnen Länder.

Nicht in die statistische Analyse einbezogen werden konnte das Problem, wie sich Covid-19 auf die zu erwartende Übersterblichkeit in diesem Winter auswirken wird. Dabei könnte, so die Autoren, Covid-19 durchaus auch zu einer Verminderung der winterlichen Übersterblichkeit beitragen, da das Virus in den beiden vorangegangenen Wintern bereits viele alte und gebrechliche Menschen dahingerafft hat. Entlastungen der Bürger in Form von staatlich festgesetzten Obergrenzen für Strompreise wurden bei der Analyse berücksichtigt, nicht jedoch direkte Geldtransfermaßnahmen wie in Deutschland.

Deutschland geht voran

Unter der Annahme von Elektrizitätspreisen, die in etwa auf dem jetzigen Niveau verharren, würden in einem durchschnittlichen Winter in Europa 147.000 (+4,8 Prozent) mehr Menschen sterben, als es dem langjährigen Mittel von 2000 bis 2019 entspricht. Ein milder Winter würde zu 79.000 (+2,7 Prozent), ein harter zu 185.000 (+6,0 Prozent) zusätzlichen Toten führen. Deutschland gehört dabei zu den stärker betroffenen Ländern. Hier wäre bei einem „harten“ Winter mit etwa 42.000 (ca. +18 Prozent) zusätzlichen Toten zu rechnen, das heißt, etwa 14.000 Menschen würden dann in jedem der drei Wintermonate zusätzlich sterben, weil die Energie zu knapp und zu teuer ist.

Der Economist führt die gestiegenen Energiepreise zu einseitig, wie ich finde, auf den durch Putin vom Zaun gebrochenen Ukrainekrieg zurück. Schließlich setzte der Preisanstieg doch bereits 2021 mit dem Anspringen der Konjunktur nach dem Corona-Einbruch ein. Die gestiegene Nachfrage traf dabei auf eine bereits seit Jahren gewollte und teils auch bereits erreichte Verknappung und Verteuerung fossiler Energien. Zudem liegt Russlands Invasion nun fast schon ein Jahr zurück. Und mit jedem weiteren Tag wächst die Verantwortung (auch) der deutschen Regierung, wirksame Maßnahmen gegen die aktuelle und zukünftige Energieknappheit rasch und energisch auf den Weg zu bringen. Wummse und Doppelwummse werden das Problem auf Dauer jedenfalls nicht lösen können.

Aber die Ampelkoalition gefällt sich darin, dauerhaft teures LNG in notgedrungen zu geringen Dosen einzukaufen, weiter an der Mär von der künftigen Rundum-Versorgung mit den „Erneuerbaren“ zu spinnen, das baldige und dann wohl endgültige Aus der Atomkraft zu besingen und gleichzeitig eigene ergiebige Gaslagerstätten nicht erschließen zu wollen. Obwohl diese geeignet wären, den hiesigen Energiemangel innerhalb eines Jahres nachhaltig zu beheben – wenn man denn wirklich wollte.

Über den Autor

Prof. Dr. med. Dipl.-Psych. Wolfgang Meins ist Neuropsychologe, Arzt für Psychiatrie und Neurologie, Geriater und apl. Professor für Psychiatrie. In den letzten Jahren überwiegend tätig als gerichtlicher Sachverständiger im sozial- und zivilrechtlichen Bereich.

Der Beitrag erschien zuerst bei ACHGUT hier




Aufstieg und Niedergang des Peer-Review-Verfahrens

Charles Rotter

Adam Mastroianni hat auf seinem Blog Experimental History einen wunderbaren Artikel geschrieben, in dem er die Geschichte, die Funktion und die Fehlfunktion des Peer-Review-Verfahrens untersucht.

In den letzten 60 Jahren hat die Wissenschaft ein Experiment mit sich selbst durchgeführt. Die Versuchsanordnung war nicht besonders gut; es gab keine Randomisierung und keine Kontrollgruppe. Niemand hatte die Verantwortung, und niemand hat wirklich konsistente Messungen vorgenommen. Und doch war es das umfangreichste Experiment, das je durchgeführt wurde, und jeder Wissenschaftler auf der Erde war daran beteiligt.

Die meisten dieser Leute wussten nicht einmal, dass sie an einem Experiment teilnahmen. Viele von ihnen, mich eingeschlossen, waren noch nicht geboren, als das Experiment begann. Hätten wir bemerkt, was vor sich ging, hätten wir vielleicht ein Mindestmaß an wissenschaftlicher Strenge gefordert. Vielleicht hat niemand Einspruch erhoben, weil die Hypothese so offensichtlich wahr zu sein schien: Die Wissenschaft ist besser dran, wenn jemand jede Arbeit überprüft und diejenigen zurückweist, die nicht den Anforderungen entsprechen. Sie nannten es „Peer Review“.

Dies war eine gewaltige Veränderung. Von der Antike bis zur Moderne schrieben Wissenschaftler Briefe und verbreiteten Monographien, und die größten Hindernisse, die sie davon abhielten, ihre Ergebnisse zu verbreiten, waren die Kosten für Papier, Porto oder eine Druckerpresse, oder in seltenen Fällen die Kosten für einen Besuch der katholischen Kirche. Wissenschaftliche Zeitschriften erschienen um 1600, aber sie funktionierten eher wie Magazine oder Newsletter, und ihre Verfahren zur Auswahl von Artikeln reichten von „wir drucken, was immer wir bekommen“ über „der Herausgeber fragt seinen Freund, was er denkt“ bis hin zu „die ganze Gesellschaft stimmt ab“. Manchmal bekamen die Zeitschriften nicht genügend Artikel, um sie zu veröffentlichen, so dass die Redakteure ihre Freunde anflehen mussten, Manuskripte einzureichen, oder sie mussten den Platz selbst füllen. Das wissenschaftliche Verlagswesen blieb jahrhundertelang ein Sammelsurium.

Es ist ein außergewöhnlicher Aufsatz, der viel von dem erklärt, was in der „Wissenschaft“ und in der akademischen Welt vor sich geht.

Hier eine Liste der Titel seiner Abschnitte und einige Auszüge daraus.

EINE MENGE GELD FÜR NICHTS

POSTMORTEM

Würden die Gutachter ihren Job machen, würden wir viele Geschichten hören wie „Professor Cornelius von Fraud wurde heute gefeuert, nachdem er versucht hatte, eine gefälschte Arbeit bei einer wissenschaftlichen Zeitschrift einzureichen.“ Aber solche Geschichten hören wir nie.

PEER REVIEW, WIR HABEN EUCH KAUM ERNST GENOMMEN

KÖNNEN WIR ES REPARIEREN? NEIN, KÖNNEN WIR NICHT

Eine Verschärfung des Peer-Review-Verfahrens würde auch das schlimmste Problem von allen verschärfen: Allein das Wissen, dass die eigenen Ideen nichts zählen, wenn sie den Peer-Reviewern nicht gefallen, führt dazu, dass man schlechter denkt.

PEER REVIEW IST SCHLIMMER ALS GAR NICHTS; ODER: WARUM ES NICHT REICHT, DAS RINDFLEISCH ZU RIECHEN

Peer Review funktioniert nicht, und es gibt wahrscheinlich keine Möglichkeit, das zu ändern. Aber ein bisschen Überprüfung ist doch besser als gar keine, oder?

Ich sage: auf keinen Fall.

WISSENSCHAFT MUSS FREI SEIN

HURRA, WIR HABEN VERSAGT

Niemand war für unser Peer-Review-Experiment verantwortlich, was bedeutet, dass niemand die Verantwortung hat, zu sagen, wann es vorbei ist. Da ich sonst niemanden sehe, werde ich es wohl tun.

Nach dieser Diskussion erklärt er:

Was sollen wir jetzt tun? Nun, letzten Monat habe ich eine Studie veröffentlicht, d.h. ich habe eine PDF-Datei ins Internet gestellt. Ich habe es in normaler Sprache geschrieben, so dass es jeder verstehen konnte. Ich habe nichts verheimlicht – ich habe sogar zugegeben, dass ich vergessen habe, warum ich eine der Studien durchgeführt habe. Ich habe Witze reingeschrieben, weil mir das niemand verbieten konnte. Ich habe alle Materialien, Daten und den Code hochgeladen, so dass jeder sie sehen konnte. Ich dachte, ich würde wie ein totaler Dummkopf aussehen und niemand würde mir Beachtung schenken, aber wenigstens hatte ich Spaß und tat, was ich für richtig hielt.

Dann, noch bevor ich jemandem von der Arbeit erzählte, wurde sie von Tausenden von Menschen gefunden, kommentiert und retweetet.

Völlig Fremde schickten mir nachdenkliche Kritiken. Professoren mit Lehrstuhl schickten mir Gedanken. NPR bat mich um ein Interview. Die Studie hat jetzt mehr Aufrufe als die letzte von Experten begutachtete Arbeit, welche ich in den renommierten Proceedings of the National Academy of Sciences veröffentlicht habe. Und ich vermute, dass weitaus mehr Menschen diese neue Arbeit bis zum Ende gelesen haben, denn vor allem die letzten paar Absätze wurden häufig kommentiert. Ich weiß also nicht, ich denke, das ist eine gute Methode?

Link: https://wattsupwiththat.com/2023/01/02/the-rise-and-fall-of-peer-review/

Übersetzt von Christian Freuer für das EIKE