Lasse keine Krise ungenutzt: Robert Habeck, das Klima und das Virus

Wie Wolfgang Meins auf der Achse gerade schrieb, wird nach der SARS2-Krise das Klimakollapsthema in den Medien wieder hochgekocht werden, sofern die Volksquarantäne nicht unübersehbare kurzfristige wirtschaftliche Schäden mit Folgeprotesten verursacht hat. In der Tagesschau wurde schon einmal vorgelegt. Die Zeit bereitet sich auch schon einmal auf die Nach-Corona-Ära vor, indem sie Robert Habeck Stichworte gibt, der mit seinen Grünen von der menschgemachten Viruskrise arg gerupft wurde. So darf der Parteichef dort hanebüchene Vergleiche ziehen, die ein Literat schlicht einen rumpelnden Übergang nennen würde:

Die Klimakrise hingegen schieben viele weg, auf irgendwann später, irgendwo anders. Zu Unrecht, zumal es gegen die Klimakrise nie einen Impfstoff geben wird.

Und:

Beide [Virus- und Klimakollapskrise] sind global, ihre Bekämpfung macht internationale Kooperation notwendig. Beide zwingen uns dazu, alte Gewissheiten infrage zu stellen. Deshalb wurden sie auch von Populisten lange geleugnet. Beide wären besser beherrschbar, wenn man vorausschauend handelt. Beide haben gemeinsam, daß der Anstieg der Kurven – Infektionen und Temperatur – abgeflacht werden muß.

„Populisten“ sind natürlich nicht die Profiteure von Panikmache, sondern immer die anderen. Interessant auch, daß Habeck von überstaatlicher Zusammenarbeit spricht, als wenn gerade SARS2 nicht gezeigt hätte, wie EU und WHO versagen, wenn es wirklich darauf ankommt. Der Vergleich mit Temperatur und Infektionen ist wohl an Schellnhubers und Hirschhausens „Fieber“ angelehnt und ähnlich sachfremd. Aber diese ungelenken Sätze sind ja noch lustig bis harmlos. Habeck kann noch härter:

Wachstum auf Teufel komm raus kann nicht mehr das alleinige Kriterium für gesellschaftlichen Wohlstand sein. Wir müssen den Kapitalismus zähmen, sprich, eine sozial-ökologische Marktwirtschaft durchsetzen.

Kapitalismus und damit verbundenes heftiges wirtschaftliches Wachstum hat nicht nur Hunderte Millionen Menschen aus der Armut geholt, sondern ermöglicht auch den überzähligen Akademikern der westlichen Welt, auf Kosten der anderen zu leben, ohne diese zur Revolte zu treiben. Der „Green new deal“, den der Grünchef hier eingedeutscht fordert.
Habeck ist nicht ganz alleine mit seiner seltsamen Themenvermengung, die die Ängste der steuerzahlenden Plebs recht ungeschickt zu den „richtigen“ Themen umlenken soll. Auch um ihre Popularität besorgte Stars und Sternchen wollen mitmischen. Die Englischsprachigen nennen so etwas übrigens virtue signalling, also Tugend-Signalisierung. Typisch für Promis, die auf der Suche nach Sinn und „höherer“ Moral irgendwelche gerade aktuellen Luxusüberzeugungen übernehmebn und dies laut herumposaunen. Kostet ja nichts, wie man an Lena Meyer-Landruts Pappschildchen mit der Aufschrift „#Fight every crisis!“ sehen kann. Die Sängerin rief damit zur „Online-Demo“ von FFF auf:

Am Freitag ist globaler Klimastreik. Wir können nicht auf die Straße, deswegen basteln wir. Macht mit, informiert euch, habt eine Meinung und seid laut.

Die Nutzung der Krisenproblematik für die Popularität scheint vielen Fans aber nicht zu gefallen. Kommentar-Beispiele:

  • Ja genau bastelt wie die wilden Schilder – das ne große Menge Bäume abgeholzt werden muss wegen euch – schmeißt euer handy weg und kauft kein neues mehr das wäre der erste Schritt im Klimaschutz …… nachdenken hilft auch

  • Statt zu streiken. Warum helft ihr nicht als Erntehelfer? Lieber Streiken? ist ja nicht so anstrengend

  • Corona macht mehr für die Umwelt als jede Friday’s for Future Demo!

  • Herr schmeiß Hirn. Im Netz zu streiken ist wohl ähnlich sinnbefreit, wie Formel 1 Autos mit Protestplakaten. Schon mal gegoogelt, was das Internet an co2 verbraucht?

 
 
 
 




Die Verfassungswidrigkeit des am 23. März 2020 von Bund und Ländern beschlossenen und am 15. April im Kern verlängerten Shutdown und das Totalversagen der Politik

Auch die „Coronakrise“ ist, wie neue empirische Daten über die weitgehende Harmlosigkeit von COVID-19 zeigen, nicht wirklich existent, es handelt sich in epidemiologischer Hinsicht allenfalls um ein Coronaproblem. Eine Krise ist entstanden allein in sozialer und ökonomischer Hinsicht infolge fehlerhafter und panischer politischer Entscheidungen; zu erwarten ist eine Jahrhundertrezession mit einer Massenarbeitslosigkeit in ihrem Gefolge, die der verheerenden Arbeitslosigkeit während der Weltwirtschaftskrise der 1930er Jahre gleich kommen könnte.
Aufgrund der Modellrechnung von Virologen (auch hier spielen also Modelle eine  entscheidende Rolle) wurde von der Bundesregierung bei der Anordnung des Shutdown am 23. März 2020 unterstellt, dass 5 % der mit dem Virus Infizierten beatmungspflichtig und ein Intensivbett benötigen würden. Dazu ist festzustellen, dass Modelle prinzipiell methodisch ungeeignet sind, komplexe Probleme zu analysieren, denn ihre Analyseergebnisse hängen stark ab von der Willkürlichkeit der ins Modell eingegeben Ausgangsannahmen (Nahamowitz 2020, 14 ff). Bei 300.000 Infizierten wären es nach dieser Modellrechnung 15.000 zusätzlich benötigte Intensivbetten, was zweifellos das Krankenhaussystem an den Rand der Belastbarkeit gebracht hätte. Denn nach einer Schätzung der Deutschen Krankenhausgesellschaft (DKG) ist Anfang April die Zahl der Intensivbetten von 28.000 auf 40.000 also nur um 12.000 gesteigert worden (Handelsblatt vom 24./25./26. April 2020, S. 33).
Daher zielten die staatlichen Abwehrmaßnahmen mit dem Shutdown als Höhepunkt auf eine Verlangsamung des Infektionsgeschehens ab. Es sollte den Krankenhäusern die Zeit eingeräumt werden, ihre Intensivkapazitäten zu erhöhen, um damit, wie immer wieder von den Politikern betont wurde, „Leben zu retten“.
Bei dieser Strategie ist bereits der Ansatz falsch, weil nicht  zwischen Infizierten mit und ohne Symptome unterschieden wurde. Letztere, die ungefähr die Hälfte ausmachen könnten, bedürfen keines Intensivbettes in der Zukunft. Ihre Anzahl wurde und wird nicht erhoben – epidemiologisch ein schwerer Fehler, so der renommierte Infektionsepidemiologe Sucharit Bhakdi (Bhakdi, Video vom  29.3.2020 ). Hinzukommt, dass von Anfang an eine weitere wesentliche Unterscheidung, diesmal bei der Zählung der Toten, nicht vorgenommen wurde, nämlich die, ob der Exitus entscheidend durch das Coronavirus herbeigeführt wurde oder ob es eine andere wesentliche Ursache gab (z.B. Diabetes, Bluthochdruck oder Herzinfarkt). In der Statistik werden alle Toten als Corona-Tote aufgeführt, bei denen das Virus aufgefunden wurde, eine Obduktion findet nicht statt  – nach Bhakdi ein Verstoß gegen die deutschen ärztlichen Leitlinien. Diese Handhabung beruht auf einer Empfehlung des Robert Koch Instituts (RKI) mit der nicht überzeugenden Begründung, dass Obduktionen das Infektionsrisiko erhöhten. Die obduzierenden Ärzte sind aber in Wahrheit bei ihrer Tätigkeit gegen Infektionen ausreichend geschützt. Erst am 21.4.2020, also erst 4 Wochen nach dem Shutdownbeschluss hat das RKI, eine Bundesoberbehörde mit einem Tiermediziner (!) an der Spitze, seine verfehlte Empfehlung aufgegeben und empfiehlt nun ebenfalls Obduktionen zur Feststellung der wirklichen Todesursache. Man wird abwarten müssen, wie sich das neue Verfahren in der Praxis bewährt.
Beide Unterlassungen wurden und werden freilich weiterhin weltweit praktiziert, sie führen in der politischen Realität zu Angsterzeugung und einer überhöhten Alarmierung der Öffentlichkeit. Im ersten Fall erscheint die Zahl der kranken Infizierten zu hoch, im zweiten die Zahl der echten, tatsächlich „an“ (und nicht nur „mit“) Corona Gestorbenen. Die Ähnlichkeit des Coronaalarmismus zum vor allem in Europa staatlich geförderten Klimaalarmismus drängt sich auf.
Auf dieser inkorrekten Faktenlage beruhte der Shutdown- Beschluss vom 23. März, der weitreichende Eingriffe in die Grundrechte der deutschen Bürger und Unternehmen mit sich brachte, und zwar vor allem in die allgemeine Handlungsfreiheit (Art. 2 Abs. 1 GG), die Religionsfreiheit (Art. 4 Abs. 2 GG), die Versammlungsfreiheit (Art. 8 Abs. 1 GG), die Freizügigkeit (Art. 11), die Berufsfreiheit (Art. 12 Abs. 1 GG) sowie in die Eigentumsfreiheit (Art. 14 Abs. 1 GG).
Nach Art. 20 Abs. 3 GG ist die vollziehende Gewalt „an Gesetz und Recht gebunden“. Nach der ständigen Rechtsprechung des BVerfG beurteilt sich die Verfassungsmäßigkeit von Grundrechtseingriffen nach dem Verhältnismäßigkeitsgrundsatz mit seinen drei Elementen der Geeignetheit, der Erforderlichkeit und der Zweck/Mittel- Proportionalität des Eingriffs.
Die Verhältnismäßigkeitsprüfung würde anders ausfallen, wenn von den zuständigen Stellen die sachgerechten Parameter statistisch erhoben worden wären. Unterstellt, nur die Hälfte der Infizierten würde Symptome entwickeln, würden bei 300.000 Infizierten nicht 15.000, sondern nur 7.500 zusätzliche Intensivbetten benötigt, eine Aufgabe, welche die Krankenhäuser bereits Anfang April bewältigt hatten. Und dann wäre sehr genau zu prüfen, ob die Radikalmaßnahme einer Verlängerung des Shutdown am 15. April überhaupt erforderlich gewesen wäre. Würde sich weiterhin herausstellen, dass die sogenannten Corona -Toten nicht durch COVID-19 als wesentlicher Ursache, sondern wesentlich an ihren i. d. R. schweren Vorerkrankungen verstorben sind, wovon jedenfalls für Hamburg ausnahmslos auszugehen ist (so die bei Markus Lanz am 9. April 2020 getroffene Feststellung des Rechtsmediziners Klaus Püschel, der in Hamburg sämtliche „Corona-Tote“ obduziert hat), so würde sich die Prüfung der Proportionalität zwischen geretteten Leben (Zweck) einerseits und den gravierenden Beeinträchtigungen des öffentlichen und privaten Lebens einer ganzen Bevölkerung (Mittel) andererseits ebenfalls anders darstellen. Denn das Hamburger Obduktionsergebnis ist sicherlich zumindest in der Tendenz auf das ganze Bundesgebiet übertragbar. In diesem Fall würde der Zweck des Shutdown, Leben zu retten, sich nahezu vollständig verflüchtigen

Anzahl der gemeldeten Neu-Infektionen pro Tag. Berücksichtigt man den Zeitverzug von gut 10 Tagen zwischen Infektion und Meldung, dann lag der Scheitelpunkt der Epidemie etwa um den 20. März 2020. Daten Worldometer hier  Grafik mit Trendlinie Prof. Homburg im Video Punkt Preradovic vom 28.4.20 hier

Glücklicherweise brauchen wir diese mit notgedrungen hypothetischen Daten arbeitende Verhältnismäßigkeitsprüfung nicht durchzuführen. Denn knapp eine Woche vor dem Shutdown-Verlängerungsbeschluss vom 15. April ist ein Ereignis eingetreten, welches die verfassungsrechtliche Waagschale zuungunsten der staatlichen Radikalmaßnahmen gesenkt hat. Der Verlängerungsbeschluss vom 15. April brachte nur zögerliche Lockerungen. Vor allem kleinere Geschäfte, Autohäuser, Buchläden und Frisöre durften wieder öffnen, für die Schulen gab es partielle Lockerungen. Wie es sich für einen föderalen Staat gehört, wurden diese Erleichterungen in den Bundesländern durchaus unterschiedlich umgesetzt. Beibehalten am 15. April aber wurde das grundsätzliche Kontaktverbot. Geschlossen blieben Geschäfte ab einer Verkaufsfläche von 800 qm, alle Hotels und Restaurants sowie die Kitas, wobei es auch hier zu föderalen Abweichungen kam. Das angesprochene verfassungsrechtlich bedeutsame Ereignis bestand in dem Ergebnis einer engagierten Forschergruppe.
Eine Anfang April von einer Forschergruppe um den Bonner Virologen Hendrik Streeck erhobene repräsentative Stichprobe mit 1.000 Probanden in der nordrhein-westfälischen Gemeinde Gangelt im Kreis Heinsberg hat nämlich die äußerst geringe Letalitätsrate von 0,37 % der Infizierten erbracht, wie auf einer Pressekonferenz am 9. April in Anwesenheit von NRW-MP Armin Laschet von Streeck mitgeteilt wurde. Das wären 1.110 Tote auf 300.000 Infizierte und 370 Tote auf 100.000 Infizierte, was SARS-CoV-2 als ein weitgehendes harmloses Virus ausweist. Hinzu kommt, dass die weit überwiegende Zahl der Toten keine „an“ Corona gestorbene Toten wären. Bhakdi schätzt die Gefährlichkeit von SARS-CoV-2 als zwischen einem Fünfzigstel und einem Hundertstel schwächer als das Grippevirus, welches vor zwei Jahren in Deutschland 25.000 Tote forderte (Bhakdi ebd.). Diese Grippeepidemie wurde damals ohne jede Schwierigkeit und ohne jedes öffentliche Aufsehen vom Krankenhaussystem bewältigt; eine staatliche Abwehrreaktion war nicht nötig und erfolgte auch nicht (ebd.). Für das viel harmlosere SARS-CoV-2 hat das umso mehr zu gelten. Die weitgehende Harmlosigkeit von SARS-CoV-2 wird auch durch eine aktuelle französische Studie bestätigt, von der  Bhakdi ebenfalls berichtet. In ihr wird die Gefährlichkeit von SARS-CoV-2  etwa gleich hoch eingeschätzt wie die alltäglicher Coronaviren. Der Titel der Studie „SARS-CoV-2“: fear versus data“ zeigt schon an, worum es geht: Die allgemeine Coronafurcht ist durch die Datenlage nicht gerechfertigt (Roussel et al. 2020).
Wir beginnen nun mit der schulmäßigen verfassungsrechtlichen Prüfung nach Maßgabe des Verhältnismäßigkeitsgrundsatzes mit seinen drei Elementen der
 

  1. Geeignetheit,

 

  1. Erforderlichkeit und

 

  1. Zweck/Mittel- Proportionalität

 
des Grundrechtseingriffs.
Auf den ersten Blick scheint der Shutdown erfolgreich und damit geeignet zu sein, das Ziel der Verlangsamung des Infektionsgeschehens zu erreichen. Denn die sog. Reproduktionsrate (R), die angibt, wie viele weitere Personen ein Infizierter ansteckt, ist von ursprünglich über 3 auf knapp unter 1 gesunken. Im Zuge dieses Erfolgs haben die Krankenhäuser denn auch erhebliche Überkapazitäten im Intensivbereich aufgebaut, was den Anteil der freien Betten an der Gesamtzahl der Intensivbetten z.B. in Bayern auf 51 % (zweithöchster Wert) und in Berlin auf 31 % (niedrigster Wert) erhöht hat (Handelsblatt vom 24./25./26. April 2020, S. 33).  Der genauere Blick anhand einer Kurve, die vom Hannoveraner Ökonomen Stefan Homburg angefertigt und bei Markus Lanz am 21. April vorgeführt wurde, zeigt aber, dass R schon einige Tage vor dem Shutdownbeschluss vom 23. März auf unter 1 gesunken ist und seitdem leicht unterhalb dieser Marke pendelt, ohne weiter deutlich zu sinken. Damit wäre den beiden Shutdownbeschlüssen das Testat der Geeignetheit i. S. des Verhältnismäßigkeitsgrundsatzes zu versagen.
Das RKI wendet freilich ein, dass der R-Wert das reale Geschehen „etwas überschätzt“, vor allem weil die Testkapazitäten stark erhöht worden seien (17. Epidemiologisches Bulletin des RKI). Unterstellt, der R-Wert läge in Wahrheit 0,2 – 0,3 Punkte niedriger, also etwa bei 0,6, ändert das nichts an der Feststellung, dass der entscheidende Abstieg von dem hohen R-Sockel von über 3 auf unter 1 bereits vor dem Shutdown erfolgt ist. Und dass aus der geringen Verbesserung des R-Wertes danach die Eignung des Shutdown nicht hergeleitet werden kann.
Man kann diese Frage aber letztlich dahin gestellt sein lassen, denn es ergeben sich eindeutige Belege für die fehlende Erforderlichkeit des Shutdown. Diese sind im Vorstehenden bereits genannt worden, sie lassen sich in der Feststellung zusammenfassen, dass SARS-CoV-2 ein weitgehend harmloses Virus ist. Das legt die sehr geringe Letalitätsrate von 0,37 % zwingend nahe. Das Hamburger Obduktionsergebnis legt nahe, dass es nahezu keine ursächlich „an“ COVID-19 Gestorbenen gibt. Die französische Studie setzt die Gefährlichkeit von SARS-CoV-2 gleich mit derjenigen normaler Coronaviren. Schließlich zeigt der Vergleich mit dem 50- bis 100- fachen stärkeren Grippevirus von vor zwei Jahren, welches trotz 25.000 Toten keinerlei Abwehrmaßnahmen des Staates evoziert hat, dass die gegenwärtigen Maßnahmen des Shutdown weit überzogen sind. Die „milderen Mittel“ wie Hygieneregeln, Abstandsgebote und (die freilich medizinisch umstrittene) Maskenpflicht sind ausreichend zur Eindämmung des Virus, weitergehende Maßnahmen sind nicht erforderlich.
Schließlich ist auch die Zweck/Mittel- Proportionalität nicht gewahrt, die Shutdownbeschlüsse sind wie das Schießen mit Kanonen auf Spatzen: es werden wesentliche  Grundrechte einer ganzen Nation über Wochen in Quarantäne genommen, um ein weitgehend harmloses Virus zu besiegen.
Um der grundrechtsdogmatischen Vollständigkeit willen sei noch erwähnt, dass die Prüfung der Zweck/Mittel- Propotionalität des Eingriffs in die Berufsfreiheit (Art. 12 Abs. 1 GG) nach den Regeln der sog. Drei-Stufen-Lehre erfolgt. Für die Berufsausübung (1. Stufe) sind „vernünftige“ Gesichtspunkte des Gemeinwohls ausreichende Rechtfertigung, für die subjektiven Zulassungsbeschränkungen bei der Berufswahl (2. Stufe) werden „wichtige“ Gesichtspunkte des Gemeinwohls zur Rechtfertigung gefordert und bei den objektiven Zulassungsbeschränkungen bei der Berufswahl (3. Stufe) „überragend wichtige“ Interessen des Gemeinwohls. Die Regelungen des Shut­down wie Restaurantschließungen und Veranstaltungsverbote erfolgen auf der 1. Stufe (Berufsausübung ), auf der wichtige Allgemeininteressen zur Rechtfertigung ausreichend sind. Das wäre klar der Gesundheitsschutz der Bevölkerung. Aber auch bei der Berufsausübungsfreiheit muss der Eingriff geeignet und erforderlich sein, wobei letzteres oben schon verneint worden ist.
Aus den Wortmeldungen der Ministerpräsidenten im Vorfeld der Verlängerungsentscheidung ergibt sich, dass sie sich an „Gefühl und Wellenschlag“ ausrichteten, und das Ergebnis der lege artis nach den Regeln der WHO durchgeführten Feldstudie der Bonner Wissenschaftler ebenso in unglaublicher Ignoranz ignorierten wie das Ergebnis der schon vorher erschienenen französischen Studie. Eine Ausnahme in der Dilettantenrunde aus Ministerpräsidenten und Vertretern der Bundesregierung bildet wahrscheinlich auch der MP von NRW Armin Laschet nicht, obwohl er die Studie der Bonner Wissenschaftler bis zuletzt politisch begleitet hatte. Das schließe ich aus dem Umstand, dass Laschet in späteren Statements (zuletzt bei Anne Will am 26. April) sich niemals auf die geringe Letalitätsrate von 0,37 % zur Begründung seines Plädoyers für mehr Lockerung berufen hat.
Hier zeigte sich das Versagen der großen Politik ein weiteres Mal, nachdem sie schon am Anfang des Prozesses die Erhebung der sachgerechten Statistiken versäumt hatte. Genauso wie beim Klimathema zeigt sich, dass die große Politik in Deutschland mit Wissenschaft nicht adäquat umgehen kann. Lässt sie sich beim Klima einseitig von dem federführenden superalarmistischen Potsdam- Institut beraten unter vollständiger Nichtbeachtung der zahlreichen hervorragenden skeptischen Klimawissenschaftler, so sind ihre Ratgeber bei Corona offensichtlich allein Wissenschaftler vom Schlag des Virologen Christian Drosten von der Berliner Charité und des Robert Koch Instituts, welche es nicht einmal angedacht hatten, den methodisch einzig richtigen Weg einer repräsentativen Stichprobe zur Erhellung der Coronaproblematik einzuschlagen. Vollends dubios ist die Rolle von Armin Laschet, der direkten Kontakt zu dem abweichenden Virologen Streeck hatte und seine Ergebnisse kannte, diese im politischen Ringen aber niemals verwendete. Wollte er seine Chancen als Bewerber um den CDU- Vorsitz nicht schmälern? Denn die von Streeck und seinen Kollegen gefundene geringe Letalitätsrate des Coronavirus legt die Axt an die gesamte Shutdown-Politik der Bundesregierung.
Und aktuell zeitigt die Totalignoranz der Politik das fatale Resultat, dass sie trotz Rückgangs der Reproduktionszahl (R) auf unter 1 und mehr als ausreichender Intensivkapazitäten in den Krankenhäusern immer noch wie das Kaninchen auf die Schlange allein auf die Infektionszahlen schaut in der furchtsamen Erwartung einer zweiten Infektionswelle. Dass die Letalitätsrate mit 0,37 % minimal ist und damit auch einer eventuellen zweiten Infektionswelle den Schrecken nimmt, ist entweder weiter unbekannt oder wird verdrängt. Geräte dieser Umstand ins öffentliche Bewusstsein, würde die unverhältnismäßige Strategie des Shutdown wie ein Kartenhaus in sich zusammen fallen.
Aus dem zuvor im Rahmen der Prüfung der Verhähtnismäßigkeit Gesagten folgt die Verfassungswidrigkeit beider Shutdown-Beschlüsse. Dass zum Zeitpunkt des ersten Beschlusses das Bonner Forschungsergebnis noch nicht vorlag, spielt keine Rolle, da es zur Feststellung der Verfassungswidrigkeit einer Maßnahme auf die Kenntnis oder Unkenntnis entscheidungsrelevanter Fakten auf Seiten der handelnden staatlichen Stelle nicht ankommt. Die Verfassungswidrigkeit kann im Wege der Verfassungsbeschwerde von den Betroffenen (das sind alle Bürger) gem. Art. 93 Abs. 1 Nr. 4a vor dem BVerfG geltend gemacht werden. Nach § 32 BVerfGG ist auch ein Eilantrag zum BVerfG zulässig. Ist einem Bürger bzw. Unternehmen aufgrund des verfassungswidrigen Staatshandelns ein Vermögensschaden entstanden, der die staatlichen Kompensationszahlungen übersteigt, kann Schadensersatz nach den Grundsätzen des Staatshaftungsrechts geltend gemacht werden (vgl. näher Will, Quarck 2018 ). Tun das viele  Rechtssubjekte, könnte die  verfassungswidrige Coronapolitik den Staat noch sehr viel mehr kosten, als sich bisher abzeichnet. Das wird genau so sein bei dem großen Klimaprojekt der „Energiewende“, nur auf sehr viel höherem Niveau – eine  letzte Ähnlichkeit zwischen  Coronapolitik und Klimapolitik.
Meine Überlegungen münden in einen kurzen Abstecher in die politische (Tiefen-) Psychologie. Gegenstand ist das Totalversagen der Politik, welches in weiten Teilen die Unfähigkeit ist, mit Wissenschaft sachgerecht umzugehen. Zum einen hat diese Unfähigkeit wohl den Grund, dass Intelligenz keine Bedingung einer erfolgreichen politischen Karriere ist. Zum anderen ist auffällig, dass die Politik sich nicht pluralistisch beraten lässt, weder in der Coronapolitik noch in der Klimapolitik. Und noch mehr fällt auf, dass sie anscheinend ohne Zögern, wie bei den Themen Klima und Corona geschehen, die alarmistische Wissenschaftvariante wählt und an dieser Wahl unbeirrt festhält. Dahinter mag auch das halb bewusste, halb unbewusste Wissen stehen, dass der Notstand (die Krise) nach einer gängigen staatsrechtlichen Erkenntnis die Stunde der Exekutive ist. Und die damit zuwachsende Macht dürfte gerade für die überall anzutreffenden narzistischen Politiker, für deren Beruf Machtausübung in all ihren Schattierungen gleichsam konstitutiv ist, ein großes Faszinosum sein. Nach dem bekannten Tiefenpsychologen und Narzissmusforscher H.-J. Maaz gilt die Erkenntnis: „Politik ist narzissmuspflichtig“ (Maaz 2016, 189 ff). Die Geltung dieser Erkenntnis ist nicht auf Deutschland beschränkt, sondern ist ebenso global wie COVID-19 global wirkt.
 
Quellenverzeichnis
 
Bhakdi, Sucharit 2020: Offener Brief an die Bundeskanzlerin, Video vom 29.3.
Maaz, Hans-Joachim 2016: Die narzistische Gesellschaft.,
 
Nahamowitz, Peter 2020: Klimawandel und CO2: falsche Alarmzeichen für die Weltgesellschaft, in: ScienceFiles, Blaue Reihe. Band 8.
 
Roussel, Yanis et al. 2020: SARS-CoV-2: fear versus data, in: International Journal of Antimicrobial Agents, 19 March.
 
Will, Quarck 2018: Staatshaftungsrecht.
 
Der Autor ist Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover und ist seit 2007 im Ruhestand. Er lehrte seit Jahrzehnten Verfassungsrecht  an seinem Fachbereich in Hannover.




Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 2)

…siehe hierhier und hier.“ (Pat Frank 9.12.2019[1])

Teil 1 hier und Teil 3 hier

Zu 3 Messregime

Da es praktisch undurchführbar war die gemessene Temperatur in kurzen Zeitabständen abzulesen, wünschenswert wären bspw. alle 5 Minuten gewesen, definierte man entweder wenige feste Tageszeiten, an denen abgelesen (und notiert) wurde, dies wurde insbesondere in Zentraleuropa – aber zu verschiedenen Zeiten und auch unterschiedlich oft- so gemacht, oder man las nur die Max. und die Min-Werte von speziellen Thermometern ab, und war dadurch zeitlich nicht so gebunden. Man handelte sich aber damit die Unkenntnis ein, nicht genau zu wissen, wann am Tag der Max. bzw. Min. Wert aufgetreten war. Das führte zu einem speziellen, aber kräftigen Fehler bei der Auswertung, der sogar einen eigenen Namen bekam, der Time of Observation Error (TOBs). Vor allem die praktischen Briten und mit ihnen dann alle ihre Kolonien und Einflussgebiete benutzten bis zum Ende des vergangenen Jahrhunderts diese Methode.

Abbildung 5 Kleine Auswahl aus historisch vielfach verwendeten Mittelwertbildungsalgorithmen
Aus diesen punktuellen Messwerten wurden dann arithmetische Mittelwerte gebildet, das sog. Tagesmittel. Diese (verschiedenen) Tagesmittel erlaubten nun Monatsgänge der Tagestemperaturen zu bilden. Sie wurden und werden dann weiter zu arithmetischen Monatsmitteln zusammengefasst, die es wiederum erlaubten Jahresgänge zu bilden, welche den Verlauf der Jahreszeiten anhand der Mittel-Temperatur zeigten.  Diese können dann zu Zeitreihen für langjährige klimatologisch interessante Zeiten zusammengefasst werden, was auch geschieht.
Es geschieht aber noch etwas anderes mit diesen Daten, sie werden in „Anomalien“ umgerechnet, d.h. es werden Differenzen aus dem aktuellen Wert abzüglich eines Referenzwertes gebildet. Dies geschieht wegen der berechtigten Annahme, dass Anomalien die eigentlich gesuchten Veränderungen präziser und weiträumig vergleichbarer abbilden, als die der absoluten Temperaturen, die zusätzlich noch weiteren Einflüssen wie Höhenlagen, windhöffiger oder stiller Messort etc. ausgesetzt sind. Doch damit handelt man sich neue Fehlerquellen ein, von denen die wenigsten Klimaforscher etwas wissen, ja schlimmer noch, die wegen falscher, wenn auch plausibler Analogien, zu völlig falschen Ergebnissen führen müssen. Welche das im Einzelnen sind und was das bedeutet wird im Teil „Weiterverarbeitung“ ausführlich beleuchtet.

Zu 4. Die geografische und zeitliche Abdeckung

Sobald die so gewonnenen Daten etwas mehr zur Beobachtung und Deutung von großräumigem Wettergeschehen herangezogen werden sollen, was in der Natur der Sache liegt, denn Wettergeschehen ist großräumig, kommt es unmittelbar auf eine genügende räumliche wie zeitliche Abdeckung der in Frage kommende Gebiete an. Doch da setzen ebenso technische wie finanzielle Machbarkeit enge Grenzen. Errichtung und Betrieb von Wetterstationen ist nicht nur teuer, sondern verlangt neben der genügenden Verfügbarkeit der richtigen Messmittel, auch genügend personelle Kapazität, großes Know How  und Disziplin für ihren Betrieb. Und das permanent über lange, im politischen Maßstab sehr lange Zeiträume. All das war von Anfang an nicht selbstverständlich und musste erst langsam nach dem Entstehen reifen. So wundert es nicht, dass die Stationsdichte sich ausnahmslos in früh entwickelten Ländern konzentriert, während weite Teile der Welt bis Anfang der 50er Jahre praktisch ohne Messstationen blieben. Das gilt für Südamerika, Afrika und weite Teile Asiens, ebenso wie die mehr als doppelt so große Ozeanfläche dieser Welt.



Abbildung 6 Entwicklung der Zahl und Position der historischen Messstationen
darunter Aktueller Stand der im Global Historical Climate Networks GHCN der NOAA mit Monatsmittelwerten der  Temperatur  insgesamt zuliefernden 7.280 Stationen mit mindesten 10 Jahren  kontinuierlicher Datenreihen. Für Stationen mit Max/Min Erfassung gibt es ähnliche Grafiken. Quelle (http://www.ncdc.noaa.gov/oa/climate/ghcn-monthly/index.php fig. 1). Man beachte jedoch, dass von GISS und CRU davon nur ungefähr 1/7 ausgewertet werden.
Quelle https://climateaudit.org/2008/02/10/historical-station-distribution/

Abbildung 7 Darstellung der gemeldeten SST´s für die Woche vom 2. bis 8. Januar 2000. Sie zeigt die dünne messtechnische Abdeckung der Wasserfläche der Erde. Frühere Abdeckungen der Wasserfläche sind mit großer Wahrscheinlichkeit noch deutlich schlechter gewesen. Aus [REYNOLDS, R. W. & RAYNER,, 2002] Seite 1611
 

Zu 5. Die Weiterverarbeitung! Was geschieht mit den meteorologischen Messdaten?

Wie zuvor schon kurz angesprochen werden die Einzeldatensätze erst einer umfassenden Prüfung auf Konsistenz, Dauer, und Plausibilität, mit anschließender Weiterverarbeitung unterzogen. Zunächst bleibt es bei den einzelnen Stationen und ihren Daten. Je nach Verwendungszweck wird aus diesen erst Tagesmittel und daraus das Monatsmittel gebildet und von diesem eines als „Station Normal“ bezeichneten langjährigem (bspw. über 360 Monate also 30 Jahre) Mittel abgezogen. Die so entstehende Differenz wird als so gut wie fehlerfrei betrachtet, weil – so die Annahme – die lokalen systematischen Fehler ja auch im „Station Normal“ vorhanden seien, und, wenn man beide Werte voneinander abzöge, sich der Fehler kompensierte (stellvertretend dafür [Brohan et al. 2006])[2],[3]. Manchmal werden aber auch zunächst die Jahresmittel gebildet und diese vom „Station Normal“ abgezogen. Die Grundannahme aber, von der Fehlerselbstkorrektur bei Bildung von Anomalien, bleibt aber dieselbe.
Und daher behaupten so gut wie alle Klimaforscher, auch Stefan Rahmstorf vom PIK unwidersprochen[4], dass Anomalien viel genauer seien als die ihnen zugrunde liegenden Absolutwerte. Liest man seinen Text genauer, dann muss man feststellen, dass er sich mit der Materie nicht beschäftigt hat, sondern nur auf die Korrelation zwischen den Trends von absoluten Temperaturdaten verweist, wie sie schon von James Hansen für seine Schwarze Kunst verweist. Es bleibt ein bitterer Treppenwitz der Wissenschaftsgeschichte, dass Annahmen über Korrelationskoeffezienten herunter bis 0,33 (Hansens Grenzwerte) die Politik in ein nie dagewesenes Desaster treiben konnte.  Wer Näheres dazu wissen möchte sei auf diesen Beitrag verwiesen: Von Korrelationen, Trends bei Anomalien![5]
Doch diese Annahme ist – bei Zeitreihen von Anomalien – und das werde ich im Folgenden belegen, bis auf eine Ausnahme, immer falsch!

Anmerkung:

Der folgende Text ist einem Artikel entnommen, den ich am 7. Februar 2011 bei EIKE einstellte, und der am 23.11.2018 aktualisiert wurde.
In der Klimatologie werden zur Bestimmung des Referenzwertes, die errechneten Monatsmittel oder Jahresmittel der gemessenen Temperatur einer Station, über den Zeitraum von 1961 bis 1990 aufaddiert und durch die Anzahl aller Monats- oder Jahresmittel dieses Zeitraumes geteilt. Der so enthaltene Wert entspricht einer Geraden gleicher „Temperatur“ über den Referenz-Zeitraum von 1961 bis 1990. (Es kann im Prinzip aber auch jeder andere Zeitraum sein.) Der zugehörige Referenz-Wert wird oft das Stationsnormal genannt. Folgerichtig heißen die Abweichungen vom (Stations)-Normal Anomalien.
Nun bildet man die Differenz aus allen absoluten Jahresmitteln Tx der Zeitreihe und dem Stationsnormal Tref und ermittelt auf diese Weise eine neue Zeitreihe der Anomalien eben dieser Station.  Dabei geht man von der Annahme aus, dass diese, wenn sie einen Fehler C enthalten, dieser auch im Stationsnormal vorhanden ist. Ferner unterstellt man, dass C eine konstante Größe hat. Bspw. Brohan und Jones[6] formulieren diese Annahme (in Bezug auf die Fehler durch unterschiedliche Mittelwertbildung) so:
„..There will be a difference between the true mean monthly temperature (i.e. from 1 minuteaverages) and the average calculated by each station from measurements made less often; but this difference will also be present in the station normal and will cancel in the anomaly.
Berechnet man jetzt die Anomalie Ax = (Tx+C) –(Tref+ C), dann hebt sich C auf. Das ist schlichte Algebra. So weit so gut! Die große Frage ist nun, funktioniert das bei Zeitreihen auch so? Warum denn nicht, wird mancher vorschnell antworten. Die Algebra ist schließlich immer gleich! Oder?
Es zeigt sich sehr schnell, dass die Idee der Fehlerkompensation, die hinter dieser einfachen Methode steckt, ebenso plausibel wie falsch ist, bzw. sie stimmt nur innerhalb ganz enger Randbedingungen, die in der hier interessierenden Praxis nicht eintreten.
Ende Teil 2
[1] Zitate in deutscher Übersetzung von Pat Frank Quelle: https://www.eike-klima-energie.eu/2019/09/09/fehler-fortpflanzung-und-die-zuverlaessigkeit-von-projektionen-der-globalen-lufttemperatur/
[2] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
[3] Brohan et. al geben auf Seite 6 den allgemeinen Glauben an die Fehlerfreiheit der Anomalien wider, in dem sie schreiben: „..There will be a dierence between the true mean monthly temperature (i.e. from 1 minute averages) and the average calculated by each station from measurements made less often; but this dierence will also be present in the station normal and will cancel in the anomaly. So this doesn’t contribute to the measurement error.“ Im Folgenden beschreiben die Autoren wie die Anforderungen an die Bildung der „station normals“ also der Referenzewerte (lt. WMO der Mittelwert jeder Station über die Jahre 1961-1990) aufgeweicht (relaxed) wurden. Die durchgeführte Re­duk­ti­on der An­for­de­run­gen zur Bildung des Referenzwertes (Station Normal) auf nur noch 15 Jah­re und da­raus 3 x 4 Jah­re in je­der De­ka­de, er­höht den Feh­ler, der schon in der Ver­wen­dung des Sta­ti­on Nor­mals steckt, wei­ter.
[4] Verwirrspiel um die absolute globale Mitteltemperatur Verwirrspiel um die absolute globale Mitteltemperatur
[5] https://www.eike-klima-energie.eu/2018/01/09/von-korrelationen-trends-bei-anomalien/
[6] Brohan, PK,J. J. Harris, I., Tett S. F. B.; & Jones, P. D. (2006) Uncertainty estimates in regional and global observed temperature changes: a new dataset from 1850. HadCRUT 3 HadCRUT 3:1 to 35.
Für alle die diese Arbeit am Stück lesen wollen hier das pdf dazu Die schwierige nimmer endende Fehlerdiskussion




IPCC-Politik und solare Variabilität

[Hinweis: Der folgende lange Beitrag ist an einigen Stellen gekürzt. Anm. d. Übers.]

Die Studie wirft ein grelles Licht auf die politischen Probleme beim IPCC. Um die Debatte um ACRIM vs. PMOD in den richtigen Zusammenhang zu bringen und zu zeigen, warum diese undurchsichtige und komplizierte wissenschaftliche Debatte wichtig ist, müssen wir auch das Politik-Durcheinander innerhalb des IPCC und des UNFCCC beleuchten.

Das Komposit der TSI-Aufzeichnung von ACRIM zeigt eine Zunahme der Sonnenaktivität von den 1980er Jahren bis etwa zum Jahr 2000. Danach flacht sie ab und beginnt bald abzunehmen. Das ACRIM-Komposit wurden von Richard Willson in einem Artikel für das Magazin Science bereits im Jahre 1997 vorgestellt (Willson1997). Dieses Komposit wurde im Jahre 2014 von Scafetta und Willson aktualisiert (Scafetta and Willson 2014).

Im darauf folgenden Jahr 1998 wurde von Claus Fröhlich und Judith Lean (Fröhlich und Lean 1998) ein rivalisierendes Komposit eingeführt. Darin gehen die gleichen Daten ein, doch bekommen sie eine abnehmende Sonnenaktivität von 1986 bis 1997 heraus. Claus Fröhlich arbeitete am Physikalisch-Meteorologisches Observatorium Davos (PMOD). Die beiden Komposits werden in Abbildung 1 verglichen:

Abbildung 1: Vergleich der TSI-Komposits nach ACRIM und PMOD. Der Graph der ACRIM-TSI (oben) zeigt eine Zunahme von 1986 bis 1997, was mit dem leicht abnehmenden Trend des Graphen des PMOD-Komposits kontrastiert. Der größte Teil dieser Differenz zwischen beiden ist die Art und Weise, wie die „ACRIM-Lücke“ von Mitte 1989 bis August 1991 dargestellt wird. Quelle: Modifiziert aus Scafetta, Willson and Lee et al. 2019, darin deren Abbildung 3

Es gab drei ACRIM-Satelliten, deren Messungen genau und allgemein unbestritten sind – außer von der PDMO-Gruppe. Bei dem Disput zwischen ACRIM und PDMO geht es darum, wie die „ACRIM-Lücke“ von Mai 1989 bis August 1991 zu interpretieren ist. Die Lücke hatte sich aufgetan, nachdem die Challenger-Katastrophe den Start des ACRIM2-Instrumentes verzögert hatte. Ein weiterer signifikanter Unterschied ist, dass das PMOD-Team es vorzog, die Virgo-Ergebnisse an Stelle von ACRIM3 zu nutzen.


[Hier wird der Streit mit gegenseitigen Zitaten weiter erläutert]

Es scheint, dass Judith Lean politisch motiviert war, das ACRIM-Komposit in Frage zu stellen. Aber es steckt mehr dahinter, und um das zu erläutern, müssen wir kurz auf die einzelnen IPCC-Klimawandel-Berichte eingehen. Wir man sehen wird, konnte das IPCC nur auf eine einzige Art und Weise berechnen, ein wie großer Anteil des Klimawandels dem Menschen geschuldet und welcher Teil natürlichen Ursprungs ist, nämlich indem das IPCC die natürliche Komponente modellierte und von den Beobachtungen subtrahierte, um die menschliche Komponente abzuleiten. Die natürliche Komponente ist sehr komplex und wirkt über verschiedene Zeitmaßstäbe. Sie wird hauptsächlich bestimmt durch die solare Variabilität und ozeanische Oszillationen. Beide sind noch kaum verstanden, und das IPCC sowie die CMIP-Modelle können beides nicht genau modellieren. Das IPCC führt viele Forschungen in allen möglichen Bereichen durch, aber wir wollen uns hier nur auf den wichtigsten Bereich konzentrieren, nämlich: Wie groß ist der Einfluss des Menschen auf das Klima?

Der erste IPCC-Bericht
Das IPCC ist eine unabhängige Körperschaft, ins Leben gerufen unter der Aufsicht der WMO und des UNEP. Sein selbst gestecktes Ziel ist:

Das IPCC ist die internationale Körperschaft, um die Wissenschaft bzgl. des Klimawandels zu untersuchen. Es wurde im Jahre 1988 durch die WMO und das UNEP gegründet, um politische Entscheidungsträger mit regelmäßigen Abschätzungen auf der wissenschaftlichen Grundlage des Klimawandels zu versorgen, dessen Auswirkungen und zukünftige Risiken, sowie Optionen zur Anpassung und Abschwächung (IPCC 2020)

Das UNFCCC (United Nations Framework Convention on Climate Change), welches nicht direkt mit dem IPCC verbunden ist, sagt Folgendes zur Mission des IPCC:

Das IPCC untersucht die wissenschaftlichen, technischen und sozio-ökonomischen Informationen, die relevant sind für das Verständnis der Risiken des vom Menschen verursachten Klimawandels (UNFCCC 2020).

Dem IPCC selbst zufolge untersucht dieses die Risiken des Klimawandels ohne jede Erwähnung von dessen Ursache. Es berät sowohl hinsichtlich Abschwächung (vorzugsweise durch Einschränkung fossiler Treibstoffe) als auch hinsichtlich Anpassung wie etwa mit Deichen, Air Conditioning, Heizung usw. Dem UNFCCC dagegen zufolge soll es (das IPCC) den vom Menschen verursachten Klimawandel untersuchen, was ein großer Unterschied zur Verlautbarung des IPCC ist. In ähnlicher Weise unterscheiden sich beide Agenturen auch bei der Definition des Begriffs „Klimawandel“. Das politisch ausgerichtete UNFCCC definiert diesen als

eine Änderung des Klimas, welche direkt oder indirekt menschlichen Aktivitäten zugeordnet werden kann (UN 1992)

Das kontrastiert mit der IPCC-Definition von „Klimawandel“, die weniger politisch und mehr wissenschaftlich ist:

Eine Änderung des Klimazustands, der … längere Zeit andauert, normalerweise Dekaden oder noch länger. Klimawandel kann natürlichen internen Prozessen oder externen Antrieben geschuldet sein, oder auch persistenten anthropogenen Änderungen der Zusammensetzung der Atmosphäre oder des Landverbrauchs (IPCC 2012)

Man kann leicht erkennen, dass UNFCCC und IPCC einen potentiellen Konflikt haben. Tatsächlich ist es ja so, dass wenn das IPCC zu dem Ergebnis kommt, dass der Mensch überhaupt keinen signifikanten Einfluss auf das Klima hat, das UNFCCC keine Berechtigung seiner Existenz hat. Im Ersten IPCC-Bericht 1990 (FAR) war man sich unsicher, ob globale Erwärmung natürliche oder anthropogene Ursachen habe. Die Schlussfolgerung lautete:

Die globale mittlere Temperatur ist während der letzten 100 Jahre um 0,3°C bis 0,6°C gestiegen … die Größenordnung dieser Erwärmung stimmt im Großen und Ganzen mit den Prognosen von Klimamodellen überein, ist aber gleichzeitig von gleicher Größenordnung wie die natürliche Klimavariabilität. … Die eindeutige Auffindung eines verstärkten Treibhauseffektes durch Beobachtungen ist für über ein Jahrzehnt oder noch länger unwahrscheinlich (IPCC 1992, S. 6)

Angesichts der großen Bandbreite von Meinungen innerhalb der wissenschaftlichen Gemeinschaft und des Fehlens jedweder solider Belege für den menschlichen Einfluss auf das Klima ist diese Schlussfolgerung logisch. Aber diese brachte politische Probleme für das UNFCCC mit sich. Der einzige Grund für dessen Existenz war der vom Menschen verursachte Klimawandel. Falls das IPCC die anthropogene Ursache nicht finden kann, steckte man in Schwierigkeiten. Auf die Wissenschaftler wurde enormer Druck ausgeübt, in Folgeberichten den Klimawandel menschlichen Aktivitäten zuzuordnen.

[Hervorhebung vom Übersetzer]

Der politische Standpunkt zu jener Zeit wird eindeutig mit dem folgenden Ausspruch von Senator Tim Wirth auf dem Erd-Klimagipfel in Rio im Jahre 1992 belegt:

Wir müssen auf dem Thema globale Erwärmung weiter herumreiten. Selbst wenn die Theorie der globalen Erwärmung falsch ist, tun wir das Richtige hinsichtlich Wirtschafts- und Umweltpolitik“ (National Review Editors 2010)

Der zweite IPCC-Bericht SAR

Alle nachfolgenden Berichte haben dann Klimawandel und globale Erwärmung dem Menschen zugeordnet. Der Zweite Zustandsbericht (SAR) überschritt diese Grenze mit der folgenden Schlussfolgerung:

Die Übersicht über alle Belege zeigt einen wahrnehmbaren menschlichen Einfluss auf das globale Klima!“ (IPCC 1996, S. 4)

Ronan und Michael Conolly (Conolly & Conolly 2019) erklären, dass diese Feststellung Eingang in den SAR gefunden hatte, weil Ben Santer, Leitautor des SAR-Kapitels zu den Ursachen des Klimawandels, einige unveröffentlichte und nicht begutachtete Arbeiten von ihm selbst vorgestellt hatte, in denen er behauptet, einen „Fingerabdruck“ des menschlichen Einflusses auf die globale Erwärmung gefunden zu haben. Seine Beweise umfassten Messungen, die von 1963 bis 1988 troposphärische Erwärmung und stratosphärische Abkühlung zeigten. Dies passte zu einer Prognose der für den SAR herangezogenen Klimamodelle. Vermeintlich würde zusätzliches Kohlendioxid in der Atmosphäre die Erwärmung in der Troposphäre und die Abkühlung in der Stratosphäre zunehmen lassen. Er stellte keine Verbindung her zwischen diesen Messungen und menschlichen Emissionen von Kohlendioxid oder derartigen Emissionen allgemein her, sondern er sagte einfach, dass sich so etwas Ähnliches zeigt wie von den Modellen prognostiziert.

Es waren schwache Beweise, und obwohl das Ganze nicht begutachtet und nicht einmal zur Veröffentlichung eingereicht worden war, wurde es angenommen. Weiter unten räumt die Studie ein, dass man die relative Größenordnung des natürlichen und des menschlichen Einflusses auf das Klima nicht quantifiziert hatte. Man hat einfach eine statistisch signifikante Ähnlichkeit zwischen einigen Beobachtungen und den Modellprognosen gezeigt.

Der politische Druck seitens des UNFCCC bzgl. der Verantwortung des Menschen war unerbittlich, und man musste etwas tun. Es gab einige hartnäckige Gerüchte, dass jemand heimlich den Text im SAR verändert hatte, nachdem die Autoren den Text bereits abgenickt hatten, und zwar auf eine Art und Weise, dass obige Schlussfolgerung gestützt und abweichende Ergebnisse gelöscht wurden. Das kann so sein, muss es aber nicht.

Unglücklicherweise löste die Studie von Santer (Santer et al. 1996), nachdem sie schließlich veröffentlicht worden war, einen Sturm an Kritik aus. Im Einzelnen wiesen Patrick Michaels und Paul Knappenberger (Michaels and Knappenberger 1996) darauf hin, dass der troposphärische „Hot Spot“, den Santer als den „Fingerabdruck“ des menschlichen Einfluss genannt hatte, sofort verschwand, wenn man den Zeitraum verfügbarer Daten von 1963 bis 1987 auf den Gesamtzeitraum dieser Daten ausdehnte, 1958 bis 1995. Mit anderen Worten, es sah so aus, als ob Santer für seinen „Fingerabdruck“ cherry-picking betrieben habe.

Neben der Rosinenpickerei mit den Daten gab es aber noch weitere Probleme bei Santers Interpretation. Die Erwärmungs- und Abkühlungstrends, die sie gefunden zu haben glaubten, könnten auch natürlichen Ursprungs sein, wie Dr. Gerd-Rainer Weber erklärte. Der Anfang von Santers willkürlich gewähltem Zeitraum war gekennzeichnet durch Vulkanismus und das Ende desselben durch starke El Ninos.

Der dritte Zustandsbericht TAR

Das IPCC war zutiefst brüskiert worden nach der Enthüllung, dass Santer et al. die Daten im SAR manipuliert hatte, aber man brauchte immer noch einen wie auch immer gearteten Weg, um die Menschen für den Klimawandel verantwortlich zu machen. Man fand eine andere Studie, welche perfekt für diesen Zweck geeignet schien, und hob diese im TAR lang und breit auf den Schild.

[Gemeint war natürlich der „Hockeyschläger“. Über diesen sowie dessen völlige Entlarvung als Betrug ist anderswo schon sehr viel geschrieben worden. Daher wird die erneute Beschreibung davon in dieser Übersetzung übersprungen. – Anm. d. Übers.]

Der vierte Zustandsbericht AR 4
Zu der Zeit,als der vierte Bericht verfasst wurde, war der Hockeyschläger umfangreich diskreditiert, und im Lichte dieses Vorgangs hat der Leitautor des relevanten Kapitels (Kapitel 6) Keith Briffa eingeräumt, dass die jüngste Erwärmung nicht ungewöhnlich sei. Er schrieb:

Einige der seit Erscheinen des TAR durchgeführte Studien zeigen eine größere vielhundertjährige Temperatur-Variabilität während der letzten 1000 Jahre als im TAR beschrieben (IPCC 2001, Kapitel 6, Seite 1)

Es ist ein schwaches Einräumen des Scheiterns, wie man erwarten konnte, aber er gibt zu, dass der Stiel des Hockeyschlägers zu flach verlief und dass die Temperaturen während der Mittelalterlichen Warmzeit höher gelegen haben könnten als heute. Dieses Eingeständnis nahm den Wind aus den Segeln des TAR und es stellte sich die Frage, was kann man jetzt machen? Es schien keinerlei Daten zu geben, welche den Gedanken stützen, dass die Menschen globale Erwärmung verursachen.

Das IPCC entschloss sich, im AR4 viel mehr die Klimamodelle in den Vordergrund zu schieben als Paläo-Temperatur-Rekonstruktionen, atmosphärische „Fingerabdrücke“ oder irgendwelche andere Beobachtungsdaten. Seit nunmehr zwanzig Jahren hatte man nach Belegen gesucht dafür, dass die Menschen der Hauptgrund für die jüngste Erwärmung seien, und man hat keine gefunden. Aber jetzt „entdeckte“ man, dass falls man die Klimamodelle ganz ohne irgendwelche menschlichen Klima-Antriebe laufen ließ, die berechneten globalen Temperaturen flach verliefen. Dies erkennt man in Abbildung 3 b:

Abbildung 3: Die IPCC-Modellberechnung des menschlichen Einflusses auf das Klima. Zwei Modell-Mittel werden in beiden Graphiken gezeigt. Die blaue Kurve stammt aus dem AR4, CMIP3, die rote Kurve aus dem AR5, CMIP5. Beide werden mit Beobachtungen verglichen (schwarz). Die obere Graphik zeigt Modelle unter Einbeziehung sowohl menschlicher als auch natürlicher Antriebe, die untere Graphik ausschließlich natürliche Antriebe. (Quelle: IPCC 2013, Kap. 10, S. 879).

Man ließ die Modelle also laufen, und bei der Modellrechnung mit menschlichen und natürlichen Einflüssen (Abb. 3a) zeigte sich, dass die Temperaturen steigen. Na bitte! Wir haben die menschlich verursachte globale Erwärmung belegt und brauchen keine Beobachtungsdaten mehr! Damit schrieben sie triumphierend:

Der größte Teil des beobachteten Anstiegs der globalen mittleren Temperatur seit Mitte des 20. Jahrhunderts geht sehr wahrscheinlich auf die beobachtete Zunahme von anthropogenen Treibhausgasen in der Atmosphäre zurück“ (IPCC 2007, S. 10)

Wir haben den Vergleich zwischen Modellergebnissen und Beobachtungen aus AR 5 bereits in Abbildung 3 gezeigt. In Abbildung 4 zeigen wir die dem AR 4 entsprechende Abbildung:

Abbildung 4: Vergleich des Modells einer natürlichen Erwärmung allein (b) und einer Erwärmung aus natürlichen plus menschlichen Ursachen (a) sowie Beobachtungen in schwarz. Quelle: IPCC 2007, S. 684)

In diesen Klima-Simulationen sind die einzigen natürlichen Antriebe, welche irgendeinen Unterschied machen, Vulkanausbrüche. Solare und ozeanische Variationen werden über den gesamten untersuchten Zeitraum auf Null gesetzt. Die Vulkanausbrüche sind in Abbildung 4 gekennzeichnet. Das Fehlen eines robusten Modells des natürlichen Klimawandels kann man daran erkennen, dass die Beobachtungen von 1910 bis 1944 nur schlecht zu den Simulationen passen, sowohl in Abbildung 3 als auch in Abbildung 4. Angesichts der reichlichen Literatur, in welcher ein signifikanter solarer Einfluss (Soon, Connolly and Connolly 2015) sowie ein solcher von natürlichen ozeanischen Oszillationen belegt wird (Wyatt and Curry 2014), kann man leicht jedwede Berechnung eines menschlichen Antriebs in Zweifel ziehen, welcher aus den Abbildungen 3 und 4 abgeleitet wird. Folglich ist die Schlussfolgerung im AR 4 und die ähnliche Schlussfolgerung im AR 5 mit ähnlicher Logik fragwürdig.

Der fünfte Zustandsbericht AR 5

Der AR5 ist im Wesentlichen eine Überarbeitung des AR 4 – man macht das Gleiche und führt die gleichen Verfahren durch. Es werden keinerlei neue Daten präsentiert, welche eine menschliche Mitwirkung am Klimawandel stützen; die gleichen Modelle werden bis auf ein paar minimale Änderungen hier und da laufen gelassen, und man kommt im Wesentlichen zu der gleichen Schlussfolgerung aus den gleichen Gründen wir im AR 4:

Über die Hälfte des beobachteten Anstiegs der globalen mittleren Temperatur (GMST) von 1951 bis 2010 ist sehr wahrscheinlich der beobachteten Zunahme anthropogener Treibhausgase (GHG) geschuldet (IPCC 2013, S. 869)

TSI und das IPCC

Soon, Connolly & Connolly 2015 identifizierten viele valide und begutachtete Rekonstruktionen der Sonnenaktivität (hier), welche einen Großteil der Erwärmung seit 1951 und davor erklären können. Diese Rekonstruktionen wurden samt und sonders vom IPCC ignoriert.

Zur gleichen Zeit, als der AR 4 geschrieben wurde, war die anerkannte Sonnenaktivität (TSI) als Komposit von Satellitenmessungen der Solarstrahlung, also ACRIM in Abbildung 1 (Willson 1997). Es zeigte einen zunehmenden Trend der Sonnenaktivität von den 1980er bis zu den 1990er Jahren. Dies stützt den Gedanken, dass zumindest ein Teil der Erwärmung auf die zunehmende Sonnenaktivität zurückzuführen ist. Scafetta und Willson schrieben 2014:

Unsere Analyse bietet eine Validierung erster Ordnung des ACRIM TSI-Komposits nebst dessen Aufwärtstrend um 0,037% pro Dekade während der solaren Zyklen 21 und 22 (1986 bis 1997). Die Implikationen einer zunehmenden TSI während der globalen Erwärmung der letzten beiden Jahrzehnte des 20. Jahrhunderts sind, dass ein solarer Antrieb ein signifikant größeren Faktor ist als in den CMIP5-Klimamodellen repräsentiert (Scafetta und Willson 2014).

Wir wir oben gesehen haben, leitete Judith Lean die Entwicklung des rivalisierenden PMOD TSI-Komposits und räumte ein, dass die Gründe zumindest teilweise politischer Natur waren. Fröhlich und Lean folgern, dass es unwahrscheinlich sei, dass TSI irgendeine globale Erwärmung verursacht hat. Dann sagen sie, dass sie nicht genügend Daten haben, um sich da sicher zu sein. Während das ACRIM-Komposit zu jener Zeit mehr anerkannt war, fand aber auch das PMOD-Komposit viel Unterstützung.


[Im Folgenden wird dieser Gegensatz noch ausführlich und mit vielen technischen Details ausgeführt. Auf die Übersetzung dieses Teils wird hier verzichtet. Damit kommen wir zu den…]
Conclusions

Es scheint, als ob sich das IPCC in eine Sackgasse manövriert hat. Man war nicht in der Lage, aus Beobachtungen irgendwelche Belege abzuleiten, dass der Mensch zum Klimawandel beiträgt, und noch weniger einen menschlichen Einfluss auf das Klima. Man reduzierte alles auf die Erzeugung von Klimamodellen und auf die Messungen zwischen diesen Modellen, welche menschliche Antriebe umfassen und denjenigen, bei denen das nicht der Fall ist. Dieses Verfahren fand Eingang sowohl in den AR 4 als auch in den AR 5 – es war in beiden Berichten ähnlich, genau wie auch die Ergebnisse. AR 5 war nichts weiter als eine Wiederholung des AR 4 ohne jede bedeutenden Verbesserungen oder zusätzliche Belegen.

Es sieht so aus, als ob es hinsichtlich der Ergebnisse in beiden Berichten ein signifikantes Problem war, Rekonstruktionen mit geringer solarer Variabilität eingehen zu lassen und die genauso gestützten Rekonstruktionen hoher solarer Variabilität zu ignorieren. Dies reduziert die berechnete natürliche Komponente des Klimawandels und vergrößert die berechnete menschliche Komponente. Teil des Problems mit den Rekonstruktionen geringer solarer Variabilität ist, dass sie „frisiert“ worden waren, um zum PMOD TSI-Komposit zu passen, welches ebenfalls ein Proxy-Modell zur Grundlage hat. Folglich hat man ein Modell herangezogen, um Satellitenmessungen zu verändern und diese dann zur Kalibrierung eines Proxy-Modells benutzt. Das Proxy-Modell wird dann zurück datiert bis zum Jahr 1700. Nicht sehr überzeugend.

Scafetta et al. haben in ihrer Studie das PMOD-Verfahren umgekehrt. Sie verwendeten die unstrittigen TSI-Beobachtungen vor und nach der ACRIM-Lücke, um empirisch die niederfrequente Komponente des TSI-Proxymodells zu adjustieren, um die Lücke zu schließen. Ihr Verfahren lässt ausdrücklich zu, dass den Modellen eine gering variierende Komponente in den Regionen mit ruhiger Sonne fehlt, was eine Variation von solarem Minimum zu solarem Minimum ermöglicht. Sie nahmen das Problem der ACRIM-Lücke in Angriff, ohne die TSI-Aufzeichnungen minderer Qualität von Nimbus7/ERBS oder ERBS/ERBE zu verwenden. Sie haben einfach evaluiert, wie die Proxy-Modelle die ACRIM-Lücke schließen. Die Proxy-Modelle unterschätzten die TSI-Zunahme bis zum Höhepunkt des Sonnenzyklus‘ 22 und überschätzten die Abnahme. Probleme gab es auch bei der ordentlichen Rekonstruktion der Sonnenzyklen 23 und 24.

Scafetta et al. justierten dann die Modelle, um die Diskrepanz zu korrigieren (anstatt die Daten zu verändern!) und erzeugten ein TSI-Komposit, welches gut zum ACRIM-Komposit passte sowie zu einem weiteren Komposit von Thierry Dudok de Wit (Dudok de Wit, et al. 2017). Sowohl das neue Komposit als auch das Dudok de Wit-Komposit zeigen einen zunehmenden Trend von 1986 bis 1997, genau wie das ACRIM-Komposit und ganz anders als das PDMO-Komposit.

Das neue Komposit zeigt eine Zunahme der TSI um 0,4 W/m² von 1986 bis 1996 und eine doppelt so starke Zunahme von 1980 bis 2002. Nach 2002 zeigt sich eine Abnahme. Das entspricht dem ACRIM-Komposit. Das PMOD-Komposit zeigt von 1986 bis 1996 eine Abnahme. PMOD scheint durch diese Studie diskreditiert, und es wird interessant sein, die entsprechenden Diskussionen während der nächsten Jahre zu verfolgen.

Die Bibliographie zu diesem Beitrag steht hier.

Dieser Beitrag wurde durch viele hilfreiche Vorschläge von Dr. Willie Soon und Dr. Ronan Connolly verbessert.

Link: https://wattsupwiththat.com/2020/04/20/ipcc-politics-and-solar-variability/
Übersetzt von Chris Frey EIKE




Freunde, ich bin verwirrt. Total und tutto kompletti durcheinander

Merkel bezeichnet die Pandemie als „eine demokratische Zumutung“. Die Maßnahmen, die zur Bekämpfung des Virus beschlossen wurden, hätten „kein historisches Vorbild“, an dem man sich orientieren könne.” Wie jetzt? Noch nie zuvor gab es eine weit verbreitete Seuche? Meint sie das ernst oder sagt sie das nur so in der Gegend herum, wie diese Scherzaussage, dass man Grenzen nicht schützen könne?
Es gibt kein historisches Vorbild für den Umgang mit Seuchen? Ganz Europa wurde mehrfach von der Pest heimgesucht, als Hamburgerin weiß ich, dass im 14. Jahrhundert die Pest dort die Hälfte der Bevölkerung dahinraffte mit einschneidenden Auswirkungen auf das tägliche Leben. Jetzt lebe ich in einem Ort vor den Toren Hamburgs, dort gibt es heute noch eine kleine Kapelle aus dem 15. Jahrhundert, die früher etwas außerhalb der Stadtmauern lag. Dort wurden die Lepra – und die Pestkranken untergebracht. Also so gesehen, historische Vorbilder für Isolation, Quarantäne und seuchenbedingte wirtschaftliche Probleme gibt es durchaus.
Aber das ist nur die eine Hälfte meiner Verwirrung, die andere ist der Umstand, dass neulich noch die Welt an ganz etwas anderem unterging, nämlich am Klima. Oder am CO2, so genau weiß ich es nicht. Das scheint neuerdings ein Gift zu sein, obgleich ich mal gehört habe, dass Pflanzen das irgendwie brauchen, Photosynthese oder so etwas.  Es muss jedoch neue Forschung geben, denn neuerdings ist CO2 ein Gift und das Klima wird nicht von verschiedenen Faktoren wechselwirkend beeinflusst, sondern vom Menschen gemacht, der das aber komplett vergeigt. Daher müsse man etwas tun, sonst ginge die Menschheit oder der ganze Planet wenn nicht sogar das Universum unter. Das Klima müsse also, komme was wolle und um jeden Preis gerettet werden, hat die Bundeskanzlerin gesagt.
Es sei eine nie da gewesene Herausforderung, eine „Existenzfrage“, es ginge ums Überleben. Daher müsse eine „Transformation von gigantischem historischem Ausmaß“ her, kleiner ginge es nicht. „Diese Transformation heißt im Grunde, die gesamte Art des Wirtschaftens und des Lebens, wie wir es uns im Industriezeitalter angewöhnt haben, in den nächsten 30 Jahren zu verlassen.“

Da bin ich aber nun baff

Netter Weise fügte die Kanzlerin an, es müsse einen Dialog geben zwischen denjenigen, die von einer höchsten Dringlichkeit ausgingen und den anderen, die eine klimagesteuerte Weltregierung nicht ganz so prall finden. Die Sprachlosigkeit müsse überwunden werden, sagte sie. Finde ich ja auch, Sprachlosigkeit geht gar nicht. Also ihr flugs diese Klimafragen mit Einschreiben geschickt– soll ja keiner sagen, die Kanzlerin wäre vergessen worden!  Geantwortet hat sie auch und zwar, dass sie keine fachliche Bewertung abgeben könne.
Ach was? Kann sie nicht? Da bin ich aber nun baff. Sie hat doch in Davos gesagt, es sei alles ganz, ganz schlimm und nun weiß sie nie nix? Hm, heißt das, sie will transformieren, da soll geklotzt und nicht gekleckert werden, sie hat aber ernsthaft keine Ahnung warum und wohin? Ohne quengelig erscheinen zu wollen, aber so ein kleines bisschen suboptimal ist das schon, gell? Immerhin, man muss ihr hoch anrechnen, dass sie erfrischend ehrlich zugibt, dass sie von der Sache keine Ahnung hat, das ist doch schon ein richtig guter Ansatz für ein Gespräch.
Zum Beispiel ich jetzt so: „Also wenn Sie keine Ahnung von den Klimafragen haben aber etwas transformieren wollen, warum dann nicht einfach mal das Wohnzimmer umräumen?“ Sie dann so: “Ähm, also das Wohnzimmer ist eigentlich schön, aber wie wäre es mit dem Kanzleramt?“ Ich dann so: „Ja prima, ist sowieso ein hässlicher Klotz, wie wäre es denn mit abreißen und neu bauen?“ Ich hätte auch super Vorschläge für den geplanten Wehrgraben vor dem Bundestag, den könnte man hübsch mit Zugbrücke und Türmchen als Erlebnispark aufpeppen, gerne auch mit Fanfaren, wenn die Kanzlerin erscheint. Schließlich sind viele Touristen da, denen muss man doch etwas bieten! Man sieht, gut, dass wir mal darüber geredet haben!
Immerhin hat sie uns die Adresse des Umweltministeriums mitgeteilt (Stresemannstraße 128-130, 10117 Berlin.), wo man sich die Antworten auf die Fragen abholen kann, was klar beweist, dass das Gerücht von wegen Servicewüste Deutschland erstunken und erlogen ist. Da die Bürger, die putzigen Kleinen, bestimmt noch nicht mit dem Internet umgehen können, hat sie ihnen ganz fürsorglich den Weg gewiesen. Danke, Mutti!

Kein Drache, sondern nur ein Gummibärchen

Zwei der diversen im Bundestag vertretenen Parteien, nämlich AfD und FDP haben unsere Klimafragenbeantwortet, die anderen (bisher) nicht. Man kann, muss aber nicht Rückschlüsse über das demokratische Verständnis der im Bundestag vertretenen Parteien ziehen.
Die Antworten der AfD gehen gar nicht. Einfache, klare Sätze mit deutlichem Inhalt – so geht doch Politik nicht! Da kann ja jeder kommen, das kann sogar jeder lesen und verstehen, wo kommen wir denn da hin? Von Merkel lernen heißt schwurbeln lernen, Sätze ohne Inhalt, aber dafür viel heiße Luft, so etwas hat noch jeden Ballon nach oben befördert. Und noch etwas: Man darf doch nicht inhaltlich antworten, z. B. dass der IPCC mangels langfristiger Daten gar nicht sagen kann, ob die Temperatur wirklich fällt oder steigt oder ob es nur zwischenzeitliche Wellenbewegungen sind (Börsianer wissen, wovon ich spreche), das fetzt einfach nicht. Bei Heldenepen muss es einen Helden geben, der gegen irgendetwas kämpft, wogegen ist ziemlich egal, Hauptsache es macht fix etwas her. Wenn man einfach so dahin geht und sagt, da ist aber gar kein Drache, sondern nur ein Gummibärchen, tja dann ist es doch kein Wunder, wenn die anderen einen nicht mögen. So etwas von Spielverderber!
Da macht es die FDP deutlich besser. Zunächst einmal schreibt sie viel. Da sieht man den Profi, als Jurist erkenne ich das natürlich sofort, denn ich weiß: Mangelnden Inhalt kann man am besten hinter vielen Worten verstecken. Kurz zusammen gefasst schreibt sie, dass sie allem sowohl als auch und absolut glaubt, weil alles zweifelsfrei und Wissenschaft sei, alles erwiesen usw..
Dabei ist die Frage 1 der Klimafragen mit dem Zitat, das keine belastbaren Prognosen möglich sind, ein gewisses Problem, denn wenn keine belastbare Prognose für die zukünftige klimatische Entwicklung unter dem Einfluss des anthropogenen CO2 erstellt werden kann, gibt es auch keine Berechtigung für eine Große Transformation einschließlich einer Energiewende, die eine gigantische Herausforderung für Deutschland und die gesamte Menschheit darstellt. Die FDP umschifft diese Problematik clever, indem sie sagt: „Wahrscheinlichkeit und statistische Unsicherheiten sind inhärente Merkmale jeder Forschung, die wissenschaftlichen Grundsätzen folgt.“ Und dass man nicht weiß, sei nicht nur gut, sondern ein Qualitätsmerkmal. Den genialen Einfall hätte ich früher bei einer Mathearbeit gut gebraucht. Aber Leute, wenn Nichtwissen ein Qualitätsmerkmal ist, dann bin ich so etwas von qualitativ hochwertig, das gibt es gar nicht! Ihr könnt mich glatt für jeden Spitzenposten nehmen!

Als politische Handlungsanweisung nicht ausreichend

Nun ist es aber so, dass die Ergebnisse des IPCC zwar hochinteressant sind, aber als politische Handlungsanweisung nicht ausreichend belastbar sind. Nur mal als Beispiel: Für die Modellierung des Klimas ist ein extrem kompliziertes System von partiellen nichtlinearen Differentialgleichungen mit stochastischem Anteil numerisch zu lösen. Um überhaupt rechnen zu können, benötigen die Computer Werte für Rand- und Anfangsbedingungen in diesem System – die Ergebnisse hängen entscheidend davon ab. Diese Bedingungen lassen sich zum großen Teil jedoch nur schätzen. Als Beispiel sei hier nur die Aufnahme und Abgabe von CO2  durch die Böden genannt; wozu die Untersuchungen erst in den Anfängen stecken. Bei Wikipedia kann man zur Einarbeitung der Randbedingungen lesen: „Vor allem die Prozesse in der Biosphäre werden im Augenblick noch als Größen und Parameter vorgegeben.“
Das fügt ein Element der Beliebigkeit in die Modellierungen ein, welches die Ergebnisse entscheidend beeinflussen kann. Denn: In den von ungeheuer komplizierten Wechselwirkungen geprägten Systemen kann sich eine kleine Abweichung von der Realität bei den Annahmen zu großen Fehlern im Ergebnis aufschaukeln. Ein solches Problem lässt sich auch nicht durch eine noch so erhebliche Steigerung der Rechenleistung beheben. Bereits dieser Fakt stellt die Prognosetauglichkeit der Modellrechnungen infrage.
Im Gegensatz zu einer Behauptung von Stefan Rahmstorf, dass „die Klimamodelle seit fünfzig Jahren die globale Erwärmung korrekt vorhergesagt haben “ (SPIEGEL vom 31.01.2020), gab es in der Geschichte der Modellierung bemerkenswerte Defizite. Tatsächlich konnte weder der Abfall der Globaltemperatur zwischen 1945 und 1975 (der übrigens damals führende Klimatologen zur Prophezeiung einer neuen Eiszeit veranlasste) noch die zehnjährige „Hiatuspause“ vorher rechnerisch dargestellt werden. Und im Bericht des IPCC von 2007 hieß es noch: „Die Gletscher im Himalaja sind mit hoher Wahrscheinlichkeit bis 2035 oder vielleicht schon früher verschwunden.“ Nach lebhafter Kritik an dieser Aussage brauchte der Weltklimarat drei Jahre, um sie zu revidieren.
Die zutreffende Beschreibung vergangener Klimaverläufe wäre eine notwendige Bedingung für die Fähigkeit von Modellen, zukünftige Entwicklungen zu prognostizieren – hinreichend ist eine solche Modelleigenschaft noch nicht. Wenn die Modellrechnungen Vertrauen verdienten, sollten deren Ergebnisse im Verlauf ihrer Entwicklung sich wenigstens einigermaßen asymptotisch den belastbaren Resultaten annähern. Stattdessen wurde 2018 eine Änderung der bis vom IPCC vertretenen Vorstellungen um mehr als 100 Prozent verkündet.

So unpräzise wie eh und je

Dies zeigt ein Interview des SPIEGEL vom 05. Oktober 2018 mit einem der Leitautoren des letzten Sachstandsberichtes des IPCC, dem Direktor des Max-Planck-Instituts für Meteorologie in Hamburg, Professor Jochem Marotzke. Er erklärt darin: „Unser verbleibendes CO₂-Budget für das 1,5-Grad-Ziel ist wohl mindestens doppelt so groß wie gedacht, fast tausend Gigatonnen. … Offenbar verbleibt ein kleinerer Teil der ausgestoßenen Treibhausgase in der Atmosphäre, weil Wälder und Ozeane mehr davon schlucken als gedacht.“ Gleichzeitig reduzierte das IPCC die tolerable Grenze der Temperaturerhöhung in diesem Jahrhundert von 2 auf 1,5 Grad. Prof. Marotzke stimmte der Klassifizierung dieses Wertes als „politischer Grenzwert“ in dem Interview zu.
Eine ungeschönte Darstellung der Probleme von Klimamodellierung aus berufenem Mund findet sich in der SPIEGEL – Ausgabe vom 22. März 2019: Prognosen zur Erderwärmung, Warum Wolken der Fluch aller Klimaforscher sind. Darin wird der seit 20 Jahren am Hamburger Max-Planck-Institut für Meteorologie auf dem Feld der Klimamodellierung forschende Bjorn Stevens vom SPIEGEL intewiewt. Er schildert die Schwierigkeiten einer Modellierung des Wolkenphänomens; wir geben hier einige seiner Aussagen wieder: „Die Rechenleistung der Computer ist auf das Vielmillionenfache gestiegen, aber die Vorhersage der globalen Erwärmung ist so unpräzise wie eh und je. …..Es ist nicht leicht, dieses Versagen der Öffentlichkeit zu vermitteln. ….Die Temperaturen in der Arktis zum Beispiel klaffen in den verschiedenen Modellen um teilweise mehr als zehn Grad auseinander. Das lässt jede Prognose der Eisbedeckung wie bloße Kaffeesatzleserei erscheinen.“
Die Behauptung der FDP, es sei unstrittig und wissenschaftlicher Konsens, dass ohne Minimierung der menschlichen Treibhausgasemissionen nicht verantwortbare Schäden entstünden, stehen im Widerspruch z. B. zu den Fakten aus dem Protokoll einer Anhörung von John R. Christy vor dem Ausschuss für Wissenschaft, Weltraum & Technologie der Vereinigten Staaten am 29. März 2017. John R. Christy ist Klimatologe des Staates Alabama und Professor für Atmosphärenwissenschaft sowie Direktor des Instituts für Wissenschaft des Erdsystems an der Alabama Universität in Huntsville, Leitautor und Peer-Reviewer von Veröffentlichungen des IPCC. Die von ihm präsentierten Ergebnisse von 32 Computermodellen des IPCC für Temperaturverläufe in den Tropen beweisen nicht nur, dass von „korrekter Vorhersage“ keine Rede sein kann, sondern zeigen auch die beste Übereinstimmung von berechneten mit gemessenen Werten, wenn der Treibhauseffekt unberücksichtigt bleibt.

Ein lustiges Grünen-Experiment

Immerhin kann sich die FDP freuen. Schließlich will sie ja nur eine Verlangsamung des Klimawandels, damit die Menschen sich besser anpassen können: „Der Klimawandel muss vor allem besser erforscht, begrenzt und in seiner Geschwindigkeit verlangsamt werden. Nur dann können sich unsere Gesellschaften auch erfolgreich anpassen.“
Null Problem, die Verlangsamung der Geschwindigkeit bekommen wir hin, denn wenn alles vom CO2 abhängt, dann haben wir reichlich Zeit gewonnen. Wir haben weltweit nicht nur seit Anfang des Jahres reichlich Zeit eingespart, sondern werden es auch noch ein Weilchen in der Zukunft tun, Corona lässt grüßen. Zugleich fahren wir ein lustiges Grünen – Experiment: Was passiert, wenn wir die Industrie herunterfahren? Wie prall ist es, wenn Reisen eingeschränkt ist? Auch das urbane Leben mit outgoing und socializing ist nicht wirklich klimaneutral, die Einschränkungen konnte man nun testen.
Das neue vegan ist jetzt das „stay home“. Und wie klug ist überhaupt die grüne Vision, zwar gegen Massentierhaltung zu sein, gleichzeitig aber die Massenmenschenhaltung mittels Urbanisierung zu betreiben, damit man richtig super anfällig ist für Viren oder sonstige Ereignisse (Stromausfälle?), die dann ganz einfach mit einem Streich alle Neune kegeln können? Der hochgelobte ÖPNV – die Virenschleuder schlechthin – und fällt es aus, dann sieht der Urbane alt aus. Kann aber passieren, schneller als man denkt.
Was ich aber besonders lustig finde: Kein Klimamodell hat eine Seuche eingepreist, dieser Fall war nicht bedacht. Damit zeigt sich das Problem mit den Vorhersagen der Zukunft bei komplexen Systemen. Es gibt da genau eine, absolut zuverlässige Regel, wonach es erstens anders kommt und zweitens als man denkt.
Anmerkung: Ich danke ausdrücklich und ganz herzlich Herrn Prof. Dr. Dr. Wulf Bennert für seine fachliche Zuarbeit.  
Frau Anette Heinisch ist Rechtsanwältin in Hamburg und Mitinitiatorin von Klimafragen.org
Der Beitrag erschien zuerst bei ACHGUT hier