Das Ende der Menschheit ist in 30 Jahren

Wissenschaftler prognostizieren Ende der Menschheit

Dank den msn-Nachrichten kann man auf dem PC nun täglich so niveauvolle Information lesen, wie man sie früher ganz selten notgedrungen, bei schlimmster Langeweile wegen langer Wartezeit, verschämt im Wartezimmer durch „Bunte“, „Bild der Frau“, „Frau mit Herz“ erfuhr.
Und so erschien am 14. Mai die erschreckende Meldung, dass das Ende der Menschheit nun im Jahr 2050 erscheint. Um die Überlassung einer veredelten und gereinigten Erde an seine Enkel braucht man sich damit endgültig keine Sorgen mehr zu machen, da sie zu dem Datum völlig unbewohnbar geworden ist, die Enkel dann also eher die Sorge nach einem geeigneten Platz unter, als über der Erde haben.
Und diesmal weiß die Meldung, dass es ganz, ganz sicher geworden ist, denn „die Entwicklung lässt sich nicht mehr aufhalten“, wie es zwei besonders kompetente Wissenschaftler am anderen Ende der Welt ermittelt und publiziert haben.
msn-Nachrichten: [1] Wissenschaftler prognostizieren Ende der Menschheit
Schlechte Nachrichten ist die Menschheit ja schon gewohnt, besonders, wenn es um das Klima geht. Aber jetzt wird es heftig die Einschläge kommen so gesehen nicht nur näher, sie sind da!
Das Ende der Menschheit zu unseren Lebzeiten
Was da
australische Forscher an Daten gesammelt, ausgewertet und daraus dann resümiert haben, ist absolut erschreckend. Es geht um nicht weniger als den Zusammenbruch der Zivilisation und das Ende der Menschheit in 30 Jahren.
Das „Breakthrough National Centre for Climate Restoration“ hatte bei australischen Universitäten einen Bericht zum Klimawandel angefordert und die Forscher haben jeden diesbezüglich denkbaren Ablauf durchgespielt
Worst-Case-Szenario löscht die Menschheit aus
… Denn die
Entwicklung lässt sich nicht mehr aufhalten, selbst wenn der Mensch noch panisch versuchen sollte, all das umzusetzen, was vor Jahrzehnten hätte spätestens begonnen werden müssen
Lange hat man auf diese Präzisierung des künftigen Klimas warten müssen. Nachdem sich die Weltuntergänge zwar bisher schon häuften, dabei aber auch immer neu verschoben wurden; vom Ende des letzten Jahrtausend bis etwa zum Jahr 2100 (eine Listung findet sich bei [6]) ist es trotz des schlimmen Inhalts also fast eine Wohltat, dass die Wissenschaft nun herausfand, es wird mit Sicherheit in der Mitte dieser Zeitspanne geschehen.
Mancher mag Zweifel an dieser Aussage hegen. Leider hat ein bedeutender Klimaforscher diese zunichte gemacht. Mit seinen fachmännischen Augen hat er diesen Bericht gelesen, durchdacht und musste es leider bestätigen:
msn-Nachrichten: [1]Wie hoch ist die Wahrscheinlichkeit?
… Und wie wahrscheinlich ist es, dass sich die Dinge exakt so entwickeln werden? Klimaforscher Prof. Dr. Mojib Latif vom Geomar Helmholtz-Zentrum für Ozeanforschung in Kiel sagt dazu:
„Die Studie behandelt sogenannte ‚Low ProbabilityHigh Impact‘-Events, also Ereignisse, die mit einer geringen Wahrscheinlichkeit eintreten werden, aber ein enormes Schadenspotenzial haben.“
Mit anderen Worten: Es muss nicht so kommen, aber man kann es auch nicht ausschließen.
Damit gab M. Latif diesem Bericht sein wissenschaftliches „Gewicht“. Allerdings schloss er seine Bewertung (laut Artikel) mit den kryptischen, wissenschaftlichen Worten, welche inzwischen wohl jeden Politiker zur Verzweiflung treiben:
msn-Nachrichten: [1] Ob dieser Befund möglicherweise ein Weckruf an die Verantwortlichen ist, bleibt abzuwarten.

Der Klima-Untergangs-Report

Auf der folgenden Homepage findet sich eine Beschreibung und man kann den Report laden:
[2] Climate Code RED: Can we think in new ways about the existential human security risks driven by the climate crisis?
Die Vorlage für die msn-Nachrichten findet sich unter:
[4] abc Action News Jun 11, 2019: Climate change could pose ‚existential threat‘ by 2050, report says
Der Report selbst heißt: [3] Report: Existential climate-related security risk: A scenario approach, May 2019
und beschreibt auf sieben inhaltsschweren Seiten, warum die Welt im Jahr 2050 untergeht.
Schon daran lässt sich die hohe, wissenschaftliche Kunst der Autoren erkennen. Während das IPCC für seinen AR5-Langbericht 1552 Seiten benötigt, weshalb immer ein politisches Gremium notgedrungen einen eigenen, vom Inhalt des Langberichtes streckenweise losgelösten Kurzbericht fabuliert, schaffen es diese Fachpersonen mit sieben Inhaltsseiten, das Wichtige und Notwendige darzustellen und zu belegen.
Als Autoren werden genannt:

Bild 1 Autor des Reports [3]

Bild 2 Autor des Reports [3]

Deshalb wurde er verfasst

Gleich als Einleitung findet sich ein prominenter Ausspruch des berühmten Klimawissenschaftlers, Dr. Gavin Schmidt (Leiter des Goddard Institute for Space Studies der NASA und ausgewiesener Klimaaktivist), der in dieser Wissenschaft auch konsequent angewandt wird:

Bild 3 Einleitungsstatement des Reports [3]

Übersetzung: „Das wahre Worst-Case-Szenario könnte es sein, wenn wir uns nicht trauen, den sicheren Hafen des Bekannten zu verlassen und das tückische Unbekannte erforschen“.
Praxisnäher übersetzt: Auch das Unwahrscheinliche kann wahr werden und ist deshalb als Möglichkeit zu erforschen (beim Klimawandel bedeutet dies: zu simulieren). Die (schrecklichen) Ergebnisse sind – so unwahrscheinlich sie auch eintreten –, als ob sie doch kommen würden und damit eine große Gefahr bedeuten, zu publizieren ...
Weiterführung des Autors: … Es gibt nämlich immer Bevölkerungskreise, welche jede noch so unwahrscheinliche Apokalypse für bare Münze nehmen und bedingungslosen Schutz davor fordern. (Nicht nur) die Freitagshüpfer sind ein beredtes Beispiel.

Fachinhalte

Das erste Kapitel lautet: SCIENTIFIC RETICENCE und erläutert zum Beispiel Szenarien des Meeresspiegels und der Temperatur:[3] … In one example, the IPCC’s Fifth Assessment Report in 2014 projected a sea-level rise of 0.55-0.82 metre by2100, but said “levels above the likely range cannot bereliably evaluated”. By way of comparison, the higher of two US Department of Defence scenarios is a two-metre rise by 2100, and the “extreme” scenariodeveloped by a number of US government agencies is 2.5 metres by 2100
„SCIENTIFIC RETICENCE“ lässt sich in diesem Zusammenhang gut wie folgt beschreiben:
[5] Wissenschaftliche Zurückhaltung ist eine ernsthafte Bedrohung für den Klimawandel
Profis müssen sich über drohende Gefahren äußern, auch wenn sie etwas falsch machen …
Wenn es um den Klimawandel geht, manifestiert sich das Bedürfnis nach übermäßiger Vorsicht und absoluter Sicherheit der Ergebnisse leider als Schweigen der Mainstream-Wissenschaft über die schlimmsten, aber wahrscheinlichen Folgen und die schlimmsten Szenarien, die immer wahrscheinlicher werden …

Die große Gefahr

Im Report geht es (nur) darum, auch unwahrscheinlich(st)e Szenarien als eine große Gefahr dazustellen.
Beispielhaft an Gefahren sind gelistet (Auszug):
Report [3]: Scientists warn that warming of 4°C is incompatible with an organised global community, is devastating to the majority of ecosystems, and has a high probability of not being stable. The World Bank says it may be “beyond adaptation”.
But an existential threat may also exist for many peoples and regions at a significantly lower level of warming. In 2017, 3°C of warming was categorised as “catastrophic” with a warning that, on a path of unchecked emissions, low-probability, high-impact warming could be catastrophic by 2050
Grob verbesserte Deepl-Übersetzung: Wissenschaftler warnen davor, dass eine Erwärmung um 4°C unsere globale Staatenorganisation ins Wanken bringt, sich auf die Mehrheit der Ökosysteme verheerend auswirkt und mit hoher Wahrscheinlichkeit nicht stabil sein wird (Anm.: Ob damit das Klima, oder die Staatsordnungen gemeint sind, erschließ sich aus dem Text nicht eindeutig, es werden aber wohl die 4 Grad gemeint sein). Die Weltbank sagt, es könnte dann „jenseits der Anpassungsmöglichkeit“ (der Ökosysteme) liegen.
Aber eine existenzielle Bedrohung könnte für viele Völker und Regionen auch
(schon) bei einer deutlich geringeren Erwärmung bestehen. Im Jahr 2017 wurden 3°C Erwärmung als „katastrophal“ eingestuft, mit der Warnung, dass auf einem Pfad (wenig wahrscheinlicher) unkontrollierter Emissionen bereits diese Temperaturerhöhung im Jahr 2050 katastrophal sein könnte.
Bestätigung finden die Autoren zum Beispiel in Aussagen von Herrn Schellnhuber (ehemaliger PIK-Leiter):
Report [3]: The Emeritus Director of the Potsdam Institute, Prof. Hans Joachim Schellnhuber, warns that “climate change is now reaching the end-game, where very soon humanity must choose between taking unprecedented action, or accepting that it has been left too late and bear the consequences.” He says that if we continue down the present path “there is a very big risk that we will just end our civilisation. The human species will survive somehow but we will destroy almost everything we have built up over the last two thousand years.”
Grob verbesserte Deepl-Übersetzung: (Schellnhuber) warnt davor, dass „der Klimawandel nun den Zeitpunkt erreicht, wo sich die Menschheit sehr bald entscheiden muss, entweder beispiellose Maßnahmen zu ergreifen oder zu akzeptieren, dass sie den Lösungszeitpunkt verpasst hat und die Folgen tragen muss“. Er sagt, wenn wir den gegenwärtigen Weg (der CO2-Emission) weitergehen, „besteht die sehr große Gefahr, dass wir unsere Zivilisation (damit) einfach beenden. Die menschliche Spezies wird irgendwie überleben, aber wir werden fast alles zerstören, was wir in den letzten zweitausend Jahren aufgebaut haben“.
Man erkennt den „Beleghintergrund“ der später kommenden, extremen, aber auch sehr unwahrscheinlichen Klima-Schreckensszenarien: Es geht um die Klima-Kipppunkte, welche als Folge überproportionale Steigerungen erzeugen und (nur) so unwahrscheinliche Extremwerte „wahrscheinlich“ werden lassen.
Report [3]: This is a particular concern with potential climate tipping-points — passing critical thresholds which result in step changes in the climate system that will be irreversible on human timescales — such as the polar ice sheets (and hence sea levels), permafrost and other carbon stores, where the impacts of global warming are non-linear and difficult to model with current scientific knowledge.
… Recently, attention has been given to a “hothouse Earth” scenario, in which system feedbacks and their mutual interaction could drive the Earth System climate to a point of no return, whereby further warming would become self-sustaining. This “hothouse Earth” planetary threshold could exist at a temperature rise as low as 2°C, possibly even lower ….

Grobe Deepl-Übersetzung: Dies ist besonders besorgniserregend im Hinblick auf potenzielle Klimakipp-Punkte – das Überschreiten kritischer Schwellenwerte, die zu schrittweisen Veränderungen des Klimasystems führen, die auf menschlichen Zeitskalen irreversibel sind – wie die polaren Eisschilde (und damit der Meeresspiegel), Permafrostböden und andere Kohlenstoffspeicher, wo die Auswirkungen der globalen Erwärmung nichtlinear und mit den derzeitigen wissenschaftlichen Erkenntnissen schwer zu modellieren sind.
… Kürzlich wurde die Aufmerksamkeit auf ein „Treibhaus Erde“-Szenario gelenkt, in dem Systemrückkopplungen und ihre gegenseitige Wechselwirkung das Klima im Erdsystem bis zu einem Punkt ohne Wiederkehr treiben könnten, an dem sich eine weitere Erwärmung selbst trägt. Dieser „Treibhaus Erde“-Schwellenwert könnte bei einem Temperaturanstieg von nur 2°C, möglicherweise sogar bei niedrigeren liegen …
.
Im Kern ist damit die „Belegführung“ des Reports abgehandelt. Nicht ein eigener – gar neuer – Gedanke ist im Report zu finden. Es reicht den Autoren, was vor allem Herr Schellnhuber „gesagt“ hat. Zwar sind noch (für Klimapublizierungen geradezu extrem wenige) Fundstellen gelistet. Deren „Belegqualität“ teilweise aber auf dem folgenden Niveau:
Fundstelle: 11 Breeze, N. 2018. “It’s non-linearity, stupid”, The Ecologist, 3 January 2019, accessed 18 March 2019
Hinter dieser Fundstelle steckt dann nichts anderes, als ein Interview mit Herrn Schellnhuber:
ECOLOGIST 3rd January 2019: ‚It’s nonlinearity – stupid!‘
Nick Breeze interviews professor John Schellnhuber, who set up the Potsdam Institute for Climate Impact Research in 1991 to study climate.

Sehr seltene Ereignisse sind viel wahrscheinlicher als bisher angenommen …

Alle IPCC-Reports „handeln“ und bewerten mit Wahrscheinlichkeiten. Bleibt man bei den Wahrscheinlichen, kommen allerdings keine wirklichen Schreckensszenarien zustande (bleibt man bei den Messwerten, dann nicht einmal mehr das).
Um ihn trotzdem zu „erzeugen“, bleibt also nur die Wahl, den statistischen „Vertrauensbereich“ extrem auszuweiten, im Klartext: auch unwahrscheinlich(st)e Simulationsergebnisse in den Überdeckungsbereich des „Vertrauens“ mit einzubeziehen. Mit Statistik nicht so „Bewanderte“ meinen dazu, solche Ergebnisse hätten dann besonders viel „Vertrauen“.
Ein paar Grafiken zu Erläuterung:
Das folgende Bild zeigt die Simulations-Pegelverläufe aus dem IPCC AR5 Sachstandsbericht. Mit dem als wahrscheinlichst geltendem Scenario RCP 2.6, beträgt die Pegelerhöhung zum Jahr 2100 zwischen 18 … 59 cm. Die lineare Fortschreibung des Tidenpegelverlaufs ergibt +15 … 20 cm (Anm.: Der Pegelforscher Prof. Mörner geht von -+10 cm aus).
Dies sind zum Jahr 2100 die wahrscheinlichsten Werte. Entsprechen (mit einem zusätzlichen Risikopuffer) werden Küsten-Schutzmaßnahmen in Ländern, deren Politiker auf den Schutz ihrer Bevölkerung (und nicht nur des eigenen) Wert legen (und es bezahlen können) ausgeführt.

Bild 4 Pegel-Verlaufssimulationen nach verschiedenen CO2-Szenarien. Quelle: IPCC AR5


Die Autoren des Berichtes behaupten nun, dass dies falsch ist. Es könnte ja sein, dass auch ein extrem selten wahrscheinlicher Fall doch eintritt und wenn er kommt, ist man nicht gewappnet.
Das folgende Pegel-Simulationsbild zeigt eine solche Simulation eines mit sehr hoher Wahrscheinlichkeit (da auch physikalisch unmöglich) nicht eintreffenden Pegel-Szenarios:

Bild 5 Pegel-Verlaufssimulationen unter Mitarbeit des PIK. Daten [8]. Grafik vom Autor erstellt

Mit diesem Vorgehen ist natürlich wirklich jeder Alarm erzeugbar. Auch der, dass die Erde im Jahr 2050 wegen des Klimas fast nicht mehr bewohnbar ist. Auch, die „Unrettbarkeit“, da die Kosten einer „Rettung“ von keiner Ökonomie der Welt bezahlt werden könnte.
Report [3]: Analysis of climate-related security threats in an era of existential risk must have a clear focus on the extremely serious outcomes that fall outside the human experience of the last thousand years. These “fat-tail” outcomes have probabilities that are far higher than is generally understood.
Grobe Deepl-Übersetzung: Die Analyse der klimabedingten Sicherheitsbedrohungen in einer Ära existentieller Risiken muss einen klaren Fokus auf die äußerst schwerwiegenden Folgen haben, die außerhalb der menschlichen Erfahrung der letzten tausend Jahre liegen. Diese „Fat Tail“-Ergebnisse haben Wahrscheinlichkeiten, die weit höher sind, als allgemein verstanden wird.
Um dieses Vorgehen zu rechtfertigen, wird wiederholend Herr Schellnhuber bemüht:
Report [3]: In Prof. Schellnhuber’s words: “We must never forget that we are in a unique situation with no precise historic analogue. The level of greenhouse gases in the atmosphere is now greater, and the Earth warmer, than human beings have ever experienced …
Grobe Deepl-Übersetzung: (Schellnhuber) „Wir dürfen nie vergessen, dass wir uns in einer einzigartigen Situation befinden, in der es keine genaue historische Entsprechung gibt. Das Niveau der Treibhausgase in der Atmosphäre ist heute höher und die Erde wärmer, als es die Menschen je erlebt haben …
Dass alleine die Aussage: (Schellnhuber) „ … die Erde wärmer, als es die Menschen je erlebt haben … „ mit Sicherheit nicht stimmt, tut der „Belegführung“ in den Augen der Berichtsautoren keinen Abbruch.
Und so wird auch nach Schellnhubers „Anleitung“ vorgegangen:
Report [3]: In this spirit, we sketch a 2050 scenario

Welche Erde trifft man im Jahr 2050 an?

Report [3]: By 2050, there is broad scientific acceptance that system tipping-points for the West Antarctic Ice Sheet and a sea-ice-free Arctic summer were passed well before 1.5°C of warming, for the Greenland Ice Sheet well before 2°C, and for widespread permafrost loss and large-scale Amazon drought and dieback by 2.5°C. The “hothouse Earth” scenario has been realised, and Earth is headed for another degree or more of warming, especially since human greenhouse emissions are still significant.
… While sea levels have risen 0.5 metres by 2050, the increase may be 2–3 metres by 2100, and it is understood from historical analogues that seas may eventually rise by more than 25 metres
Grob verbesserte Deepl-Übersetzung: Zum Jahr 2050 gibt es eine breite wissenschaftliche Akzeptanz, dass die System-Kipp-Punkte für den westantarktischen Eisschild und einen meereisfreien arktischen Sommer bereits weit unterhalb einer Erwärmung um 1,5°C überschritten sind, für den grönländischen Eisschild weit unterhalb 2°C und für einen großflächigen Permafrostverlust und großflächige Dürre und Absterben im Amazonasgebiet mit 2,5°C.
Das „Gewächshaus Erde“-Szenario ist dann eingetroffen, und die Erde steuert auf eine weitere oder noch stärkere Erwärmung zu, zumal die Treibhausgasemissionen des Menschen immer noch beträchtlich sind.
… Während der Meeresspiegel bis 2050 um 0,5 Meter angestiegen ist, könnte der Anstieg bis 2100 2-3 Meter betragen, und aus historischen Analogien geht hervor, dass die Meere schließlich um mehr als 25 Meter ansteigen könnten …

Was dazu im Bericht fehlt, ist die physikalische Tatsache, dass dazu ein ganz großes Schmelzen der Antarktis erforderlich ist und dieses dazu mehrere Tausend Jahre benötigen würde.
Nach diesen nicht nur vollkommen kritiklos, sondern bedingungslos zustimmend, vorwiegend vom PIK übernommen Listungen extremster Simulations-Szenarien sollte man annehmen, es würden nun etwas konkreter Details und neue Gesichtspunkte dazu erscheinen. Doch davon kommt: nichts. Stattdessen warnende Beschreibungen und mit Sicherheit der einzige, wichtige Absatz des Reports für dessen Auftraggeber:
Report [3]: To reduce such risks and to sustain human civilisation, it is essential to build a zeroemissions industrial system very quickly. This requires the global mobilisation of resources on an emergency basis, akin to a wartime level of response.
Grobe Deepl-Übersetzung: Um solche Risiken zu verringern und die menschliche Zivilisation aufrechtzuerhalten, ist es unerlässlich, sehr schnell ein Null-Emissions-Ökosystem aufzubauen. Dies erfordert die globale Mobilisierung von Ressourcen auf Notfallbasis, ähnlich der Reaktion in Kriegszeiten …

Warum hat sich M. Latif das angetan?

Dieser „Bericht“ fällt (rein persönliche Meinung des Autors als Klimalaien) ohne zu zögern in die Kategorie „Auftragsleistung, die nicht einmal im Ansatz Wert darauf legt, einen Anflug von Seriosität zu verbreiten und ihren Fachinhalt weder neutral-, noch im Ansatz wissenschaftlich prüft“.
Immer wieder erschreckend zu sehen, welch unterirdisches Niveau zum Klimawandel veröffentlicht und von Medien gepriesen wird.
Dass allerdings einer wie M. Latif dazu noch einen (im Ansatz positiven) Kommentar beisteuert, muss man wohl als einen Akt eigener Verzweiflung betrachten. In solchen Seelenzuständen hat man sich einfach nicht mehr ausreichend im Griff:
Badische Neueste Nachrichten, 25. September 2019: Klimaforscher Mojib Latif in Karlsruhe: „Ich bin gescheitert
Wenn man nun noch weiß, dass dieser Bericht bereits letztes Jahr um fast die gleiche Zeit erschien und schon damals mit der gleichen Reaktion „besprochen“ wurde:

[9] Bild-Zeitung: „Schon 2050 könnte die Menschheit am Ende sein, weil die Erde nicht mehr bewohnbar sein könnte. Das prognostizieren jetzt australische Forscher in einem Klimareport.“
… laut einem Bericht aus Australien könnte diese Erfolgsgeschichte schon bald zu einem katastrophalen Finale kommen.
und dann wieder am 10.09.2019 im FOCUS, erkennt man die perfide Beeinflussungsstrategie unserer Medien, durch regelmäßiges Wiederholen der gleichen Information, so als ob sie gestern neu verfasst worden wäre.
Doch nun eine Entschuldigung für M. Latif. Auch andere „Klimaforscher“ sind sich für nichts zu schade:
[9] Bild-Zeitung: Zu Einordnung der Studie erklärte Klimaforscher Dr. Martin Stendel vom dänischen Meteorologischen Institut (DMI) gegenüber BILD: „Die australischen Forscher folgen dem Ansatz: Können wir sicher ausschließen, dass es wesentlich extremere Entwicklungen gibt? Nein, das können wir nicht. Solchen extremen Entwicklungen können wir zwar keine Wahrscheinlichkeiten zuordnen, aber sie sind möglich.“
Aber die Bild-Zeitung achtet immer auch auf (etwas) Ausgewogenheit:
[9] Es gibt jedoch auch Kritik an dem Bericht. Der Klimaforscher Prof. Dr. Hans von Storch gegenüber BILD: „Das ist ein schönes Stück interessengeleitetes Verschrecken von Menschen. Medial sicher zur erschreckender Unterhaltung geeignet, aber in der Sache ein weiterer Versuch, den Versuch lächerlich zu machen, den Klimawandel ernst zu nehmen.“ ...
Quellen
[1] msn Nachrichten 14.05.2020: Das Ende der Menschheit in 30 Jahren
[2] Climate Code RED: Can we think in new ways about the existential human security risks driven by the climate crisis?
[3] Report: Existential climate-related security risk:A scenario approach May 2019
[4] abc Action News Jun 11, 2019: Climate change could pose ‚existential threat‘ by 2050, report says
[5] DownToEarth: Wissenschaftliche Zurückhaltung ist eine ernsthafte Bedrohung für den Klimawandel
[6] Salonkolumnisten, 15. Juli 2019: Wir sind noch einmal davongekommen
[7] EIKE 22.02.2020: Greta weiß genau Bescheid … Der Meeresspiegel könnte um 0,04 … 10 m steigen… ist die etwas umformulierte Botschaft, welche ein Video mittels Aussagen des PIK vermittelt
[8] Climate Central, November 2015: MAPPING CHOICES CARBON, CLIMATE, AND RISING SEAS OUR GLOBAL LEGACY
[9] Bild-Zeitung, 06.06.2019: Australische Forscher warnen vor Nichts-Tun Schock-Prognose zur Klimakatastrophe




Klima und Schein­wissenschaft, Teil 2

  1. CO2, ein Spurengas

Heute gibt es sehr wenig CO2 in der Atmosphäre, aber die Pflanzen sind genügsam und benötigen noch weniger. In grauer Vorzeit gab es mehr CO2 und auch viel mehr Pflanzen, von denen ein Teil im Laufe der Zeit beim Verrotten nicht mehr in CO2 umgewandelt wurde, sondern sich als reiner Kohlenstoff ansammelte, ein Gut, das nun der Zivilisation als fossiler Kohlenstoff zur Verfügung steht. Davon wird ein großer Teil genutzt, um Energie zu erzeugen.

In analoger Weise lieferte abgestorbenes Plankton im Meer den Kohlenstoff für Erdöl und Erdgas. Jedes Atom aus fossilem Kohlenstoff war per definitionem einmal Teil eines Lebewesens gewesen.

Nur ein sehr kleiner Teil in der Atmosphäre besteht aus CO2, wie die nachfolgende Tabelle zeigt:

Selbst wenn es den «Treibhaus-Effekt» gäbe, wäre es schwer zu verstehen, wie das wenige CO2, das zusätzlich in die Atmosphäre gelangt, das Klima durch einander bringen sollte.

Vielleicht hilft ein Vergleich, was ein Anteil des CO2 in der Luft von knapp 0.4 Promille bedeutet, falls man sich unter einem so kleinen Wert nichts vorstellen kann. Um uns diese Größenverhältnisse graphisch zu veranschaulichen, stellen wir uns ein Rohr von 1 km Länge vor, das mit atmosphärischer Luft gefüllt sei. Jedes der verschiedenen Gase belegt einen so langen Abschnitt, wie er seinem Anteil an der Atmosphäre entspricht.

780 Meter wären Stickstoff, 210 Meter Sauerstoff. Der Anteil des CO2, wie erwähnt, die Nahrung der Pflanzen, würde weniger als 40 cm Länge beanspruchen im Vergleich zum Kilometer der ganzen Atmosphäre! Die übrigen Gase lassen wir in diesem Zusammenhang weg. Die Hälfte des neu entstehenden CO2 wird von den Ozeanen absorbiert.

Dieses Rohr wächst nun jedes Jahr durch den von der Technik produzierten Überschuss an CO2 um sagenhafte 1,6 mm! Dass eine so geringe Menge CO2 einen Weltenbrand entfacht, ist wenig plausibel, abgesehen von dem gelinde gesagt umstrittenen angeblichen physikalischen Prozess, der diese Erwärmung antreiben soll.

Im Gegenteil, wenn man begriffen hat, dass CO2 die eigentlich rare Nahrung der Pflanzen ist, wird klar, wie zynisch-obszön gewisse Maßnahmen sind, zwecks «Klimaschutz» CO2 für immer in irgendwelchen geologischen Formationen zu «entsorgen»! Statt dessen hat man experimentell nachgewiesen, dass vielerlei Nutzpflanzen durch Düngung mit CO2 bessere Erträge geben.

  1. Vorhersage des Wetters und des Klimas

Das Wetter ist ein System in der lokalen Atmosphäre, das sich durch Variablen der Physik quantitativ beschreiben und mit viel Rechenaufwand und etwas Glück für ein paar Tage voraus berechnen lässt. Wir erwähnen im vorliegenden Zusammenhang insbesondere die folgenden Variablen:

Lufttemperatur

Luftfeuchtigkeit (Taupunkt)

Luftdruck – Unterschiede des Luftdrucks

Windgeschwindigkeit

Niederschlagsmenge

Bewölkung / Sonnenschein

Wir erkennen mit unseren Sinnen den aktuellen Wert einiger dieser Variablen, wie Wind, Wolken und Niederschläge oder Sonnenschein, die neben der Temperatur das Wetter bestimmen. Eine zusätzliche wichtige Größe, die wir mit unseren Sinnen nicht erkennen, ist der Luftdruck, und besonders wichtig sind regionale Unterschiede des Luftdrucks, in gelehrten Worten der Gradient des Luftdrucks, Motor der Winde. Diese Unterschiede des Luftdrucks bewegen die Luft über je nachdem weite Strecken und transportieren dabei warme oder kalte, vielleicht trockene Luftmassen oder die für Niederschläge notwendige feuchte Luft vom Atlantik, oder trockene Luft aus der Sahara usw., d.h. Wetter, das anderswo entstanden ist.

Nur in ein paar besonderen Regionen sind einige der erwähnten Größen über eine gewisse Zeit stabil, die Temperatur im Wechsel von Tag und Nacht höchstens ein paar Stunden lang. Je nach Ort kann man einige dieser Größen über eine gewisse Dauer halbwegs präzise schätzen und damit die Entwicklung des Wetters. Eine spezielle Disziplin der Meteorologie beschäftigt sich damit, durch die Lösung eines komplizierten Systems von partiellen Differenzial-Gleichungen die Entwicklung des Wetters voraus zu berechnen, aber einigermaßen zuverlässig höchstens auf ein paar Tage.

Daneben ist die pragmatische, traditionelle Methode weiterhin legitim, bei der Kenner intuitiv und nach Erfahrung regionale Messwerte interpretieren und dabei die Entwicklung des Wetters für den kommenden Tag schätzen. Ihr Erfolg hängt je nachdem davon ab, wo sie diese prophetische Kunst üben, in der Sahara im Sommer allenfalls für eine paar Wochen. An anderen Orten, insbesondere in gewissen Gegenden am Meer, wechseln heftiger Regen und strahlender Sonnen-Schein jede halbe Stunde.

Das Gas CO2, das angeblich unseren Planeten in eine gefährliche Erwärmung treibt, kommt unter den Faktoren, die das Wetter bestimmen, mit triftigem Grund nicht vor. Es hat auch in seriösen Betrachtungen zum Klima nichts zu suchen, obschon die Menschheit für das von ihr produzierte CO2 sogar besteuert wird.

  1. Umstrittener «Treibhaus-Effekt»

Um die dubiose Physik zu beschreiben, gemäß der CO2 angeblich «das Klima erwärmt», muss man ein bisschen ausholen.

Normales Licht erscheint für unser Auge weiß. Es gibt jedoch Experimente, durch die weißes Licht auf verschiedene Farben aufgeteilt wird. Das klassische Experiment dazu funktioniert über ein Prisma, wie nachstehend gezeigt:

Das Prisma aus Glas zerlegt weißes Licht in seine «Spektralfarben» blau, gelb, rot, sichtbar je nachdem immer noch in gemischten Nuancen. Die gleiche Erscheinung kennt man vom Regenbogen, wenn die Sonne bei geeignetem Winkel durch von Regen durchflutete Luft scheint. Die Physiker Newton und Huygens hatten dieses Phänomen bereits im 17. Jahrhundert durch Theorien erklärt – gegensätzliche Theorien, die die Wissenschaft über die nachfolgenden Jahrhunderte beschäftigte.

Beide Gelehrten erklärten übereinstimmend, weißes Licht sei eine Synthese aus den Spektren des farbigen Lichts. Goethe ärgerte sich über diese These und entwickelte eine eigene Farbenlehre, die als Idee über das subjektive Erkennen von Farben ihre Berechtigung hat, aber die Physik nicht widerlegt.

Huygens stellte die These auf, Licht sei eine Welle, nach späterem Verständnis eine so genannt «elektromagnetische», wobei jede Farbe durch ihre Wellenlänge bestimmt ist, blaues Licht durch kurze Wellen, rotes Licht durch lange.

Später hat man entdeckt, dass es neben dem sichtbaren Licht weitere nicht sichtbare elektromagnetische Wellen gibt, solche mit noch kürzerer Wellenlänge als blaues und solche mit noch längerer, als rotes Licht. Diese letzteren werden Infrarot genannt. Sie wurden für spekulative physikalische Theorien und eine gigantische politische Agitation instrumentalisiert.

Wie gesagt, infrarote Strahlung kann der Mensch nicht sehen, sondern allenfalls ab einer gewissen Intensität spüren, etwa wenn man eine Hand über eine heiße Herdplatte hält – in gebührendem Abstand natürlich. Infrarote Strahlung geht auch nicht durch das Glas-Prisma, kann aber mit anderen Techniken nachgewiesen und gemessen werden.

  1. Der «Treibhaus-Effekt» im Glashaus

Mit Hilfe von Glashäusern speichern die Gärtner einen Teil der einfallenden Sonnenenergie und verlängern so dank der höheren Temperatur innerhalb solcher Räume die Zeit, während der die Pflanzen gedeihen, vor allem im Frühling.

Ein großer Teil des von der Sonne eingestrahlten, kurzwelligen und sichtbaren Lichts dringt durch das Glas des Treibhauses, erwärmt dessen Boden und dieser danach durch Wärme-Leitung und Konvektion die darüber liegende Luft, die im Glas-Gebäude gefangen bleibt. Drinnen ist es wärmer als draußen. Wir kennen diese Art «Treibhaus»-Effekt auch von einem geschlossenen Auto, nachdem es in der Sonne gestanden hat. Mit dem in der Klimatologie unsinniger Weise gleich genannten Phänomen hat diese in der eingeschlossenen Luft gespeicherte Wärme jedoch nichts zu tun! Die Hitze im «Treibhaus» – eingesperrte warme Luft, die wegen der Hülle eines abgeschlossenen Raumes nicht entweicht – könnte man auch in einer von der prallen Sonne beschienenen Blechhütte erleben, durch deren undurchsichtige Schale kein Licht ins Innere fällt.

Im Treibhaus wirkt zusätzlich ein quantitativ viel weniger bedeutendes physikalisches Gesetz. Der durch kurzwelliges Licht erwärmte Boden strahlt einen Teil der eingefangenen Energie über unsichtbares, langwelliges, infrarotes Licht wieder ab – Infrarot, das nicht mehr durch das Glas dringt, sondern von diesem wieder zurück gestrahlt oder vom Glas absorbiert wird. Gemäß einer umstrittenen Ansicht wird das vom Boden abgestrahlte und zurück reflektierte Infrarot den Boden erwärmen.

Auch der so genannte «Treibhaus»-Effekt in der Atmosphäre würde analog mit dem vom Boden abgestrahlten und zurück reflektierten lang-welligen Licht funktionieren. Bei wolkenlosem Himmel dringt das kurz-wellige Sonnenlicht ziemlich ungehindert durch die Luft der Atmosphäre auf die Erdoberfläche. Der nicht reflektierte Teil des eingestrahlten Lichts wird dort in Wärme umgewandelt, im Boden gespeichert und nach und nach in Form von Infrarot ins Weltall zurück gestrahlt.

Einige Photonen dieses zurückgestrahlten Infrarot werden auf ihrem Weg zurück ins Weltall von den Molekülen bestimmter Gase in der Atmosphäre absorbiert und von diesen nachher wieder in eine beliebige Richtung ab gegeben, gleichsam «gestreut», unter anderem auch zurück Richtung Erde, ähnlich wie vom Glasdach des Treibhauses. Wegen dieser Analogie könnte man sie «Treibhaus»-Gase nennen, eine jedoch missverständliche Bezeichnung, wie in der nachfolgenden Skizze dargestellt.

Der «Treibhaus-Effekt» in der Atmosphäre bezieht sich nicht auf eine richtige Analogie zum Werkzeug der Gärtner, sondern ist eine metaphorische, bzw. eigentlich propagandistische Bezeichnung. Die um das Treibhaus des Gärtners gebaute Glashülle verhindert, dass die erwärmte Luft durch Konvektion aufsteigt. Die eingesperrte Energie ist auf kleinem Raum konzentriert, die Menschen dort drin spüren sie intensiv.

Infrarot, das sowohl durch das Glasdach reflektiert als auch durch wenige spezielle Moleküle in der freien Atmosphäre gestreut wird, begründet die vage Analogie, mit der berüchtigten Floskel «Treibhaus-Effekt». Es geht dabei um mehr als ein semantisches Problem. Das falsche Wort inspiriert zu dubiosen wissenschaftlich fragwürdigen Analogien. Glas ist ein Festkörper, «kondensierte Materie». Die dort gültigen, einfacher verständlichen physikalischen Gesetze über Absorption und Abstrahlung von Infrarot lassen sich nicht beliebig auf einen allenfalls analogen Prozess bei Luftmolekülen übertragen.

Die Absorption und die darauf folgende Re-Emission und damit Streuung von infrarotem Licht durch «Treibhaus-Gase» erklären die Physiker mit Quantenmechanik, insbesondere auch, welches Infrarot mit welchen Wellenlängen absorbiert wird. Die Wirkung der Infrarot absorbierenden Moleküle lässt sich mit einem teilweise transparenten Spiegel vergleichen, der das typische, in diesem physikalischen Prozess wirksame infrarote Licht zurück strahlt – «reflektiert», anderes Licht jedoch durchlässt. Wir nennen diesen Prozess daher partielle, diffuse Reflektion von infrarotem Licht oder gemäß einer in der Physik bekannten Bezeichnung als «Streuung» durch die dafür geeigneten «diffus reflektierenden», bzw. «streuenden» Luftmoleküle anstatt «Treibhaus»-Gase, wie die nachfolgende Skizze noch einmal zusammenfassen soll:

Im Unterschied zur Reflektion an einer Spiegel-Fläche strahlt das durch Moleküle in der Atmosphäre gestreute Infrarot nicht in einem präzisen Winkel zum einfallenden Licht ab, sondern diffus in alle Richtungen – einen Teil davon weiter ins Welt-All, einen anderen zurück auf die Erde, wo es erneut absorbiert wird oder gemäß anderen Meinungen eben nicht, je nachdem welche Meinung in diesem Gelehrten-Streit die betreffende Person vertritt.

Die wieder absorbierte Energie würde so zu sagen «rezykliert», in einer unpräzisen Redensart unseren Planeten «erwärmen», oder genauer dessen durch Abstrahlung verursachte Abkühlung verzögern. Die Infrarot streuenden Luftmoleküle würden quasi wie eine Wärmedämmung wirken. Das zurückgestrahlte Infrarot wird manchmal in missverständlicher Weise als «Gegenstrahlung» bezeichnet. Die Energie des absorbierten Photons wird im Molekül als innere Energie in Form von Schwingungen zwischen gespeichert bis sie wieder als Photon aus dem Molekül re-emittiert wird.

CO2 streut nur einen bescheidenen Bereich des Infrarot-Spektrums. Der außerhalb von Wüstengebieten fast immer vorhandene Wasserdampf, das heißt verdunstetes Wasser, streut ein wesentlich breiteres Lichtspektrum, und das allerdings weniger verbreitete Methan ist pro Molekül 25 mal so wirksam, wie das viel zitierte CO2 und N2O gar 300 mal. Man kann den Wasserdampf mit einem schwarzen Vorhang vergleichen, der bereits alles Licht absorbiert. Mit noch mehr Vorhang wird es nicht dunkler im Zimmer.

Eine Schule von Physikern bestreitet überhaupt, das auf die Erde zurück gestreute Infrarot wirke sich auf die Temperatur der Atmosphäre aus, ein Streit unter Gelehrten, dessen zentrales Problem wir mit einem blauen Kreis in der obigen Skizze angedeutet haben. Diese Frage ist auch unter Kritikern der herrschenden Lehre zum Klima umstritten.

Insbesondere die Physiker Prof. Gerlich und Dr. Tscheuschner vom Institut für mathematische Physik der Universität Braunschweig bestreiten, dass von der Erde abgestrahltes und wieder auf diese zurück reflektiertes Infrarot dort absorbiert, statt umgehend wieder Richtung Welt-All zurück reflektiert wird. (Gerlich, Tscheuschner, «Falsification Of The Atmospheric CO2 Greenhouse Effects Within The Frame Of Physics», Version 4.0 2009).

Abgesehen von dieser «Falsifikation» des angeblichen «Treibhaus-Effektes» mit Überlegungen der theoretischen Physik hätte man als Realist nicht die Aufgabe, dubiose Klima-Theorien zu widerlegen, sondern deren Anhänger wären gemäß den Regeln der Wissenschaftslogik verpflichtet, ihre Ansicht zu beweisen, insbesondere mit einem Experiment. Von wegen! Es gibt kein physikalisches Experiment, mit dem sich der angebliche Treibhauseffekt beweisen lässt. Das wäre quasi das zentrale Element jeder Diskussion. Aha, Treibhauseffekt. Kennt Ihr ein physikalisches Experiment, diesen zu beweisen? Nein, es gibt kein solches Experiment!

Wohl verstanden, selbst wenn man einen Treibhauseffekt nachgewiesen hätte, wäre das noch lange kein Beweis, dass dieser eine erkennbare Wirkung auf das «Klima» hätte, geschweige denn eine gefährliche.

Dass CO2 infrarotes Licht streut, ist eigentlich unbestritten, hat aber eine paradoxe Konsequenz, von der kaum je die Rede ist. Infrarot ist auch ein Teil im Spektrum des Sonnenlichts und wird entsprechend von den «Treibhaus-Gasen» gestreut, d.h. die Hälfte davon zurück ins Weltall ohne dass es je die Erde erwärmt hat. Dem entsprechend gibt es auch den Slogan «CO2 kühlt». Präziser formuliert wäre, CO2 behindert ein bisschen die Einstrahlung des Sonnenlichts.




Klima und Schein­wissenschaft, Teil 1

Im ersten Teil der vorliegenden Abhandlung erinnern wir an die Grundbegriffe «Wetter» und «Klima», sowie an die fundamentale Funktion, die das als angebliches Klimagift verleumdete Gas CO2 in der belebten Natur spielt.

  1. Einleitung

Nicht die Tatsachen beunruhigen die Menschen, sondern das, was sie über die Tatsachen meinen.

Epiktet

Frage aus dem Weltall an den Planeten Erde: Welches Wetter habt ihr bei euch? Antwort: «Strahlender Sonnenschein und über 30° Celsius warm». Da kommt noch eine Antwort: «Erzähl doch keinen Unsinn. Es ist kalt und schneit, und obendrein ist es Nacht».

Offensichtlich könnten beide recht haben. Es gibt kein universales Welt-Wetter. Genau so wenig gibt es ein universales Welt-Klima. Ja, es gibt überhaupt kein Klima an sich, sondern mehr oder weniger vernünftige Möglichkeiten, ein solches zu definieren und wenn, dann unvermeidlich bezogen auf geeignet gewählte Regionen und zwingend mit Begriffen der mathematischen Statistik.

Inspiriert durch dubiose Wissenschaft hat die UNO das internationale Gremium IPCC geschaffen, das «International Panel on Climate Change», auf deutsch den «Weltklimarat», der sich mit angeblichen Problemen bei der ziemlich fiktiven Größe «Weltklima» beschäftigt und den nationalen Regierungen Empfehlungen abgibt, wie sie das «Klima schützen» können.

Für die Politik ist das Klima durch die Durchschnitts-Temperatur bestimmt, die aus weltweit gesammelten Messwerten berechnet wird – auf ein halbes Grad C genau! Dabei ist eine solche Definition und Methode ungeachtet aller politischen Prominenz gelinde gesagt, ein bisschen eigenartig.

Gemäß einem in der Politik gültigen Dogma erwärmt sich das Klima der Erde in einem gefährlichen Ausmaß, verursacht durch das friedliche Gas CO2, und gewissen Kreisen ist es gelungen, mit dieser naturwissenschaftlich wenig fundierten Behauptung die Menschheit zu tyrannisieren. Dabei verdienen einige Matadoren der Klima-Agitation exzellent mit dem CO2-Dogma, das eigentlich auf pseudowissenschaftlichen Theorien beruht, ein krasser Fall von «fake science».

  1. Wetter und Klima

Definieren wir zunächst den Begriff «Klima» in einer Weise, in der die üblichen seriösen Definitionen mit enthalten sind:

«Mit dem Begriff Klima bezeichnet man meteorologische Daten, die über geeignet gewählte zeitliche Abschnitte und über geeignet gewählte Regionen gesammelt und statistisch ausgewertet wurden».

Als zeitliche Abschnitte wählt man naheliegender Weise solche des bürgerlichen Kalenders – Monate und Jahre, als Regionen solche, in denen das Wettergeschehen gleich oder jedenfalls ähnlich ist.

Wichtige Wetter-Daten sind insbesondere die Niederschläge und die Temperatur. Elementare Verfahren, der statistischen Auswertung sind die Berechnung von Durchschnittswerten, sowie Intervalle zwischen Höchst- und Tiefst-Werten. Was damit gemeint ist, wollen wir am Beispiel der beiden Städte Zürich und Chicago illustrieren:

Die roten Balken zeigen die Differenz zwischen den über 30 Jahre ermittelten durchschnittlichen Höchstwerten und den durchschnittlichen Tiefstwerten für den betreffenden Monat.

Im Sommer ist es im typischen Fall in Chicago heißer als in Zürich. Zugleich sind die Winter im nördlichen Nord-Amerika markant kälter, als in West-Europa mit seinem dank des Golf-Stromes mitteleuropäisch gemäßigten Klima. Beide Extreme des nordamerikanischen Klimas sind nicht angenehm. Im einzelnen Fall kann es jedoch umgekehrt sein und natürlich der Durchschnitt der Extremwerte übertroffen oder unterboten werden, wobei es in Chicago im Juli sogar kälter als 17°C oder wärmer als 29°C sein kann.

Die Durchschnittstemperatur? Dafür interessiert sich nun wirklich niemand, auch wenn diese zunehmen sollte – im Winter? Bitte sehr. Subjektiv unangenehm ist im Sommer v.a. die Luftfeuchtigkeit, und falls es den Treibhauseffekt geben sollte, dann würde dieser voll umfänglich von dieser Luftfeuchtigkeit besorgt, da eben Wasserdampf ein viel breiteres Spektrum der infraroten Strahlung streut. CO2 hätte neben diesem Wasserdampf nichts zu melden.

Der Begriff «Klima» bezieht sich, wie das Wetter, zunächst auf einen Ort, die Messstation und auf die 12 Monate des bürgerlichen Kalenders. Bereits innerhalb einer Stadt könnte man an verschiedenen Orten ein leicht unterschiedliches Klima errechnen. Nicht einmal pro Monat macht es Sinn, einen einzelnen Durchschnitts-Wert der Temperatur zu verwenden, sondern besser Temperatur-Intervalle.

Graphiken von der gezeigten Art findet man in Wikipedia zu jeder größeren Stadt. Sie werden von der lokal zuständigen meteorologischen Anstalten nach einem weltweit für alle Städte gültigen Schema erstellt. (Wer im speziellen Fall der Schweizer Städte die Quelle «Meteo Schweiz» anklickt, erlebt nebenbei eine amüsante Panne, nämlich die Mitteilung «Seite nicht gefunden», und wer beim Bundesamt für Meteorologie nachfragt, bringt zwar ein paar Abteilungen auf Trab, bekommt aber keine Antwort, wer Urheber dieser Seite sei!)

Statt mit der erwähnten Differenz zwischen den über 30 Jahre ermittelten Durchschnittswerten würde man mit einem etwas profunderen Ansatz der mathematischen Statistik, d.h. der Disziplin mit absoluter Deutungshoheit auf diesem Gebiet (und auf vielen anderen!) das Klima mit statistischen Verteilungen der verschiedenen Variablen beschreiben. Aber das übliche pragmatische Verfahren, das sich einfach anwenden und verstehen lässt, gibt eine gute Idee vom Begriff Klima.

Die Dauer von 30 Jahren, aus denen man die Wetterdaten verwendet, um daraus die Werte des Klimas zu berechnen, sind keine natürliche Größe, sondern eine organisatorische, dank der sich die verschiedenen regionalen Klimata vergleichen lassen. Daneben kann man wiederum mit Methoden der mathematischen Statistik prüfen, ob echte periodische Schwankungen vorkommen.

Eine weitere maßgebende Größe des lokalen Klimas neben den Temperatur-Intervallen sind die kumulierten monatlichen Niederschläge, zusätzlich zur Temperatur die Essenz sowohl des Wetters, wie auch des Klimas. Niederschläge, und bereits deren Voraussetzung – Wolken – sind ein Element, das erst recht eine simple, auf die Temperatur reduzierte Darstellung des Klimas als unsinnig entlarvt. Damit Wolken entstehen, muss zuerst Wasser verdunsten, v.a. über dem Meer, ein Prozess, der enorm viel Energie benötigt und dadurch das Meer kühlt. Die Wolken behindern danach massiv die Einstrahlung durch die Sonne, und Regen kühlt den Boden – im typischen Fall – oder erwärmt ihn unter speziellen Umständen.

Interessant ist auch, die Niederschläge der beiden Städte Manchester in GB und Beirut zu vergleichen, im Jahres-Durchschnitt fast gleich. Nur regnet es in Manchester ziemlich regelmäßig über das ganze Jahr, in Beirut hingegen an wenigen Tagen gewaltige Mengen.

Mit einer noch einfacheren, jedoch praktischen Definition des Begriffs Klima könnte man sich auf die Verteilung der Niederschläge beschränken, ergänzt durch die Angabe, ob die Temperatur unter 0° C, d.h. unter den Gefrierpunkt fallen kann, sodass dort nur Pflanzen vorkommen, die das aushalten. Auch diese einfache Version des Begriffs «Klima» würde sich auf geeignete Regionen beziehen.

Nicht etwas höhere Temperaturen wären eine Gefahr, sondern Kälte und Trockenheit. Man schaue sich mal die Bilder von Landschaften mit extrem kalten Wintern an, wie sie z.B. von alten holländischen Meistern im 17. und auch noch im 19. Jahrhundert gemalt wurden, von Breughel, Avercamp und vielen anderen, beeindruckend anzusehen, aber ohne Schaden für die Menschheit und im Moment nicht mehr aktuell.

Kalte Winter dieser Art werden von einigen Gelehrten als Wirkung des «Maunder-Minimums» erklärt, d.h. einer etwas geringeren Einstrahlung durch die Sonne. Es bleibt jedoch offen, ob nicht auch damals ein anhaltender Zufluss kalter Luft aus der Polarregion so kaltes Wetter mit oder sogar maßgeblich verursacht hat.

Der Jahrtausend-Winter von 1708/1709 führte zu großer Hungersnot. Ältere Personen mögen sich noch an den Winter 1962/63 erinnern. Auf gefrorenen Seen und Flüssen herum zu laufen war für jüngere Leute eine unterhaltende Abwechslung, die Sterblichkeit, v.a. unter älteren war dafür höher. Damals befürchtete man allgemein eine neue Eiszeit. Kein CO2 hätte etwas dagegen ausrichten können. Item, wenn schon, lieber «Klima-Erwärmung» als eine solche Kalamität.

Der Begriff «Klima» ist in der hier vorgestellten Art als stabile Größe definiert. Dabei gibt es durchaus ein legitimes Bedürfnis, mögliche Änderungen zu erfassen – die «Klima-Veränderung», von der alle reden und nur wenige eine seriöse Idee davon haben, wie man eine solche beschreiben könnte. Änderungen des Klimas könnte man mit dem hier vorgestellten Verfahren erkennen, indem man die Daten, statt für 30 Jahre, für jedes einzelne Jahr jeweils über die Monate aggregiert.

Aber Achtung, selbst wenn unterschiedliche numerische Werte für die aus einem Jahr ermittelten lokalen Klima-Daten ausgewiesen werden im Vergleich zu den aus 30 Jahren ermittelten, heißt das nicht zwingend, dass diese unterschiedlichen Werte einen signifikanten Unterschied und somit eine echte Änderung des Klimas beweisen.

Der Begriff «signifikanter Unterschied» zwischen 2 oder mehr Serien gemessener Werte ist zentral in der mathematischen Statistik, z.B. über ein erstes und ein zweites Geschehen (oder allgemein zwischen zwei unterschiedlichen Serien von Messwerten). Ein postulierter signifikanter Unterschied wird nicht als absolute Gewissheit formuliert, sondern mit einer Wahrscheinlichkeit, quasi als mehr oder weniger plausible Vermutung.

Die nachfolgende Graphik zeigt einen zwar konstruierten, aber möglichen Verlauf zweier Zeit-Reihen der Temperatur über einen bestimmten Zeit-Abschnitt, z.B. die monatliche Durchschnitts-Temperatur über 7 Monate, rot markiert im ersten, blau markiert im zweiten Jahr.

Die im ersten Jahr mit roten Punkten markierte Temperatur war im ersten Zeit-Abschnitt niedriger als im Jahr danach, im zweiten und dritten Zeit-Abschnitt war es umgekehrt usw. Bei einem solchen Verlauf wird die Durchschnittstemperatur in einem der beiden Jahre zufällig höher sein als im anderen, aber sicher nicht signifikant. (Ein solcher, hier ohnehin nur zur Demonstration skizzierter Temperaturverlauf ohne markante saisonale Schwankungen ist z.B. für die Tropen denkbar).

Es ist naheliegend, dass in Agglomerationen wegen des zunehmenden Energie-Verbrauchs und der daraus folgenden Abwärme höhere Werte für die Temperatur zu erwarten sind. Dieser Teil ist durch die Zivilisation verursacht. Schädlich ist daran nichts, problematisch nur, dass Vorräte wertvoller Energie in danach nicht mehr brauchbare Abwärme niedriger Temperatur umgewandelt werden.

Wie erwähnt, stammen die für ein Klimadiagramm gesammelten Daten von einer bestimmten Wetterstation. In der nahen Umgebung würde man «ähnliche» Werte finden, ja sogar über ausgedehnten Gebiete, je nachdem, wie robust man den Begriff «ähnlich» anwendet. Über die ganze Welt verteilt wurden auf diese Weise die nachfolgend abgebildeten Klima-Zonen ermittelt:

Die Klima-Zonen sind maßgeblich durch die Niederschläge bestimmt und in zweiter Linie, wie erwähnt dadurch, ob die Temperatur unter den Gefrierpunkt fallen kann, was die Physiologie einer Pflanze herausfordert. Die Vegetation bietet denn auch eine exzellente Möglichkeit, Klimazonen zu definieren.

Auffällig auf der Karte sind die rot gefärbten Gebiete – trockene Wüsten; trocken nicht weil es dort zu heiß ist, sondern weil es selten regnet, das typische Merkmal einer Wüste. Soll man dieses Klima «schützen», wie von einem die Politik beherrschenden Dogma gefordert wird? Skorpione und ein paar andere exotische Kreaturen wären bestimmt glücklich. Eine sinnvolle Aufgabe für die Menschheit ist das nicht, aber zum Glück auch gar nicht möglich.

Bei all diesen erwähnten seriösen Beschreibungen des Klimas ist nie von der «Durchschnittstemperatur» die Rede. Die Durchschnittstemperatur in Zürich Affoltern? Man könnte sie ausrechnen. Aber das wäre kein interessanter Wert, wie übrigens immer wieder in allen möglichen Zusammenhängen. Der Durchschnittswert aus einer Gesamtheit ist oft nichtssagend oder irreführend.

Vermutlich ist es in den letzten Jahren in West-Europa insgesamt ein wenig wärmer geworden, wie man aus den Ergebnissen verschiedener Wetter-Stationen schließen kann, aber nicht zum ersten Mal in der jüngeren Geschichte unseres Kontinents. Eine außerordentliche lokale Erwärmung wird im typischen Fall kompensiert durch kühlere Luft in anderen Gebieten, denn oft entsteht das Wetter nicht durch Prozesse in der lokalen Atmosphäre, sondern wird durch Winde heran transportiert, z.B. feuchte Luft vom Ozean, heiße aus Afrika, kalte Luft aus der Polarregion; advehiert jeweils nicht auf geradem Weg, sondern in einer zirkulären Bewegung um ein Hoch- oder Tiefdruckgebiet herum, wie man jeweils aus den Wetterkarten ersieht. Welches Wetter gerade auf dem Programm ist, lässt sich allenfalls für 2 oder 3 Tage voraus sagen, als Entwicklung des Klimas manchmal mit kritischem Vorbehalt vermuten. Wiederholen sich solche Entwicklungen des Wetters, werden sie allenfalls zu einer Basis des Klimas.

  1. CO2, Nahrung der Pflanzen

CO2 hat nichts mit dem Wetter und auch nichts mit dem Klima zu tun. Aber bei den Ruf schädigenden Machenschaften durch die Politik muss man wohl die Aufgabe dieses Gases, die Grundlage von allem Leben, ein bisschen erklären. CO2 entsteht durch Verbrennung von Kohlenstoff. Das gelehrte Wort statt Verbrennung heißt «Oxydation», ein Prozess, der auch bei niedrigeren Temperaturen stattfinden kann, insbesondere im Körper von Mensch und Tier, deren Nahrung aus Kohlenstoff-Verbindungen besteht und die aus dem Oxydations-Prozess ihre Energie beziehen.

Die Tiere atmen das in ihrem Körper produzierte CO2 aus, das danach wieder den Pflanzen als Grundnahrung dient. Sie beziehen dieses Gas aus der Atmosphäre, Bäume z.B. über die Blätter, und wandeln dort das CO2 in die Kohlenstoff-Verbindungen um, die die Pflanzen für ihr Wachstum benötigen. Diese bestehen im Wesentlichen aus umgewandeltem CO2 und Wasser. Der Prozess, durch den die Pflanzen das CO2 in Kohlenstoff-Verbindungen umwandeln, wird als «Photosynthese» bezeichnetet. Diese nutzt Energie des Sonnenlichts. Pflanzen sind Nahrung für Mensch und Tier.

Die nachstehende Graphik stellt diesen Austausch des Kohlenstoffs zwischen Pflanzen und Tieren dar – ein «Kreislauf».

Den erdgeschichtlich wohl ältesten Prozess haben wir mit dem grauen Feld rechts unten angedeutet. Die wichtigste Form von Kalkstein, entsteht, indem im Meer gelöstes CO2 und Kalzium sich zu CaCO3 verbinden, d.h. der Erde und dem Meer für die restliche Dauer des Planeten CO2 entziehen, von dem es somit früher sehr viel mehr gab. Ausgedehnte Kalk-Gebirge entstanden in Gebieten, wo einst Meer gewesen war.

Ebenfalls aus alter Zeit stammen die fossilen Ablagerungen von Kohlenstoff in Form von Kohle, Erdöl und Erdgas. Die übrigen dargestellten Prozesse laufen auch in unserer Zeit weiter.

Gemäß überwiegender Ansicht ist die größte Reserve an ungebundenem CO2 im Meer gelöst, je kälter das Wasser, desto mehr. Wo sich das Wasser erwärmt, gibt das Meer CO2 an die Atmosphäre ab oder nimmt solches auf, wenn sich das Wasser ab kühlt.

Pflanzen an Land absorbieren in der Atmosphäre vorhandenes CO2 über die Blätter, spalten die CO2-Moleküle mit Hilfe des Sonnenlichts in deren Atome auf, behalten den Kohlenstoff als Bau-Substanz und geben den Sauerstoff O2 an die Atmosphäre zurück.

Pflanzen dienen den Tieren, insbesondere auch den Menschen als Nahrung. Sie verbrennen die aus der Nahrung gewonnenen Kohlenstoff-Verbindungen in ihren Zellen und verwenden die gewonnene Energie, um ihre Körpertemperatur aufrecht zu erhalten oder über die Muskeln ihre Glieder zu bewegen oder vielerlei biochemische Prozesse abzuwickeln. Das Abfallprodukt ist CO2, das die Tiere über ihre Atmung an die Atmosphäre zurück geben. Der Verbrennungsmotor in einem Auto macht das gleiche, nur in primitiver Form. Zudem benötigt er große Mengen an fossilem Kohlenstoff.

Die quantitativ bedeutendsten «Tiere» sind Mikro-Organismen, die dafür sorgen, dass abgestorbene Pflanzen «verrotten», so dass aus ihnen wieder CO2 entsteht.

Der Kreislauf ist nicht geschlossen. Die Pflanzen benötigen eine winzige Dosis der täglich nachfließenden Energie der Sonne für die Photosynthese. Die mit dieser von den Pflanzen akkumulierte Energie wird später über den Metabolismus der Tiere und Mikroorganismen in Form von Wärme niedriger Temperatur an die Atmosphäre zurück gegeben.

Wasser nehmen die Pflanzen über die Wurzeln auf und ebenso die übrigen benötigten Stoffe, insbesondere Stickstoff, die aber im vorliegenden Zusammenhang keine Rolle spielen.

Es gibt gewisse, je nachdem bereits durchgeführte oder mindestens geplante Maßnahmen, CO2 in irgendwelchen geologischen Formationen unwiderruflich der Atmosphäre zu entziehen, zwecks angeblichem «Klima-Schutz». Wenn man sich daran erinnert, dass CO2 Grundnahrung der Pflanzen und damit direkt oder indirekt aller Lebewesen ist, kann man solche Maßnahmen nur als bösartigen Zynismus verurteilen.

Über den Autor: Werner Furrer hat an der Universität Basel Mathematik und Physik studiert und, 1969 mit dem Diplom abgeschlossen. In späteren Jahren hat er zusätzlich ausgewählte Themen in Ökonomie und Jurisprudenz studiert. Der Autor hat in verschiedenen Unternehmen der Privatwirtschaft und staatlicher Verwaltung als Informatiker gearbeitet und später im Bereich mathematische Statistik, Operations Research, sowie in der Versicherungs-Wirtschaft. Dazwischen hat er als Sachbuch-Autor Bücher und Zeitungs-Artikel verfasst. Er unterhält verschiedene Webseiten, u.a. www.system-denken.ch sowie www.klima-schwindel.com.




Michael Moore und Paul Driessen einig: Wind-, Solar- und Biotreibstoff-Energie zerstören den Planeten Erde!

Die Dokumentation reflektiert den festen Willen Moores, die umweltextremistische Doktrin zu hinterfragen. Schon bald wird offensichtlich, warum immer fanatischere Grüne versucht haben, den „gefährlichen Film“ zu verbieten. Tatsächlich ist Films for Action ursprünglich unter dem Druck eingeknickt und hat den Film von seiner Website entfernt, ihn später aber wieder eingesteuert. Auch auf YouTube ist der Film einsehbar.

Unter den Möchtegern-Zensoren fanden sich auch Josh Fox, dessen Film Gasland von den irischen Journalisten Phelim McAleer und Anne McElhinney vollständig in ihrer „FrackNation“-Dokumentation zerpflückt worden ist; Michael Mann, dessen „Hockeyschläger“-Graphik von den kanadischen Analysten Ross McKitrick und Steve McIntyre ad absurdum geführt worden ist, neben vielen anderen. Und der Stanford-Professor Mark Jacobson hatte gegen den Film gewettert, dem gerade eine potenzielle Strafe von 1 Million Dollar (in Form von Anwaltskosten) auferlegt wurde, weil er eine Verleumdungsklage gegen einen Mathematiker angestrengt hatte, der Jacobsons Behauptungen über erneuerbare Energien kritisierte.

Diese Kritiker und deren Erfüllungsgehilfen sind kaum willens, über irgendwelche Klima- und Energiethemen zu diskutieren, welche sie als „settled science“ ansehen, geschweige denn dass sie mit „Leugnern“ oder ehemaligen Kollegen debattieren wollen, welche vom Pfad des Katechismus‘ eines Klima-Kataklysmus‘ abgewichen und einer Erlösung durch erneuerbare Energie das Wort geredet haben. Sie bevorzugen Gerichtsverfahren. Aber sie fühlen, dass der Film Planet ein Meilenstein im Bürgerkrieg gegen die Grünen sein kann, und sie sind verängstigt.

Ihr Hauptklagepunkt, dass Einiges in dem Film überholt ist, ist zwar korrekt, aber irrelevant. Der Kernpunkt des Films entspricht dem Meinen: Energie aus Wind, Solar und Biotreibstoff ist weder sauber noch grün noch erneuerbar, und sie ist auf schreckliche Weise verheerend für vitale ökologische Werte, Die Zensoren glauben, dass das Einräumen dieser Tatsachen ein Sakrileg ist.

Der Haupt-Sprecher Jeff Gibbs spricht niemals mit Befürwortern von Kohle, Öl oder Erdgas – und auch nicht mit Skeptikern hinsichtlich „erneuerbarer“ Energie oder solchen einer „vom Menschen verursachten Klimakrise“. Stattdessen interviewt er Umweltaktivisten, welche völlig zu Recht entsetzt darüber sind, was Wind-, Solar- und Biotreibstoff-Projekte in schönen Landschaften, Wildnis-Habitaten sowie bei seltenen und gefährdeten Spezies anrichten; und darüber, was Wäldern, Wüsten und Prärien angetan wird. Er schaut hinter die Kulissen, um falsche Behauptungen aufzudecken, dass Sonnenkollektoren tatsächlich den Strom für ein Solarförderkonzert liefern.

Nachdem er mit „Erneuerbaren“-Befürwortern in Lansing (Michigan) gesprochen und erfahren hatte, dass der Chevy Volt [ein Elektrofahrzeug], der die Befürworter so begeistert, durch Strom aus einem Kohlekraftwerk aufgeladen worden war, besucht Gibbs einen nahe gelegenen Solarpark. Dieser könnte zum Höhepunkt der Solar-Intensität 50 (!) Haushalte mit Strom versorgen. Um die gesamte Stadt Lansing damit zu versorgen, würde man 39 Quadratkilometer Landfläche mit Paneelen überziehen müssen – plus Windmühlen und eine riesige Palette von Batterien (oder ein Kohle- oder Gaskraftwerk) für die Nächte und für wolkige Tage.

Die Crew filmt dann, wie eine jener Windmühlen außerhalb der Stadt errichtet wird. Für jede Einzelne davon braucht man 2,268 Millionen Kilogramm Beton, Stahl, Aluminium, Kupfer, Plastik, Kobalt, seltene Erden, Fiberglas und andere Materialien. Jeder Schritt bzgl. Bergbau, Herstellung, Installation, Wartung und (nach 20 Jahren) Entsorgung erfordert fossile Energie. Es muss wiederholt werden: Wind und Sonne sind erneuerbar und nachhaltig; aber diese zur Energieerzeugung abzuschöpfen zum Vorteil der Menschheit ist es nicht. (bei 36:50 gibt es ein Tutorial bzgl. des Bergbaus und woher all diese „sauberen, grünen“ Technologien wirklich kommen).

Dann fahren sie nach Vermont, wo ein bewaldeter Höhenrücken abgeholzt wird, um noch mehr Windmühlen zu errichten. Abholzen von Wäldern zur Kohle-Gewinnung: schlecht! Dito, um riesige, Vögel zerschmetternde Windräder zu errichten: gut!

Eine Luftaufnahme zeigt 350.000 Spiegel jeweils von der Größe eines Garagentores, die rund 15 km² Landfläche des Habitats der Mojave-Wüste überziehen – mit dem gigantischen „Solar“-Kraftwerk Ivanpah in der Mitte. Das System wird jeden morgen mittels Erdgas-Heizkörpern erwärmt, so dass bis Sonnenuntergang ein wenig Strom erzeugt werden kann.

Dieses „umweltfreundliche“ Solarkraftwerk befindet sich jetzt dort, wo zuvor 500 Jahre alte Yucca-Palmen und Joshua-Bäume gewachsen waren. „Überholte“ Berichterstattung zeigt, wie diese komplett zerschreddert worden sind, um jeden Beweis zu vernichten, dass diese Bäume je existiert hatten.

Als Nächstes nehmen sich Gibbs und Moore Äthanol vor – und den Mais, das Wasser, den Dünger und die fossilen Treibstoffe, die man braucht, um diesen „sauberen, grünen, erneuerbaren“ Benzin-Ersatz herzustellen, wobei massenhaft Kohlendioxid bei deren Verbrennung freigesetzt wird.

Noch schlimmer ist die Vernichtung ganzer Wälder – gerodet, zu Chips verarbeitet, vielleicht auch zu Pellets, und dann hunderte oder sogar tausende von Kilometern verfrachtet … um sie anstelle von Kohle zu verbrennen, um den Strom zum Erhalt eines hohen den Lebensstandards zu erzeugen. Die Crew bekommt „fünf Sekunden“, einen abgeholzten Wald und den Standort eines geplanten „Biomasse“-Kraftwerks in Vermont zu verlassen – oder verhaftet zu werden. Eindringliche Bilder fassungsloser Ureinwohner in Brasilien und ein verschreckter, mit Schlamm bedeckter Orang Utan in Indonesien runden das Bild der Zerstörung ab, welche begangen wird im Namen der Errettung der Erde vom Klimawandel.

Man bleibt zurück und fragt sich, wie viele Hektar Mais, Zuckerrohr oder Raps Richard Branson brauchte, um mit einem mit Biotreibstoff befeuerten Jet nach Europa zu fliegen. Und wie viel man davon braucht, um die 96 Millionen Gallonen [1 Gallone = rund 4 Liter] Treibstoff herzustellen, welche die Luftfahrtindustrie im Jahre 2019 verbrauchte. Wie viele Jahrzehnte wird es dauern, bis die Millionen Quadratkilometer langsam wachsender Wälder nachgewachsen sind, welche jedes Jahr als „Kohlenstoff-neutrale“ Alternative für Kohle verbrannt werden.

„Können Maschinen, hergestellt durch die industrielle Zivilisation, uns vor der industriellen Zivilisation retten?“ fragen sich die Produzenten. „Erneuerbare“ Energiesysteme haben nur eine Lebensdauer von 15 bis 20 Jahren, dann müssen sie abgebaut und ersetzt werden mittels weiteren Verbrauchs nicht-erneuerbarer Ressourcen, „falls dann noch genug von unserem Planeten übrig ist“, sagen sie. „Im Grunde werden wir mit Lügen gefüttert“. Vielleicht sind „wir besser dran, wenn man gleich lediglich fossile Treibstoffe verbrennt“ als diese Zerstörung voranzutreiben.

Tatsächlich. Aber man behalte dabei im Hinterkopf, dass Moore und Gibbs so hochgradig über diese Dinge besorgt sind, die in einer Welt vor sich gehen, welche immer noch zu 85% von Öl, Erdgas und Kohle abhängig ist, zu 4% von Kernkraft und zu 7% von Wasserkraft. Man stelle sich vor, wie unser Planet aussehen würde, falls wir auf 100% (pseudo-)Erneuerbare unter verschiedenen Green New Deals kommen würden: Millionen Windmühlen, Milliarden Solarpaneele, Milliarden von Batterien, Tausende Biotreibstoff-Plantagen und riesige abgeholzte Wälder, zu tausenden neue oder erweiterte Minen – und so weiter.

Aber wo einige nur Zerstörung und Vernichtung sehen, sehen Andere Gelegenheiten. Arnold Schwarzenegger drückt es im Film so aus: Wo einige in der Mojave-Wüste Kilometer über Kilometer nur Leere sehen, sieht er eine riesige „Goldmine“. Al Gore sieht endlose Millionen an Profiten, eine tolle Niederlassung am Meer und bequeme Privatjets. Die Koch Brothers sehen größere Solar- und Biotreibstoff-Imperien. Der Sierra Club sowie die Union of Concerned Scientists malen sich weitere Millionen durch Klima-Untergang und Erneuerbaren-Lösungen aus, während der Gründer von 350.org BillMcKibben sich nicht daran zu erinnern scheint, dass die Rockefeller Brothers und andere Bonzen-Stiftungen ihm Millionen von Dollars gaben.

Aber Moore und Gibbs klagen nicht den Kapitalismus freier Märkte an. Sie klagen vielmehr eine Vorschriftenflut seitens Regierungen und subventionierten Opportunismus von mit ihnen verbundenen Unternehmern an. Doch die Lösung, die sie letztlich vorschlagen, besteht nicht darin zu berücksichtigen, dass der Klimawandel seit Beginn der Erdgeschichte „real“ ist, dass Menschen und fossile Brennstoffe nur eine minimale Rolle inmitten der mächtigen Naturkräfte spielen, die Gletscher- und Zwischeneiszeiten, mittelalterliche Warmzeiten und kleine Eiszeiten hervorbrachten, oder dass moderne Kernkraftwerke reichlich CO2-freien Strom erzeugen.

Stattdessen plädieren sie dafür, dass wir Menschen „uns unter Kontrolle bringen“ müssen. Das bedeutet nicht einfach nur, unseren Lebensstandard zurückzuschrauben (mögen wir alle so kleine „Kohlenstoff-Fußabdrücke“ haben wie Al Gore), die USA und Europa „rückzuentwickeln“ und zu „deindustrialisieren“, während man gleichzeitig immer noch armen Ländern vorschreibt, wie viel zu entwickeln ihnen „erlaubt“ ist – in Übereinstimmung mit den totalitären Instinkten von Obamas Wissenschafts-Berater John Holdren. Es bedeutet außerdem, dass es weit weniger Menschen auf diesem wunderbaren Planeten geben muss (wie genau dieses erreicht werden soll, sagen sie nicht, obwohl mehrere Diktatoren des 20. Jahrhundert diesbezüglich vorgegeben haben, wie man es machen kann).

An dieser Stelle vollführt Planet of the Humans eine verstörende, verfehlte, neo-malthusianische Wende. Aber diese letzten Minuten sollte man aufmerksam betrachten, um zu verstehen, was immer noch viel zu viele „Umweltextremisten“ motiviert, die viel zu oft gefeiert oder sogar heilig gesprochen werden ob ihrer Hingabe an Mutter Erde – selbst wenn der Preis sich nach Milliarden bemisst in unvorstellbarer Armut, Unterernährung und Energiemangel – und Millionen Menschen vorzeitig sterben.

Michael Moore und Jeff Gibbs haben uns einen großen Dienst erwiesen, indem sie die Umwelt-Verheerungen durch pseudo-erneuerbare Energie bloßgestellt haben. Jetzt müssen sie nur noch einmal ihre neo-malthusianische Doktrin überdenken.

Autor: Paul Driessen is senior policy advisor for CFACT and author of Cracking Big Green and Eco-Imperialism: Green Power – Black Death.
Link: https://www.cfact.org/2020/05/09/michael-moore-and-driessen-agree-wind-solar-and-biofuel-energy-are-devastating-planet-earth/
Link zum Video: https://youtu.be/Zk11vI-7czE
Übersetzt von Chris Frey EIKE




Sechs kurze Begrün­dungen für die Verfassungs­widrigkeit des Shutdown in Deutsch­land

Nach der ständigen Rechtsprechung des BVerfG beurteilt sich die Verfassungsmäßigkeit von Grundrechtsein­griffen nach dem Verhältnismäßigkeitsgrundsatz mit seinen drei Elementen der 1.Geeignetheit, 2. der Erforderlichkeit und 3. der Zweck/Mittel- Proportionalität des Eingriffs.

1. Die Reproduktionszahl ( R )

Auf den ersten Blick scheint der Shutdown erfolgreich und damit geeignet i. S. des Verhältnismäßigkeitsgrundsatzes gewesen zu sein, die Verlangsamung des Infektionsgeschehens zu erreichen Denn die sog. Reproduktionszahl ( R ), die angibt, wie viele weitere Personen ein Infizierter ansteckt, war von ursprünglich deutlich über 3 auf knapp unter 1 gesunken. Im Zuge dieses Erfolgs haben die Krankenhäuser denn auch erhebliche Überkapazitäten im Intensivbereich aufgebaut, was den Anteil der freien Betten an der Gesamtzahl der Intensivbetten z. B. in Bayern auf 51 % ( zweithöchster Wert ) und in Berlin auf 31 % (niedrigster Wert ) erhöht hat ( Handelsblatt vom 24./25./26. April 2020,S. 33 ). Der genauere Blick anhand einer Kurve mit den Zahlen des Robert Koch Instituts ( RKI ) zeigt aber, dass R schon drei Tage vor dem Shutdown auf unter 1 gesunken war und seitdem leicht unterhalb dieser Marke gependelt hatte, ohne weiter deutlich zu sinken ( vgl. die Grafik ). Dieser Zustand dauert bis heute an ( Mitte Mai ). Damit wäre dem Shutdownbeschluss das Testat der Geeignetheit i.S. des Verhältnismäßigkeitsgrundsatzes zu versagen.

Das RKI wendet freilich ein, dass der R-Wert das reale Geschehen „etwas überschätzt“, vor allem weil die Testkapazitäten stark erhöht worden seien (17. Epidemiologisches Bulletin des RKI ). Unterstellt, der R-Wert läge in Wahrheit 0, 2 – 0, 3 Punkte niedriger, also etwa bei 0, 6. ändert das nichts an der Feststellung,, dass der entscheidende Abstieg vom hohen R-Sockel von über 3 auf unter 1 bereits vor dem Shutdown erfolgt ist. Und dass aus der geringen Verbesserung des R-Wertes seitdem die Geeignetheit des Shutdown i.S. des Verhältnismäßigkeitsgrundsatzes nicht hergeleitet werden kann.

Der Umstand, dass R bereits drei Tage vor dem Beschluss des Shutdown auf unter 1 gefallen war, lässt aber auch die weitere Frage entstehen, ob dieser überhaupt erforderlich war, um das Infektionsgeschehen zu verlangsamen. Die Bundeskanzlerin hatte zuvor mehrfach für R die Zahl 1 als Ziel genannt. Es ist aber m.E. nicht auszuschließen, dass damit nur ein Zwischenziel, nicht aber das Endziel bezeichnet war. Und in der Tat gehen ja auch beim Stand von unter 1 die Neuinfektionen weiter.

Zusammenfassend ist zu sagen, dass unter dem Gesichtspunkt des Reproduktionswertes R der Shutdownbeschluss zwar erforderlich, nicht aber geeignet i.S. des Verhältnismäßigkeitsgrundsatzes war.

2. Die französische Studie zur Gefährlichkeit des Coronavirus

Diese umfassende französische Studie mit dem bereits alles sagenden Titel „ SARS-COV-2: fear versus data“ ( sinngemäße Übersetzung etwa: Die Coronafurcht ist durch die Datenlage nicht gerechtfertigt ) war am 19. März. in einer internationalen Fachzeitschrift, also vier Tage vor dem Shutdownbeschluss, veröffentlicht worden ( Roussel et al. 2020 ). Gegenüber allen naiven Versuchen, sie aus der Laienperspektive zu kritisieren, sei darauf hingewiesen, dass Veröffentlichungen in internationalen Fachzeitschriften immer ein strenges Auswahlverfahren ( peer review ) zu durchlaufen haben. Die Studie belegt an einer großen Zahl von Probanden, dass Sars-Cov-2 in seiner Gefährlichkeit nur der eines alltäglichen Coronavirus entspricht, von denen gegenwärtig in Europa und auch in Deutschland ein knappes halbes Dutzend aktiv ist.. Seine Letalitätsrate liegt bei 1,3 %, die der untersuchten normalen Coronaviren bei 0, 8 %, was keinen signifikanten Unterschied darstellt. Eine Letalitätsrate von 1,3 % bedeutet, dass auf 100 000 Infizierte 1300 Tote kommen, eine sehr geringe Anzahl in Anbetracht der in der Öffentlichkeit kolportierten und von der Politik erwarteten Opferzahlen. Dabei ist diese Zahl nicht bereinigt, d.h. sie umfasst auch die sehr große Zahl derjenigen, die nicht „an“, sondern nur „mit“ Corona verstorben sind.

Es ist Aufgabe des auf Epidemien spezialisierten RKI, die einschlägigen nationalen und internationalen Publikationen im Auge zu haben, und zwar gerade im Vorfeld einer für die Grundrechtsausübung in Deutschland so bedeutsamen Entscheidung wie die des Shutdown. Es hätte dann unverzüglich die Bundesregierung informieren müssen und diese hätte auf den Shutdown verzichten, zumindest die Entscheidung aussetzen müssen. Ein „Beurteilungsspielraum“ oder besser: eine Einschätzungspärogative, stand dem den Shutdownbeschluss umsetzenden Verordnungsgeber angesichts der beispiellosen Schwere des Grundrechtseingriffs und der Eindeutigkeit des Forschungsergebnisses nicht zu.

3. Die Kurve der täglichen Neudiagnosen

Der Hannoveraner Ökonom Stefan Homburg hat in einer sehr professionellen statistischen Operation anhand der Daten der Johns-Hopkins-Universität zu den täglichen Corona-Neudiagnosen in Deutschland eine Kurve erstellt. die vom 2. März an deutlich ansteigt bis zu ihrem Peak um den 30. März herum, um dann bis zum 27. April.fast ebenso deutlich zu fallen ( siehe die Graphik ). Diese Daten eilen freilich dem realen Infektionsgeschehen voraus, denn nach Schätzung des RKI dauert es von der Infektion bis zur offiziellen Registrierung durchschnittlich 17 Tage. Das bedeutet, dass der Peak bereits am 13. März lag. Zu diesem Zeitpunkt waren Großveranstaltungen bereits verboten worden (9. März), die Schulschließungen (16. März) und vor allem der Shutdownbeschluss (23. März) folgten erst deutlich später. Beide Maßnahmen können den Abstieg vom Peak mit 7000 täglichen Neudiagnosen auf nur noch 1500 Ende April nicht verursacht haben, eine gewisse Wirkung dürfte das Verbot von Großveranstaltungen gehabt haben. Der Abstieg vom Peak erfolgte vielmehr gemäß der inhärenten Dynamik des Epidemieverlaufs, der Shutdown war dazu nicht erforderlich. Auch in Staaten wie Südkorea, Schweden und Taiwan, die auf Shutdowns verzichtet haben, zeigte sich der für Epidemien typische Verlauf einer schnell ansteigenden und dann rasch abfallenden Kurve. Zu einer exponentiell anwachsenden Viruswelle kam es nirgends (Homburg 2020).

Aus dem Gesagten folgt in verfassungsrechtlicher Hinsicht, dass der Shutdownbeschluss vom 23. März nicht erforderlich i.S. des Verhältnismäßigkeitsgrundsatzes war. Die Daten des RKI, das seit Anfang Mai plötzlich ebenfalls die Zahlen der täglichen Neudiagnosen zeigt, belegen, dass der Abstieg weitergegangen ist und sich seit Anfang Mai um die Zahl 900 eingependelt hat. Die z.T. künstlich in Deutschland geschürten Befürchtungen einer „zweiten Welle“ sind irreal, hierzulande hat es in den letzten 100 Jahren bei keiner Infektionswelle ein derartiges Phänomen gegeben ( Bhakdi 2020 a ).

4. Der Vergleich mit der Grippewelle 2017 / 2018

Ein weiteres Argument gegen die allerorten, vor allem von der Politik, vorgebrachte Auffassung, der Shutdown sei zur Verhinderung der Überlastung der Krankenhäuser und zum Schutz des Lebens vieler erforderlich gewesen, ist praktischer Natur. Die Grippewelle im Winter 2017/2018 verursachte 25 000 Tote in Deutschland. Das führte aber zu keiner Zeit zu einer öffentlichen Erregung oder zu Forderungen nach einer staatlichen Reaktion. Eine solche ist auch nicht erfolgt. Nach Sucharit Bhakdi war dieser Grippeerreger um ein Vielfaches gefährlicher als Sars-Cov-2 (Bhakdi 2020). Die Frage stellt sich, warum war damals eine staatliche Reaktion auf die tausendfachen Todesfälle nicht erforderlich, in der gegenwärtigen Situation mit viel geringeren Opferzahlen aber ja. Die Antwort kann nur lauten, die vor knapp zwei Monaten erfolgte staatliche Brachialreaktion war ebenfalls nicht erforderlich.

Warum diese unglaublich heftige staatliche Reaktion auf das Coronavirus? Sachliche Gründe dafür gab es, wie gezeigt, nicht. Ich vermute, dass es eine Mischung aus Panik ( angestachelt durch gewisse Virologen, vor allem das Robert Koch Institut ), Herdentrieb (angesichts der Vielzahl von brachial gegen das Coronavirus vorgehender Staaten) und (gleichsam immanentem ) narzistischem Regulierungsdrang der politischen Elite war.

Aus den Argumenten folgt, dass die Brachialmaßnahme des Shutdown nicht erforderlich war, um eine Umkehr des Infektionsgeschehens zu erreichen. Mit der Verneinung der Erforderlichkeit ist die Erörterung der Zweck/Mittel-Proportionalität als des dritten Erfordernisses des Verhältnismäßigkeitsgrundsatzess entbehrlich. Der Shutdownbeschluss vom 23 März 2020 ist verfassungswidrig.

Formalrechtlich erfolgte der Beschluss als Rechtsverordnung des Bundesgesundheitsministers gem. der Ermächtigung im neuen § 5 Abs. 2 des Infektionsschutzgesetzes. Die Länder haben eigene Coronaverordnungen erlassen. Grundsätzlich verfügt der Verordnungsgeber (ähnlich wie der Gesetzgeber) über eine Einschätzungsprärogative bezüglich der Gefährdungslage und der Art der zu ergreifenden Maßnahmen, welche der Richter zu respektieren hat. Im Fall eines derart intensiven Grundrechtseingriffs wie des Shutdown allerdings ist die Einschätzungsprärogative auf Null geschrumpft und die richterliche Kontrolle wird zur Vollkontrolle. Die Bewertung der eben vorgebrachten Argumente gegen die Verfassungsmäßigkeit des Shutdown obliegt daher allein dem Gericht. Geht alles mit rechten Dingen zu, müsste es ebenfalls zum Verdikt der Verfassungswidrigkeit kommen.

Der Grundrechtsverstoß kann von jedem selbst, unmittelbar und gegenwärtig von den staatlichen Maßnahmen Betroffenen im Wege der Verfassungsbeschwerde gemäß Art.93 Abs.1 Nr. 4 a GG geltend gemacht werden, über die das BVerfG im Wege der sog. Vorabentscheidung gem § 90 Abs. 2 S.2 BVerfGG vor Erschöpfung des Rechtswegs entscheiden kann. Da die Coronaverordnungen, z.B. die Hotelschließungen, keines Vollzugsaktes bedurften, ist das Erfordernis der unmittelbaren Betroffenheit gegeben, solange das Verbot besteht. Das Problem ist, dass das BVerfG frei ist in seiner Annahmeentscheidung und eine Ablehnung der Verfassungsbeschwerde nicht zu begründen braucht. Die Brisanz einer Entscheidung des BVerfG, welche einer Verfassungsbeschwerde gegen eine zentrale Maßnahme des Shutdown stattgibt, liegt auf der Hand. Das könnte das Gericht zu einer Verweigerung der Annahme verleiten. Als weiterer Rechtsweg gegen die Coronaverordnungen bliebe dann nur das Normenkontrollverfahren nach § 47 VwGo vor dem OVG.

5. Der Shutdownverlängerungsbeschluss vom 15. April 2020 und die Heinsbergstudie

Wir kommen nun zur verfassungsrechlichen Prüfung des Shutdownverlängerungsbeschlusses vom 15. April. Der Verlängerungsbeschluss vom 15. April brachte nur zögerliche Lockerungen. Vor allem kleinere Geschäfte, Autohäuser, Buchläden und Frisöre durften wieder öffnen, für die Schulen gab es partielle Lockerungen. Wie es sich für einen föderalen Staat gehört, wurden diese Erleichterungen in den Bundesländern durchaus unterschiedlich umgesetzt. Beibehalten am 15. April aber wurde das grundsätzliche Kontaktverbot. Geschlossen blieben Geschäfte ab einer Verkaufsfläche von 800 qm, alle Hotels und Restaurants so­wie die Kitas, wobei es auch hier zu föderalen Abweichungen kam.

Da der Verlängerungsbeschluss grundsätzlich die Restriktionen des Erstbeschlusses beibehalten hat, gelten alle eben gegen diesen vorgebrachten verfassungsrechtlichen Argumente ebenfalls. Der Fall des Verlängerungsbeschlusses hat aber ein Spezifikum insofern, als die Veröffentlichung wissenschaftlicher Ergebnisse von durchaus verfassungsrechtlicher Bedeutung unmittelbar vorausgegangen war.

Eine Anfang April von einer Forschergruppe um den Bonner Virologen Hendrik Streeck erhobene repräsentative Stichprobe mit 1.000 Probanden in der nordrhein-westfälischen Gemeinde Gangelt im Kreis Heinsberg hatte nämlich als Zwischenergebnis nach der Untersuchung von 500 Probanden die äußerst geringe Letalitätsrate von 0,37 % der Infizierten er­bracht, wie auf einer Pressekonferenz am 9. April in Anwesenheit von NRW-MP Armin Laschet von Streeck mitgeteilt wurde. Diese Letalitätsrate von 0,37 %, welche das Ergebnis der französischen Studie noch weit unterschreitet, wurde von Streeck Anfang Mai in seinem Endbericht bestätigt. Das wären 370 Tote auf 100.000 In­fizierte und 740 Tote auf 200 000 Infizierte, wobei die Infiziertenzahl in Deutschland gegenwärtig (Mitte Mai) ungefähr 170 000 beträgt. Diese Zahlen weisen SARS-CoV-2 als ein weitgehend harmloses Virus aus. Hinzu kommt, dass die weit überwiegende Zahl der Toten keine „an“ Corona gestorbene Toten sind. Sucharit Bhakdi berichtet von einer amtlichen Zählung der italienischen Regierung, nach der nur 12 % der sog. Coronatoten tatsächlich „an“ dem Virus gestorben waren (Bhakdi 2020 a) – eine Zahl, die in den deutschen Medien nie auftauchte und die der Zählung des Hamburger Rechtsmediziners Klaus Püschel von Null „echten“ Coronatoten nahe kommt.

Im Endergebnis heißt das, dass in Deutschland bei 170 000 Infizierten die Zahl der „echten“ Coronatoten bei unter 100 liegt. Angesichts dieser unglaublich niedrigen Zahl ist evident, dass die deutsche Coronapolitik mit all ihren rigiden Einschränkungen, ihrem großen sozialen, die berufliche Existenzvernichtung einschließenden Leid, ihren erheblichen gesundheitlichen Schäden infolge unterlassener Operationen und Behandlungen und ihren exorbitanten Kosten für Staat und Gesellschaft außerhalb jeder Erforderlichkeit liegt und auch jede Form von Zweck/Mittel-Proportionalität sprengt und damit verfassungswidrig ist. Wer sagt, auch bei 100 Toten sei jeder Tote einer zu viel und der Staat zu jeder Anstrengung verpflichtet, den Tod zu vermeiden, der sei daran erinnert, wie ungerührt Öffentlichkeit und Staat die 25 000 Grippetote im Winter 2017 / 2018 hingenommen haben

6. Zum Abschluss: der Blick aus der Vogelperspektive nach John Ioannidis und Sucharit Bhakdi

John Joannidis lehrt an der amerikanischen Eliteuniversität Stanford und ist einer der meist zitierten Wissenschaftler der Welt, sein Spezialgebiet ist die sog. Metaforschung (das ist die kritische wissenschaftliche Begutachtung der Methoden und Ergebnisse der vorliegenden Forschung ). Zum 4, April 2020 hat er eine Studie vorgelegt, nach der gemäß amtlicher Zahlen bei den Jahrgängen 80 und älter unter 10 000 Personen in Deutschland 2 Coronatote, in Schweden 4 und in Italien 17 Coronatote zu verzeichnen waren ( vgl. die folgende Graphik ).

Die Graphik erfasst nur die Menschen von 80 Jahren und älter, weil unter dieser Altersgrenze zu wenig Todesfälle für eine statistische Erfassung vorlagen.

Nach einer Einschätzung von Sucharit Bhakdi, ebenfalls anhand amtlicher Zahlen je 10 000 Einwohner, hatten sich die Todeszahlen in Deutschland und Schweden bis Ende April vervierfacht, in Italien verdreifacht (auf 8 und 16 bzw 50 Tote). Die untere Graphik zeigt rechts nun für Deutschland die seit langem beobachtbare Verteilung der gegenwärtig 80 Jährigen auf die unterschiedlichen Todesursachen im Rahmen einer Gesamtsterblichkeit von 1200 Todesfällen. An Koronaren Herzkrankheiten ( KHK ) verstarben etwa die Hälfte, an Krebs etwa ein Drittel und an Atemwegserkrankungen etwa 10 %. Links auf der Graphik befinden sich die Balken für die Coronatoten in Deutschland, Schweden und Italien. Sie sind winzig klein im Fall Deutschlands und Schwedens, und sehr klein sogar im Fall Italiens. Dabei ist auch hier in Rechnung zu stellen, dass alle Coronatoten erfasst sind, also auch die nur „mit“ Corona Verstorbenen. Von dieser Zahl dürften etwa nur 12 % echte Coronatote sein.

Der Blick aus der Vogelperspektive löst sich von der isolierten Fixierung auf die Coronazahlen und stellt diese in den Gesamtzusammenhang der Sterbefälle in einem Land. Dadurch tritt die verschwindend geringe Bedeutung der Coronasterbefälle plastisch hervor – mein letztes Argument gegen die Erforderlichkeit des Shutdowns in Deutschland.

Quellenverzeichnis

Bhakdi, Sucharit 2020: Offener Brief an die Bundeskanzlerin, Video vom 29.3.

Ders., 2020 a, bei Punkt.Preradovic, Video vom 25. 4.

Homburg, Stefan 2020: Statistik widerspricht Lockdown, RP ONLINE, vom 27.4.

Roussel, Yanis et al. 2020: SARS-CoV-2: fear versus data, in: International Journal of Antimicrobial Agents, 19 March.

Der Autor war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Universität Hannover und ist seit 2007 im Ruhestand. Er lehrte jahrzehntelang Wirtschaftsverfassungsrecht  an seinem Fachbereich in Hannover.