Die schwierige, nimmer endende Fehlerdiskussion! Oder wie gut sind historische meteorologische Temperaturdaten? Wie wurden sie ermittelt, wie zusammengestellt und wie verarbeitet? (Teil 1)

Teil 2 hier und Teil 3 hier

Mein Beitrag über zwei kleine Anfragen der AfD (hier) zur ungelösten Problematik der absoluten globalen Mitteltemperatur in jüngerer historischer Zeit – die Pariser Klimaübereinkunft bezieht sich sogar auf „Werte vorindustrieller Zeit“ ohne diese auch nur ansatzweise zu beziffern- hat eine große, manchmal hitzige, Diskussion ausgelöst. Mit aktuell 127 Kommentaren und über 3000 Aufrufen (Stand 27.4.20 12:00 Uhr) gehört er sicher zur Klasse der Meistgelesenen. Soweit so gut.
Die z.T. hitzigen Kommentare zeigen m.E.n. aber auch, dass viele Leser mit der zugrunde liegenden, manchmal komplizierten, meteorologischen Messtechnik nicht so vertraut sind, wie sie der Artikel vielleicht voraussetzt. Das hat zur Folge, dass sie nicht auf Anhieb verstehen, warum der Artikel Versäumnisse – gar Falschinformationen-  der Bundesregierung – beanstandet.
Sie vertrauen dabei auf ihre eigenen, oft in wissenschaftlicher Arbeit gemachten Erfahrungen aus eigener Anwendung der Messtechnik und ihrer Behandlung von Messdaten. Diese stimmen aber – so meine eigene Erfahrung – wenig bis nicht mit den hier angewendeten Methoden und Verfahren, insbesondere bei der Erstellung und Bewertung von Zeitreihen, überein. Und sind deshalb in ihrer Schlichtheit selten auf diese Messdaten anzuwenden.
Dies voraus geschickt will ich die Leser jetzt ein wenig in die meteorologische Messtechnik von Temperaturdaten und deren Auswertung einführen. Dabei sollen die alten wissenschaftlichen Grundsätze gelten, klassifiziere erst und vergleiche dann, aber vergleiche immer nur Vergleichbares.
Zunächst schauen wir uns an, wie, wo, wann und wie oft die historischen Temperaturdaten gemessen und vorverarbeitet wurden.
Dann werden wir uns die Bildung von Anomalien aus diesen bereits vorverarbeiteten Daten und die sich daraus ergebenden Besonderheiten anschauen und zum Schluss die Bildung von Zeitreihen, und wie diese auf Fehlerkompensation bzw. Nichtkompensation Einfluss nehmen.

Was nicht behandelt wird.

Gänzlich außen vor lassen wir hier den magischen Trick der Klimaforscher, aus bekannten absoluten Unsicherheiten der Messwerte durch Bildung von Anomalien aus vielen Temperaturdaten statistische Wahrscheinlichkeiten werden zu lassen, die sich mit der bekannten Wahrscheinlichkeitsverteilung der Normalverteilung über ein oder zwei Sigma berechnen ließen. Darüber hat Kip Hansen eine sehr eindrückliche Kritik geschrieben. Sie finden Sie hier unter dem Titel„Der „Trick“ anomaler Temperatur-Anomalien
Weil es das Thema viel zu weit ausdehnen würde, lassen wir auch die merkwürdige Behauptung des Stammvaters aller Klimaängste, James Hansen außen vor, der in einem paper zusammen mit seinem Kollegen Lebedeff 1987[2] behauptet, es wäre möglich auch mit einer sehr geringen Zahl von ca. 80 Gitterzellen gleicher Fläche von 2500 x 2500 km  die Temperaturentwicklung der gesamten Erde zu bestimmen. Und dies obwohl in den meisten Zellen nur sehr wenige, in anderen überhaupt keine Messstationen vorhanden waren. Dieser Artikel war die Grundlage und ist es noch heute, für die Behauptung, dass die Anomalienbildung und deren Korrelation über große Flächen hinweg aussagefähig für die Temperaturentwicklung sehr große Flächen seien. Diese Idee, die jeder Korrelations- und Fehlerrechnung widerspricht, wird hier unter dem Titel Von Korrelationen, Trends bei Anomalien! besprochen
Und ebenfalls lassen wir die Erkenntnis von Dresdner Statistikern außen vor, die nachwiesen, dass selbst echt zufällige Fehler, sofern sie sich in Daten finden, die für autokorreliert sind und in entsprechenden Zeitreihen verwendet werden, systematische Komponenten in der Größe von einigen Zehntel Grad entwickelten. Details dazu finden Sie im Artikel mit dem Titel „Konfidenz-Intervalle* für zeitliche Mittelwerte bei langfristigen Korrelationen: eine Fallstudie zu Anomalien der Temperatur auf der Erde
Am Schluss der Vorbemerkung erlaube ich mir noch den Hinweis auf die Tatsache, dass mit der Bildung von raum- und zeitüberspannenden Durchschnittswerten, die darin enthaltenen Temperaturwerte ihre physikalische Bedeutung als Temperatur verlieren. Es entsteht stattdessen irgendeine Art von Index. Er ist für statistische Zwecke begrenzt brauchbar, wenn man die Randbedingungen beachtet, aber keine physikalische energetisch relevante Größe mehr. Wer dazu genaueres wissen möchte, der sei auf den schöne Beitrag von C. Essex und R. McKittrick von 2006 verwiesen mit dem schönen Titel „Does A Global Mean Temperature exist“[3]
 

Wie, wo und wann wurden die historischen meteorologischen Messdaten gewonnen?

  1. Thermometer

Am Anfang stand und steht das Thermometer. Dabei ist es zunächst egal, ob es ein mechanisches oder ein elektronisches ist, obwohl jede Art einen erheblichen Einfluss auf die (systematischen) Fehler hat, natürlich auch auf die erzielbare Genauigkeit.

  1. Messumgebung

Doch mindestens ebenso wichtig ist die Messumgebung. Diese wird bestimmt durch das Gehäuse (Messhütte), welches das Thermometer vor verfälschenden Umgebungseinflüssen, wie Strahlung, Wind oder Niederschlag aber auch Beschädigung schützen soll, aber auch in starkem Maße von der unmittelbaren Umgebung. Um vergleichbare Ergebnisse wenigstens annähernd zu erreichen, muss dies bestimmten überall vergleichbaren Standards genügen und sorgfältig gebaut und gepflegt werden.

  1. Messregime

Und auch das Messregime ist von entscheidender Bedeutung, nämlich wann und wie oft, von wem und wie das Thermometer abgelesen wird.

  1. Die geografische und zeitliche Abdeckung

Und da das Wetter- wie das Klimageschehen nicht an nationalen Grenzen haltmacht, muss die geografische Abdeckung mit Messstationen gesichert sein, und das sowohl nach Zahl als auch nach Ort und Zeit. Alle drei Anforderungen werden erst seit dem Aufkommen der Satelliten hinreichend erfüllt. Dabei tauscht man die Vorzüge der Satellitenmessung gegen einen enormen Nachteil ein, denn man musste einen unangenehmen Kompromiss akzeptieren. Es ist die sehr schlechte vertikalen Auflösung. Eine Satellitenmessung ist daher immer der Mittelwert von Temperaturänderung über eine Distanz von ca. 5000 m. (z.B. der lower troposphere)

  1. Was geschieht mit den meteorologischen Messdaten? Die Weiterverarbeitung!

Bis zur „Erfindung“ der Idee von der Notwendigkeit einer weltweiten Mitteltemperatur, gab es nur wenige Meteorologen, die die vorhandenen Messdaten nutzen wollten, um evtl. aus ihnen eine weltweite Mitteltemperatur zu extrahieren. Man begnügte sich damit – nachdem solche großartigen Wissenschaftler der Meteorologie wie Köppen die Definition von Klimazonen etabliert hatten- für diese Klimazonen oder Regionen Mitteltemperaturen und deren Jahresgänge zu berechnen. Normalerweise dienten die meteorologischen Messdaten aber vor allem der örtlichen Wettervorhersage und bez. ihrer Langzeit-Analyse auch dazu ggf. lokale Klimaänderungen im Nachhinein zu erkennen.
Anmerkung: Achten Sie mal auf die örtlichen Wetterberichte, dort wird man ihnen so gut wie nie die erwartetet Durchschnittstemperatur der nächsten Tage nennen, sondern ausschließlich deren Maxima und Minimawerte.
Dazu erstellte man Zeitreihen (hier Temperatur-Ganglinien) entweder aus absoluten Werten oder von Anomalien je nach Bedarf, deren erzielbare Genauigkeit für die gewünschten Zwecke völlig ausreichte.
 

Zu 1. Thermometer


Abbildung 1 zeigt eine klassische, deutsche Wetterhütte (erweiterter Stevenson Screen) und (rechts) ein darin befindliches modernes Thermometerensemble gezeigt,  wie es immer noch in vielfältiger Vewendung ist. Die senkrechten Thermometer sind (links) das Assmansche Aspirationthermometer zur Temperaturmessung, rechts daneben ein befeuchtetes und belüftetes Psychrometer zur Messung der Luftfeuchte. Quer darunter befinden sich zwei liegende Thermometer zur Messung von Max. und Min. Temperaturen. Die runde Plastiktrommel enthält den Federmotor mit Ventilator zur Erzeugung des Luftstromes mit Ø 2,5 m/s vor und während der Messung. Im März 2009 vom Autor im Metereologischen Institut der Freien Universität Berlin aufgenommen
Obwohl schon Galileo erste Versuche unternahm mit einem Thermometer meteorologische Messungen zu machen, und sich danach ein ziemlicher Wildwuchs an solchen Thermometer ausbreitete, weil viele Landesfürsten die aufkommende Meteorologie aus naheliegenden Gründen für äußerst wichtig hielten, kann man erst ab 1892 von einem Standardinstrument für meteorologische Zwecke sprechen. Es handelt sich dabei um das zwangsbelüftete Assmansche (Quecksilber gefüllte) Aspirationsthermometer (linkes, senkrechtes Thermometer). Die zuvor verwendeten tlw. mit Alkohol gefüllten Thermometer mit mehr als ± 1 Kelvin Gesamt-Unsicherheit wurden nach und nach weltweit ersetzt. In den angelsächsisch orientierten tlw. auch regierten Ländern setzte sich hingegen oft zusätzlich das Max-Min-Thermometer durch.
Doch allein die Wahl des Thermometers, sein jeweiliger Zustand, seine Montage, sein Betrieb und seine Ablesung sorgen für eine ganze Reihe von zufälligen wie systematischen Fehlern. Diese wurden vielfach sorgfältig untersucht, aber nur in geringer Anzahl auch quantitativ bestimmt und damit überhaupt erst theoretisch korrigierbar.
 

Zu 2. Messumgebung

Für die Messumgebung war von Anfang an klar, dass dieses zuallerst eine Art Schutzhütte sein sollte, von denen besonders im 19 Jahrhundert eine ganze Reihe von Konstruktionen erprobt wurden, wobei sich letztendlich die erweiterte englische Hütte als Standard durchsetzte. Doch bis dahin waren die (wenigen) Messergebnisse praktisch unvergleichbar, weil die Hütte auf ihre eigene Art die Messergebnisse beeinflusste.

Abbildung 2 Darstellung der zum Ende des 19. Jahrhunderts und bis heute verwendeten Hüttentypen bzw. Screens von links: französische Hütte, daneben (kaum erkennbar)  Mitarbeiter zum Größenvergleich, daneben (Original) Stevenson Hütte, dann Wildsche Hütte, dann mehrere erweiterte Stevenson Hütten und moderne runde kleine Screens. (Quellen. Linkes Bild [Sprung, 1890] rechtes Bild: KNMI Messfeld von van der Meulen  für die Zeit von  1989-1995)
Praktisch unkorrigiert, obwohl seit langem bekannt, ist der systematische Fehler, der allein durch die Wärmeträgheit der Hütte entsteht, und der ca + 1 bis 2 Kelvin zu jedem Ergebnis der eigentlich gesuchten Außentemperatur hinzuaddiert. Praktischerweise definieren jedoch die Meteorologen die Temperatur in der Hütte[4], als die gesuchte Außentemperatur. Woraus geschlossen werden muss, dass jede durch diese Messungen gewonnene absolute Temperatur im Mittel im 1 bis 1,5 Kelvin gegenüber der wahren Außentemperatur zu hoch sein muss.

Abbildung 3(links): Englische Hütte und moderne Messstation am Messort Detroit Lakes USA, kurz vorher aufgenommen und ins Netz gestellt am 25.07.07 von A. Watts; (rechts) Temperaturverlauf aus der GISS Datenbank zur Messstelle Detroit Lakes USA
Beispiel für den Zustand und Umgebung einer meteorologische US Messstation sowie deren Zeitreihe ihrer Jahresmittelwerte, die vom Projektteam untersucht wurde. Man beachte den Sprung ab etwa dem Jahr 2000 und die Entlüftungen der Klimaanlagen in unmittelbarer Nähe.
Nicht weniger Einfluss hat die unmittelbare Umgebung in der die Messhütte.
Zur Klärung dieses Sachverhaltes hat sich der Meteorologe und Betreiber des inzwischen weltweit erfolgreichsten Klimarealisten- Blogs Wattsupwiththat Antony Watts große Meriten erworben. Er rief 2007 das SurfaceStationorg. Netzwerk ins Leben, das 2009 erfolgreich mit einer Veröffentlichung [5]abgeschlossen wurde. Freiwillige im ganzen Land untersuchten über 850 der 1200 meteorologischen Messstationen, die von der US-Wetter- und Ozeanbehörde NOAA betrieben wurden.

Abbildung 4 Untersuchung von bisher (Ende Februar 2009) 854 von 1221 offiziell verwendeten Messstationen der unterschiedlichsten Art. Man beachte, dass nur 3 % aller Stationen dem Standard voll entsprechen,  weitere 8 % können evtl. noch als dem Standard genügend zugeordnet werden. Die restlichen 89 % zeigen jedoch potentielle Abweichungen nach den Vorgaben der CRN von mindestens 1 °C (20 %) über 2 °C ( 58% ) bis 5 °C (11%).
Auswertung der Überprüfung von 807 US Messstationen in Bezug auf die offizielle Einstufung ihrer Qualität und Umgebung (CRN).
Das Ergebnis war erschreckend. Der Zustand der Messstationen und damit die Messergebnisse waren miserabel. 89 % von ihnen lagen oberhalb der Fehlerklasse 2, was bedeutet, dass sie > 2 ° C bis > 5 °C fehlerhafte Ergebnisse zeigten. Nur 3 % lagen gleich oder unterhalb von 1 °C. Und noch schlimmer war, dass diese Stationen für die gesamte Welt sozusagen als Goldstandard in Punkto Qualität galten. D.h. die vom IPCC und ihren Zuarbeitern immer wieder herangezogenen Daten aus den anderen Kontinenten waren mit hoher Wahrscheinlichkeit noch schlechter.
Es würde hier zu weit gehen, die vielfältigen Fehlerquellen allein der landbasierten Messstationen aufzulisten, daher beschränke ich mich auf zwei kurze Ergänzungen.

  1. Selbst bei identischer Konstruktion von Hütte und Messinstrument, ergeben sich große Unterschiede allein durch das Material und seinen Anstrich, bzw. dessen Veränderung über der Zeit, z.B. durch Alterung
  2. Sind die landbasierten Messungen schon oft mit mehr (systematischen) Fehlern behaftet als ein Hund Flöhe hat, so ist das bei den seegestützten Messungen noch weit schlimmer. Und weil das Land nur 29 % der Erdoberfläche bedeckt, aber 71 % der Erde Ozeane sind, ist dieser Umstand eigentlich noch schlimmer. Denn dort sind die Messungen wirklich nur punktuell, d.h. äußerst selten sowohl in räumlicher als auch in zeitlicher Hinsicht. Ein wenig wird dieser Mangel gelindert durch die Tatsache, dass statt der eigentlich gesuchten Lufttemperatur, stattdessen, als Proxy, die Temperatur der Seewasser Oberfläche (SST Sea Water Surface Temperature) verwendet wird. Wegen der großen Wärmeträgheit und guten -Leitfähigkeit des Wassers deckt ein Messpunkt im Vergleich zum Land viel größere Gebiete ab.

Wer Interesse daran hat, diese Fehler etwas genauer behandelt zu sehen, der sei auf das Video „Wie glaubwürdig sind die Zeitreihen historischer Klimadaten“ (hier) verwiesen, dass einige der wichtigsten Aspekte zu diesen Fehlern aufzeigt.
Ende Teil 1
[1] https://www.wsj.com/articles/SB10001424052970204422404576594872796327348#printMode
[2] HANSEN, JAMES LEBEDEFF, SERGEJ (1987) Global Trends of Measured Surface Air Temperature. JOURNAL OF GEOPHYSICAL RESEARCH 92:13345 13372.
[3] Essex, C, Mc Kittrick, R. Andresen, B. (2006) Does A Global Temperature Exist? Non-Equilibrium Thermodynamics
[4] Weischet [Weischet, 1995] S115 – S 109 ff
[5]  Is the U.S. Surface Temperature Record Reliable?  By Antony Watts SurfaceStations.org ISBN 13: 978-1-934791-29-5
Für alle, die diese Information am Stück lesen wollen hier das Ganze als pdf Die schwierige nimmer endende Fehlerdiskussion




Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Hackschnitzel! Ich sage nur: Hackschnitzel werden die Welt retten. Das ist die Quintessenz der Rede von Mr. Bill McKibben. Der ist Umweltaktivist und Buchautor, schreibt Bücher über die globale Erwärmung, »End of Nature« und andere Katastrophen, ist also so etwas wie der amerikanische Franz Alt, nur noch viel lauter. Während Franz Alt einst Chinagras als Rettung der Welt propagierte und daran verdienen wollte, predigt McKibben bei der Einweihung eines holzbefeuerten Kraftwerks am Middlebury College in Vermont eben Hackschnitzel.
»Es ist unglaublich schön, sich den Hackschnitzelbunker anzusehen. Alles, was brennt, können wir dort hineinwerfen! Das zeigt, dass dies überall passieren könnte, überall passieren sollte und überall passieren muss!«
Zu sehen sind diese Szenen in dem neuesten Werk »Planet of the Humans« des amerikanischen Dokumentarfilmers Michael Moore, welches er gerade zum »Tag der Erde« auf Youtube gestellt hat.

Die Ikone der amerikanischen Grünen und Lefties schaut sich die Hinterlassenschaften der Green Energy Industrie an. Die erschrecken ihn – erstaunlicherweise.

Beispiel Daggett, California: Hier sieht er kilometerweit nur Schrott und Müll. Die Reste des einstigen Traums von ach so umweltfreundlichen Solarkraftwerken. Mit »SEGS« begann es, mit«Solar Electric Generating Systems«, neun thermischen Sonnenwärmekraftwerken. Wo? Natürlich im grünen Kalifornien.
Heute steht unter anderem in der Mojave-Wüste das Solarkraftwerk Ivanpah. Tausende von Spiegeln konzentrieren Sonnenlicht in einen Turm und erhitzen dort eine Salzlösung, die die Wärme zu einem Kraftwerk weiterleitet. Die Sprüche und Ankündigungen zu solchen »grünen« Projekten und weltbeglückenden Visionen sind immer lautstark. »Das wird die größte Solarfarm in der Welt«, zitiert Moore den damaligen Gouverneur von Kalifornien, Arnold Schwarzenegger. Normale Menschen würden in dieser Wüste nur eine tote Landschaft sehen, er aber sehe eine Goldgrube.
500 Jahre alte Yukka-Palmen mussten für die »Goldgrube« geschreddert werden. Hunderte alter Wüstenschildkröten kostete der Bau der Solarfarm das Leben. Denn Wüsten sind nicht tot.
Der Film zeigt sehr trocken die Lügen der angeblich so grünen und erneuerbaren Energie. Man sieht die Gaszuleitung zu dem Solarkraftwerk. Ohne Gas würde die gewaltige Industrieanlage nicht funktionieren. Für das Anfahren des Solarkraftwerkes muss viel Gas verbrannt werden, um die Salzlösung, die die Wärme transportieren soll, aufzuheizen.
Erstaunlicherweise hat das Kraftwerk in seiner Betriebsgenehmigung die Erlaubnis, Stickoxide auszustoßen. Dabei ist es doch scheinbar umweltfreundlich. Das Kraftwerk bezahlt sogar für sogenannte CO2 Zertifikate. Dabei wurde dies als geniale Energiequelle weltweit gepriesen, auch in Spanien, in den Pyrenäen und in Marokko entstanden mit vielen Steuermillionen geförderte Solarkraftwerke, die mit enormem technischen Aufwand das Sonnenlicht zu bündeln versuchten, um wenigstens einigermaßen brauchbare Temperaturen zu erreichen und daraus Strom zu fabrizieren. Zumindest während einiger Stunden am Tag, wenn die Sonne scheint und keine Wolken den Himmel verdecken.
»Ich musste lernen, dass auch Solarpanels nicht ewig halten«, sagt im Film ein Experte auf einer Messe für Energien. Die halten teilweise nur zehn Jahre. Das sei keine magische Energie. »Ich weiß also nicht, ob das die Lösung ist,« lacht er, »und hier helfe ich, die Materialien für Fotovoltaikanlagen zu verkaufen.«
Moore schaut hinter die Batterie-Gigafactory von Tesla inmitten der Wüste von Nevada. Gründer Elon Musk wird nicht müde zu betonen, dass die benötigte Energie ausschließlich von Wind und Sonne kommt. Hinter den Gebäuden allerdings sieht man das Umspannwerk und den Anschluss an das allgemeine Stromnetz.
Er entlarvt die Umweltpropaganda des Computergiganten Apple. »Wir hören nie auf, darüber nachzudenken, was das Beste für den Planeten ist – in allen unseren Fabriken weltweit.« Das ruft laut auf einer der legendären Apple-Konferenzen ausgerechnet Lisa Jackson in die begeistert applaudierende Menge. Jackson war übrigens die ehemalige Leiterin der amerikanischen Umweltbehörde EPA. Apple heuerte sie an.
Moore schneidet die Aussage eines Energieversorgers dagegen, der erzählt, wie Apple immer noch Strom aus ihrem Netz bezieht. Einen solchen Konzerngiganten kann man eben nicht mit Wind- und Sonnenstrom versorgen.
Moore zeigt auch die Profiteure der »Erneuerbaren«, im Fall des Solarkraftwerkes die Koch Brothers, die in ihrem Industrieimperium Guardian Glass Industry die Unmengen an Spiegel hergestellt haben sowie mit den Baustoffen Zement und Stahl kräftig verdient haben.
Man sieht den gewaltigen Materialverbrauch und die gigantischen Flächen, die für die Sonnen- und Windindustrieanlagen benötigt werden. 16 mal mehr Materialien wie Zement, Glas, Beton und Stahl verbrauchen solche Sonnenkollektoranlagen als Kernkraftwerke und erzeugen 300 mal mehr Abfall. Diese Materialien müssen abgebaut und mit hohem Energieaufwand geschmolzen und verarbeitet werden.
Im O-Ton hören wir: »Es wäre besser gewesen, fossile Brennstoffe einfach nur zu verbrennen, anstatt nur so zu tun, als ob. Wir werden im Grunde nur mit einer Lüge gefüttert«.
Moore vergisst jedoch zu sagen, dass dies prinzipbedingt ist. Die Leistungsdichten von Wind und Sonne sind zu gering, um damit nennenswerte Energien für ein Industrieland zu erzeugen. Das hat die Natur passend eingerichtet; würde die Sonne deutlich stärker auf uns herunterbrennen, könnten wir uns nicht mehr auf die Wiese legen, und schon bei einem starken Orkan hält es uns kaum noch auf den Füßen.
Eine weitere Folge des gigantischen Flächenverbrauches der »Erneuerbaren«: Brasilien muss exorbitant große Flächen zerstören und dort Zuckerrohr anbauen, um den sogenannten Biokraftstoff herzustellen. Ethanol aus Zuckerrohr benötigt ungefähr 400 mal mehr Fläche, um die gleiche Energiemenge wie Erdöl zu erzeugen.
McKibben preist im Film Deutschland, dass 80 Prozent seines Stroms aus Sonnenenergie erzeuge. Doch fehlt wieder der zweite Teil der Information, dass damit nur ein Drittel des Stromes erzeugt werde – und das nur dann, wenn der Wind weht und die Sonne scheint. Ohne Kohle und Kernkraftwerke und ohne zusätzliche Hilfslieferungen an Strom aus den Nachbarländern wäre bald Schicht im Schacht. Im Film wird sogar deutlich gesagt: Ohne Speichermöglichkeit kann man nicht auf Strom aus Wind und Sonne zählen. Die gibt es nicht – zumindest in absehbarer Zeit nicht.
Der Filmautor kommt folgerichtig auf die Frage, warum »wir« mit grüner Energie die Umwelt schädigen. Über das »Warum« sinniert und sinniert sehr langatmig: Was treibe Menschen, die sagen, die Umwelt retten zu wollen, sie zu zerstören? Das funktioniere also nicht. Kryptisch deutelt Moore, ob der Wunsch nach Nachhaltigkeit nicht in Wirklichkeit eine Art Wunsch nach Unsterblichkeit sei.
Die malthusianische Antwort, wir seien zu viele auf der Erde, ist zu kurz gesprungen. In der Erde stecken noch schier unerschöpfliche Mengen an Energie. Das Ende des Erdöls jeweils in 25 Jahren wird alle 25 Jahre aufs Neue wiederholt.
Entscheidend sind eher ganz handfeste Fragen, wie man sie in vor-ökologischen Zeiten gestellt hätte. Wie hoch ist die Leistungsdichte der jeweiligen Energie? Nicht umsonst löste Kohle einst die Holzverbrennung ab und rettete damit übrigens die Wälder. Öl und Gas verfügen über noch mehr Energie. In wichtigen Ländern wird die Kernkraft als die Energie mit der größten Leistungsdichte genutzt, nur in Deutschland nicht mehr.
Hierzulande gäbe es ebenfalls genügend Stoff für eine solche Dokumentation: 30.000 Windräder verunstalten Landschaften, die ersten zehntausend sind bereits schrottreif, doch keiner weiß, wohin mit den kritischen Rotorblättern. Auf Millionen von Dächern und auf den Äckern liegen hektarweise Fotozellen, die später als Sondermüll entsorgt werden müssen.
Das nächste Desaster deutet sich schon an. Der Euro 5 Diesel wurde einst steuerlich gefördert, schließlich emittierte er doch weniger CO2 als seine Vorgänger. Grund: Mit glänzend weiterentwickelter Technik nutzt er den Energiegehalt des Treibstoffes besser aus. Doch der wird gerade von den Umweltindustrietrupps unter einem ihrer Hauptakteure, dem derzeitigen Staatssekretär im Bundesumweltministerium, Jochen Flasbarth, zerstört.
Seit einiger Zeit werden Pelletheizungen propagiert und erheblich gefördert. Doch die belasten die Luft mit NO2 in immer stärkerem Masse, sind bereits jetzt – wie das unfreiwillige Corona-Experiment in den Städten gerade zeigt – für die NO2 Werte in den Städten verantwortlich. Wenn die NO2-Grenzwerte weiter abgesenkt werden soll, müssen als Nächstes Pelletheizungen verboten werden.
Da sage noch einer Hackschnitzel.
Der Beitrag erschien zuerst bei TE hier




Antwort – 3 –  auf den Artikel von Justus Lex „Dürfen die das ?“

In Zeiten, wo eine Frau Künast in 1. Instanz als „Stück Scheiße“ oder Frau Weidel als „Nazi-Schlampe“ gerichtlich abgesegnet wurden, nehme ich das mal als „Satire“ hin; stilvoll ist das in meinen Augen nicht.
Auch wie Frau Bahner von ihren Berufskollegen abqualifiziert wurde, war bemerkenswert. Ich persönlich gehe nicht davon aus, dass sie ihr Examen „im Lotto gewonnen“ hat.
Merkwürdig fand ich, dass die eigentliche Frage, nämlich der Schutz unserer Grundrechte, bei den Diskussionsbeiträgen eine nicht so große Rolle gespielt hat.
Laut Tagesschau.de gibt es inzwischen eine neue Entscheidung des sog. Bundesverfassungsgerichtes (siehe Art. 146 GG) zu der Frage, ob das in den diversen Verordnungen zur Corona-Krise enthaltene  Demonstrationsverbot zulässig sei. Zur Erinnerung Art 8 GG:

Grundgesetz für die Bundesrepublik Deutschland
Art 8 

(1) Alle Deutschen haben das Recht, sich ohne Anmeldung oder Erlaubnis friedlich und ohne Waffen zu versammeln.
(2) Für Versammlungen unter freiem Himmel kann dieses Recht durch Gesetz oder auf Grund eines Gesetzes beschränkt werden.

Beides ist ja nach den Corona-Verordnungen verboten. Nun gibt es aber eine neue aktuelle Entscheidung des BVerfG zu den Versammlungsverboten:
Im konkreten Fall hatte die Stadt Gießen zwei Versammlungen verboten, die unter dem Motto „Gesundheit stärken statt Grundrechte schwächen – Schutz vor Viren, nicht vor Menschen“ angemeldet worden waren. Sie sollten heute und morgen in der Innenstadt stattfinden. Der Veranstalter gab an, dass die Zahl der Teilnehmer auf etwa 30 Personen begrenzt werde. Ein ausreichender Abstand zwischen den Teilnehmern werde gewährleistet.
Die Stadt verbot die Demonstrationen. Begründung: Nach der hessischen Corona-Verordnung seien Versammlungen von mehr als zwei Personen, die nicht dem gleichen Hausstand angehören, generell verboten. Der Veranstalter legte Widerspruch ein. Dieser wurde vom hessischen Verwaltungsgerichtshof zurückgewiesen.
Das Bundesverfassungsgericht hob diese Entscheidung nun auf. Die hessische Verordnung enthalte kein generelles Verbot von Versammlungen von mehr als zwei Personen. Vor einem Verbot müssten alle Umstände des Einzelfalls und damit auch die zugesicherten Schutzmaßnahmen hinreichend geprüft werden. Dies sei nicht geschehen. Damit habe die Stadt Gießen den Antragsteller offensichtlich in seinem Grundrecht auf Versammlungsfreiheit verletzt.
Gießen reagierte ganz großherzig umgehend auf die Karlsruher Entscheidung: Die Versammlung sei jetzt zugelassen, sagte Bürgermeister Peter Neidel. Man habe die Kundgebung auf eine Stunde und die Teilnehmerzahl auf maximal 15 begrenzt. – Rache muss sein, kann man da nur feststellen. Wollen doch sehen, wer hier was zu bestimmen hat. Was soll man von solch einem Bürgermeister halten? Ich spare mir den Kommentar.
Ganz spannend ist m.E. ein Interview der Freien Welt mit Dr. Ulrich Vosgerau (https://www.freiewelt.net/interview/die-politik-war-ueberhaupt-nicht-vorbereitet-10080969/) Das ist der Jurist und Staatsrechtler, der trotz des Art. 5 GG quasi über Nacht den zugesagten Lehrstuhl in Münster verloren hat, weil er eine Meinung vertreten hat, die irgendjemanden nicht gefiel. Diese Meinung können Sie nachlesen in seinem Buch: „Die Herrschaft des Unrechts“. Googeln Sie mal den Art. 5. GG:
Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern…. Eine Zensur findet nicht statt.
Aber das kennen wir ja schon von Eva Herman und vielen anderen. Im Art. 5 steht leider nicht, dass man, wenn man seine Meinung frei äußert, u.U. ausgegrenzt wird. In der Schule habe ich mal gelernt, dass dies ein Zeichen von Faschismus sei. Was das erstaunliche ist, dass man dann nie so genau erfährt, wem diese Meinung nicht so gut gefallen hat usw. Und unsere Alt-Parteien beschimpfen ja immer die anderen als Populisten, Faschisten, rechts und bald nur noch rechtsextrem und merken dabei gar nicht, dass diese Aussagen auf sie selbst zurückfallen.
 

Zu dem Interview: 

Frage: Wie gut war oder ist Deutschland auf einen Katastrophenfall wie die Corona-Pandemie vorbereitet?
Ulrich Vosgerau: „Die Politik war überhaupt nicht vorbereitet, obwohl sie es hätte sein müssen.“
Bereits 2012 war die Corona-Epidemie in einer Art Planspiel durchgespielt worden unter Federführung des Robert-Koch-Instituts (RKI). Die Ergebnisse sind dem Deutschen Bundestag vorgelegt worden (Bundestags-Drucksache 17/12051).
Dort findet man die detaillierte Vorhergesage: Eine Variante des Sars-Virus wird Fieber, trockenen Husten und Atemnot auslösen und das Virus stammt von Wildtiermärkten in Südostasien her. Das Szenario von 2012 ging von einem sieben Millionen Toten in Deutschland aus. Seit 2012 wäre sehr viel Zeit gewesen, die Erkenntnisse der Großübung und der Studie zu nutzen, um Vorräte an Schutzkleidung, Atemmasken und Beatmungsgeräten anzulegen und Krankenhausbetten zu vermehren und nicht zu vermindern. Hat man aber nicht gemacht.
Frage: Die Regierungen von Bund und Ländern haben in kurzer Zeit viele bürgerliche Freiheitsrechte eingeschränkt. Das Recht auf Bewegungsfreiheit, Versammlungsfreiheit, wirtschaftliche Betätigung… Können Sie uns erklären, auf welcher verfassungsrechtlichen Grundlage das geschieht?
Ulrich Vosgerau:Das passiert auf gar keiner verfassungsrechtlichen Grundlage, und hier liegt ein wichtiges Problem.
Notstandsgesetze gelten nur für den Verteidigungsfall. Wir haben allenfalls eine „Naturkatastrophe“, und diese rechtfertigt den Einsatz der Bundeswehr im Innern, so wie bei der Hamburger Sturmflut von 1962, aber nicht die Einschränkung von Grundrechten. Denn das besondere Verwaltungsrecht ist kein allgemeines Notstandsrecht. „Das Infektionsschutzgesetz ermächtigt die Behörden, infizierte Personen, die also eine Gefahr für ihre Umwelt darstellen, notfalls auch gegen ihren Willen zeitweise zu internieren. Aber es ist sicher nicht dafür gedacht, lauter gesunde Personen, bei denen bislang keinerlei Indiz, keinerlei Anfangsverdacht auf eine Infektion besteht, auf unabsehbare Zeit aus dem Verkehr zu ziehen.
Einfaches Beispiel: Die Polizei ist ermächtigt, einen betrunkenen Mann, der irgendwo am Abend randaliert, in Gewahrsam zu nehmen, bis er sich wieder beruhigt hat. Man hielt es aber bislang nicht für gerechtfertigt, am Abend einfach allen Männern den Ausgang zu verbieten, damit sie sich gar nicht erst betrinken können.
Frage: Gibt es unter diesen Maßnahmen welche, von denen Sie als Staatsrechtler sagen würden, dass sie verfassungsrechtlich bedenklich sind? „
Die Anwendung des Polizei- und Ordnungsrechts ist kein allgemeines Notstandsrecht, sondern steht immer unter dem Vorbehalt der Verhältnismäßigkeit. D.h., es müsste für jede einzelne Maßnahme sorgfältig abgewogen werden, ob es nicht ein milderes Mittel gibt, also z.B. die Isolierung der Infizierten und die Abschottung der Alten- und Pflegeheime ohne eine generelle Stilllegung der gewerblichen Wirtschaft.  Jeder muss selbst entscheiden, ob er z.B. eine Buchhandlung aufsuchen will oder nicht.
Frage: Wie handlungsfähig ist die Gerichtsbarkeit und die Verfassungsgerichtsbarkeit in dieser Situation? Besteht aus ihrer Sicht noch eine ausreichende rechtliche Kontrolle der Politik? „
Ulrich Vosgerau: Die Rechtsprechung vielen, Anlass zur Sorge; sie wirkt wenig effizient. In den zahlreichen einstweiligen Rechtsschutzverfahren, die bisher schon angestrengt worden sind – gegen Ausweisungen aus norddeutschen Landkreisen bzw. dem Bundesland Mecklenburg-Vorpommern, gegen Ausgehverbote und Verbote von Gottesdiensten, gegen faktische Berufsverbote – haben die Kläger im einstweiligen Rechtsschutz alle verloren, also z.B. sogar in den Fällen, wo Bürger mit Zweitwohnsitz ausgewiesen wurden, was ich nicht für möglich gehalten hätte.
„Dass wir insofern in einem Tollhaus leben, sehen wir etwa am Fall von Monika Maron. Da lebt eine 78jährige Frau – voll und ganz Risikogruppe, sie sollte sich also möglichst in Sicherheit bringen! – auf einem Dorf allein in einem Haus, und die Behörde ordnet aus Infektionsschutzgründen an, dass sie ins überfüllte Berlin zurückkehren soll. Hier in Berlin ist es ja offensichtlich so: die ganzen Neuinfektionen werden wohl zu einem Großteil aus dem Öffentlichen Personennahverkehr kommen, den man nicht stilllegen will bzw. nicht stilllegen kann, und es nützt nichts, den ÖPNV nicht mehr zu benutzen, denn wenn man im Supermarkt ein Brot kaufen will, trifft man auf lauter Menschen, die gerade mit besten Infektionschancen aus der U-Bahn ausgestiegen sind. Das wäre in Mecklenburg anders.“
Ein Staat, der seit dreißig Jahren die ökonomische Globalisierung vorangetrieben hat und u.a. dadurch auch sagenhafte Steuereinnahmen hatte, hätte eben Vorsorge für die Nebenfolgen der Globalisierung treffen müssen – ob das nun die neue Völkerwanderung ist oder das neueste Fledermausvirus aus dem Reich der Mitte. 
Frage: „Derzeit stehen Euro-Bonds unter dem Namen „Corona-Bonds“ wieder auf der Agenda. Inwieweit ist diese Vergemeinschaftung der Schulden mit dem deutschen Grundgesetz und den europäischen Verträgen vereinbar?“
Ulrich Vosgerau: Gar nicht!
Er führt aus, dass wir die Euro-Bonds ja faktisch schon längst haben, nämlich in Gestalt der Anleihenkäufe durch die EZB. In Deutschland sei ja offenbar sogar die SPD gegen „Corona-Bonds“. Das Problem ist nur, dass sich gleichzeitig alle darauf geeinigt zu haben scheinen, dass die Corona-Krise in den überschuldeten Eurostaaten wie Italien aus dem ESM-Mechanismus bezahlt werden soll. Hätten die Italiener sich seit 1992 jemals an den Vertrag von Maastricht gehalten, hätten sie ja die Schulden nicht und könnten selber zu niedrigen Zinsen Geld aufnehmen. Dafür sei der aber auch nicht da!
Ich habe daher in der letzten Zeit einmal zu sondieren versucht, ob Kläger, die etwa schon im Zusammenhang mit der Errichtung des ESM und dann den Anleihekäufen durch die EZB aktiv waren, heute bereit wären, gegen die Zweckentfremdung des ESM-Mechanismus zu klagen, wenn man ihn schon nicht wegbekommt. Aber viele scheinen auch des Klagens müde, der EuGH ist parteiisch, das Bundesverfassungsgericht oft feige und politikhörig. Das hat manchen Kläger entnervt.“

Ergebnis: Es ist also anzunehmen, dass nun eine Klagewelle gegen die Anordnungen der Bundes- und Länderregierungen anrollt, den die vorsichtigen Änderungen dürften gegen eine Reihe von Grundsetzen des Grundgesetzes verstoßen, z.B. den Gleichheitsgrundsatz.




Wikipedia: Manipulationen Orwell‘schen Ausmaßes

Die »Enzyklopädie aus freien Inhalten« ist eine der meist aufgerufenen Webseiten weltweit – jeder kennt sie, jeder nutzt sie. Doch wie steht es wirklich um das Social-Media-Projekt? Wie wahr sind die enthaltenen Informationen, und wie demokratisch geht es zu?
„Wikipedia“ wurde 2001 von dem US-Amerikaner Jimmy Wales gegründet. Dieser hatte zuvor Erfahrungen mit dem „Netz“ gesammelt, indem er eine Porno-Suchmaschine betrieb. 2007 wurde er beim Weltwirtschaftsgipfel in Davos gleichwohl zum „Young Global Leader“ befördert. Zugleich häufen sich seit 2001 die Jubelarien über seine Gründung: Wikipedia – das sei „freies Wissen für alle“, „herrschaftsfreier Diskurs“, „demokratisiertes Wissen“, „Informationspluralismus“, „vergleichbar mit der Erfindung des Buchdrucks und der Dampfmaschine“, „Schwarmintelligenz“. Gar zum „Weltkulturerbe“ wollen manche Enthusiasten Wikipedia befördert wissen.
Über 300 Sprachausgaben gibt es mittlerweile weltweit. Allein in Deutschland hat Wikipedia 2,4 Millionen Artikel produziert – darunter rund 750.000 oft sehr grenzwertige, einseitige Biographien. Das hinterlässt Kollateralschäden: Schüler, Studenten, Diplomanden, Doktoranden, ja sogar Professoren, Politiker, nicht wenige Journalisten, auch solche der sog. Qualitätspresse, der „Normalo-Bürger“ greifen tagtäglich auf Wikipedia zu. Oft aus reiner Bequemlichkeit, oft aus Naivität, nicht selten, weil man sich dort unter politisch, historisch, klimatisch korrekten Gesinnungsgenossen weiß. Und nicht wenige spenden auch – aus Überzeugung oder aus Naivität. Denn Wikipedia gibt sich ja als „nicht kommerzielles“, quasi gemeinnütziges Unternehmen, das ausschließlich von Spenden lebt – wer auch immer diese in die Taschen bekommt. Im Jahr 2017 soll es in Deutschland 359.444 Spender gegeben haben. Ein Spendensiegel des Deutschen Zentralinstituts für soziale Fragen (DZI) hat Wikipedia übrigens nicht.
Die besonders problematische Seite dieser letzten nach dem Printende von Brockhaus, Meyer und Co. verbliebenen „Enzyklopädie“ sind: Framing, Mobbing, Stalking, Diffamierung, Verunglimpfung, Schmähungen, Verleumdung, Fachinformation, Hetzjagden, Rufmord, Vernichtung der beruflichen Existenz, Reputationsmord bis hin zum realen Suizid – auch das hat mit Wikipedia zu tun: es wurde damit vor allem außerhalb der naturwissenschaftlich relevanten Stichworte zur Selektionsplattform. Nur eines von vielen Beispielen: Ausgedruckt umfasst der Eintrag zum Thema „Klimawandel“ 18 Seiten, zum Thema „Leugnung der menschengemachten globalen Erwärmung“ 47 Seiten.Das besonders Problematische ist: Wikipedia operiert quasi im rechtsfreien Raum, genießt de facto rechtliche Immunität, denn es hat in Deutschland keinen rechtsverbindlichen Sitz. Hilfe vonseiten deutscher Staatsanwaltschaften und Gerichte ist kaum zu erwarten. Wer sich mit Wikipedia anlegen will, muss in den USA klagen. Aufwendig und Ausgang ungewiss! Oder er muss deren Autoren (die dort Nutzer heißen) ihrer Anonymität enttarnen und das Visier öffnen, hinter dem sie sich verbergen. Es gibt nämlich keine Klarnamenpflicht. Insofern weiß man nicht, wer hinter einem Artikel, einer Löschung, einer Änderung, einer Manipulation, einer Verleumdung steht. Das macht den Unterschied zur spanischen Inquisition aus, die immerhin öffentlich stattfand. Wikipedia-Inquisitionen dagegen finden hinter verschlossenen Türen statt.
Vor allem weiß man nicht, über welche Expertise die Autoren und die in Deutschland hierarchisch über ihnen stehenden 200 „Administratoren“ und zwölf „Bürokraten“ verfügen. Gelegentlich gelingt es, sie zu enttarnen, und nicht selten erweist sich dann, dass es sich hier um selbstreferentielle Seilschaften, Querulanten, Zu-kurz-Gekommene, oft gescheiterte Studien- und Berufsabbrecher oder Leute mit viel Zeit handelt. Dass solche Leute nicht identifiziert werden wollen, ist klar. Und dass Wikipedia deren Identität schützt, ist auch klar, denn sonst würde man wohl viele, auf ihre Anonymität pochende Autoren verlieren.
Es kommt hinzu: Was für die bundesdeutsche Presse gilt, das gilt auch für Wikipedia – die Autoren neigen in der Mehrzahl zu politischer Schlagseite, denn es findet sich vor allem im Nicht-Naturwissenschaftlichen unverkennbar eine ausgeprägte Sympathie für alles, was links, grün, öko usw. ist und zur Antifa zählt. Gender- und Klima-Lobbys kommen ohnehin bestens weg. Auch der Antisemitismus findet in Wikipedia seinen Nährboden, wird er doch in vermeintlich politisch korrekter Form in „Kritik an Israel“ gekleidet.

Schwarzbuch Wikipedia

Wo all dies bestens belegt und spannend zu lesen ist? In Andreas Mäcklers Sammelband „Schwarzbuch Wikipedia“. Knapp dreißig Beiträge, darunter Interviews, von vierundzwanzig Autoren hat er zusammengetragen. Unter anderem finden sich authentische Darstellungen folgender Persönlichkeiten, die Wikipedia an den Pranger stellte und die teilweise reichlich Streiterfahrungen mit enttarnten Wiki-Schreibern oder vor Gericht hatten: Andreas Mäckler selbst, der Statistikprofessor Walter Krämer, der Psychologieprofessor Harald Walach, der Jurist und vormalige Verfassungsschutzpräsident Thüringens Helmut Roewer, der Theologe und Publizist David Berger sowie der Intelligenzforscher Volkmar Weiss.
Was man gegen dieses Wikipedia-Unwesen tun kann? Erstens sollte man andere Quellen nutzen – allen voran gedruckte; und wenn es denn digitale sein müssen, dann findet man im Anhang des Mäckler-Buches neun Links dazu. Zweitens sollte man nicht spenden. Den Akteuren in Bildungseinrichtungen ist drittens nahezulegen, dass sie sich bei Arbeiten ihrer Schützlinge nicht mit Wikipedia-Belegen begnügen. Viertens wäre es gut (selbst wenn dies ein illusorischer Gedanke ist), es würde sich ein zweites, drittes, viertes Wikipedia gründen oder Wikipedia selbst wäre bereit, auch divergierende Meinungen und Positionen zu veröffentlichen.
Das Mäckler-Buch bietet alles in allem eine Menge Aufklärung im Kant’schen Sinne. Und es ist ein mutiges Buch, mit dem der Herausgeber und so mancher Autor einiges riskieren. Dieses Lob des Rezensenten soll nicht geschmälert werden durch die Kritik an einem der Buchkapitel. Will sagen: Man darf sich als Wikipedia-Kritiker nicht darüber beschweren, wenn man von Wikipedia zu Unrecht verschiedener Verschwörungstheorien beschuldigt wird. Dann sollte es aber auch nicht so sein, dass ein Autor des Mäckler-Buches Wikipedia vorwirft, es habe sich der marktradikalen Theorie eines Friedrich August Hayek und dem militärisch-industriellen Komplex von USA, Großbritannien, Israel, NATO usw. unterworfen – gipfelnd in der Aussage des Mit-Autors Hermann Ploppa, Wikipedianer seien „NATO-Trolle reinsten Wassers.“

Assoziationen

Mutig, aufklärend, lesenswert bleibt das Mäckler-Band zumal. Zudem drängen sich im Zusammenhang mit Wikipedia zwei Assoziationen auf:
Erste Assoziation – sie betrifft diejenigen, die Pranger-Opfer von Wikipedia wurden: Es geht ihnen, weil Wikipedia mit verdecktem Visier operiert, wie der Hauptfigur Josef K. in Franz Kafkas Roman „Der Prozess“ (posthum veröffentlicht 1925). Dort ist gegen den Bankangestellten Josef K. ein Prozess im Gange. Das Gericht agiert im Verborgenen, Josef K. erfährt nicht einmal, was gegen ihn vorliegt. Am Ende wird er hingerichtet.
Zweitens: Nennenswerte Teile von Wikipedia erinnern an George Orwells „Big-Brother“-Regime. Die dort vorkommenden Herdenmenschen werden manipuliert durch ein stets aktualisiertes Wörterbuch der „Neusprache“. An diesem Verzeichnis bastelt der Sprachwissenschaftler Syme. Er sagt zur Hauptfigur des Romans, zu Winston Smith: „Wir geben der Neusprache ihren letzten Schliff … Wir merzen jeden Tag Worte aus … Siehst du denn nicht, dass die Neusprache kein anderes Ziel hat, als die Reichweite der Gedanken zu verkürzen? … Es ist lediglich eine Frage der Wirklichkeitskontrolle. … Die Revolution ist vollzogen, wenn die Sprache geschaffen ist … Es wird überhaupt kein Denken mehr geben … Strenggläubigkeit bedeutet: …. nicht mehr zu denken brauchen.“ Oder – gemäß des Leitspruchs: „Unwissenheit ist Stärke.“ Stärke der Regierenden! Die Folge: Wer nicht politisch korrekt denkt und spricht, wer im Orwell‘schen Sinn ein „Gedankenverbrecher“ ist, wird zur Zielscheibe der „Gedankenpolizei“, er wird der „Herrschaft des Verdachts“ (Hegel), vor allem des Faschismusverdachts unterstellt, oder er wird im Sinne des „Big Brother“ „vaporisiert“, verdampft, das heißt, er findet in der Meinungsbildung nicht mehr statt.
Deswegen hat Winston Smith in George Orwells „1984“ die Aufgabe, Geschichte ständig umzuschreiben, in einem Ministerium für Wahrheit, das schön zweideutig mit „MINIWAHR“ abgekürzt wird.
Der Beitrag erschien zuerst bei TE hier


Andreas Mäckler (Hg.), Schwarzbuch Wikipedia. Mobbing, Diffamierung und Falschinformation in der Online-Enzyklopädie und was jetzt dagegen getan werden muss. Verlag zeitgeist Print & Online, 364 Seiten, 19,90 €




15. April: Tag der teuersten Fehlentscheidung

Die Bundeskanzlerin begründete die Zaghaftigkeit mit „einem bislang zerbrechlichen Erfolg“ gegen die Epidemie und klärte die deutsche Bevölkerung über die Epidemie-Reproduktionszahl R auf, die unversehens wieder auf 1,2 oder 1,3 steigen könnte, wenn wir nicht alle äußerst vorsichtig sind. Dazu gehört, sich weiterhin an die meisten Lockdown Maßnahmen zu halten, und auch längerfristig die Kontaktverbote zu beachten.
Die Frage ist allerdings, ob diese Lockdown-Maßnahmen überhaupt gegen die Epidemie wirken. Falls nicht, dann sind sie erstens nicht notwendig und zweitens ungeeignet, um die Bevölkerung vor einer Ansteckung mit Covid-19 zu beschützen. In meinem Artikel vom 14. April (hier)  habe ich ausgeführt, dass die Lockdown Maßnahmen größtenteils unwirksam und daher weder notwendig noch geeignet sind. Meine Berechnungen wurden seitdem mit neueren Analysen durch die obere Bundesbehörde Robert-Koch-Institut (RKI) bestätigt: die Lockdown-Maßnahmen sind auch laut dem RKI nicht wirkungsvoll.
Der Lockdown besteht aus einem breiten Bündel an Maßnahmen, die zu unterschiedlichen Zeiten verabschiedet wurden. Die wichtigsten Maßnahmen kamen in drei Wellen.
Zuerst kam am 8. März die Empfehlung, keine Großveranstaltungen mit mehr als 1.000 Teilnehmern durchzuführen.
Daraus wurde am 10. März dann ein sofortiges Verbot.
Die zweite Welle kam ab dem 16. März mit Schließung der Bildungseinrichtungen und der meisten Grenzübergänge und einem generellen Veranstaltungsverbot mit mehr als 50 Teilnehmern.
Zwei Tage später am 18. März waren bundesweit sämtliche Geschäfte geschlossen mit Ausnahme von Lebensmittelläden, Apotheken, Tankstellen und ähnlichen essenziellen Versorgungsstationen. Touristische Reisen wurden verboten, sowie alle Kirchen, Sportstätten und Spielplätze wurden geschlossen.
In der dritten Welle, ab dem 22. März wurden dann auch die Restaurants, Cafés, Friseure und andere persönliche Dienstleistungen geschlossen. Gruppen von mehr als 2 Personen wurden verboten, und es gilt seitdem, einen ständigen Abstand von mindestens 1,5 Metern einzuhalten, es sei denn mit Personen aus demselben Haushalt. In Bayern, Sachsen und dem Saarland wurde es zudem generell verboten, das Haus zu verlassen, außer mit einem guten Grund.

Einbruch der Wirtschaft um 40 Prozent

Die drei Wellen kann man jeweils zusammenfassen unter den Begriffen:

  • Verbot Großveranstaltungen ab dem 10. März,
  • Schließung des öffentlichen Lebens ab dem 16. März
  • Kontaktverbote ab dem 22. März.

Die Schätzungen gehen von einem derzeitigen Einbruch der Wirtschaft um 40% aus, ein historischer Wert.
An dem selben 15. April, an dem die Bundeskanzlerin über die Gefahr eines R-Wertes von höher als 1 warnte, hat das RKI sein 17. Epidemiologisches Bulletin veröffentlicht hier, (aktualisiert ab Seite 10) in dem wörtlich steht:

„Die R-Schätzung ergibt für Anfang März Werte im Bereich von R = 3, die danach absinken und sich etwa seit dem 22. März [bis 9. April] um R = 1 stabilisieren….[und] dass der aktuelle R-Wert das reale Geschehen etwas unterschätzt [also das wahre R niedriger als 1 ist].“

Dieser Satz bestätigt, dass die Maßnahmen der zweiten und dritten Welle des Lockdowns keine Wirkung hatten. Das werde ich im Folgenden erläutern.
Dazu ist es notwendig, sich die Abbildung 2 des RKI Bulletin genau anzuschauen. Dort hat das RKI das Erkrankungsdatum mit ersten Symptomen der Covid-19-Patienten rekonstruiert. Die Zahlen zeigen immer mittwochs einen Ausreißer nach oben: dem 18. März, dem 25. März, dem 1. April und dem 8. April. Es ist internationaler wissenschaftlicher Konsens, dass die Symptome der Krankheit meistens 5 Tage nach der Infektion auftreten: Wer sich ab Mittwoch schlecht fühlt, der hat sich folglich am Freitag/Samstag davor infiziert. Weil die Rate des engen sozialen Kontakts am Freitag/Samstag am höchsten ist, erkranken daher die meisten Menschen an einem Mittwoch. Die höchste erreichte Krankenzahl der Epidemie war am 18. März erreicht, danach ging die Anzahl der Erkrankungen pro Tag stetig zurück.
Für die Bemessung der Wirksamkeit der Maßnahmen ist allerdings nicht der absolute Rückgang der Erkrankungszahlen entscheidend, sondern ab wann das R begann, nachhaltig abzuflachen, also ab wann ein Infizierter weniger als drei andere infiziert. Und das passierte bereits Anfang März, wie das RKI selbst in dem Bulletin beschreibt (oben zitiert), also schon zwei Wochen VOR dem Lockdown der zweiten Welle mit ihren Schließungen des öffentlichen Lebens. Es muss daher zwingend schon irgendetwas VOR dieser zweiten Welle des Lockdown zu einer Reduktion der Infektionsrate geführt haben. Die Antwort darauf ist einfach: Erstens haben die Maßnahmen vom 8. März alle Großveranstaltungen abgesagt, und zweitens, schon davor waren mit dem rheinischen Karneval – der teuersten Party der Weltgeschichte – und dem darauf folgenden alpinen Après-Ski die wichtigsten Virus-Drehschleudern Europas von alleine saisonbedingt beendet worden.
Es gibt einen noch deutlicheren Beweis dafür, dass die Maßnahmen der zweiten Welle vom 16. März keine Wirkung hatten. Die Kurve in Abbildung 2 des Bulletins stellt den bundesdeutschen Durchschnitt dar. Es gibt aber vier große Bundesländer, deren Epidemieverläufe 6 Tage früher als der Bundesdurchschnitt liegen: Nordrhein-Westfalen, Rheinland-Pfalz, Hessen und Hamburg. In diesen vier Bundesländern begann die Reproduktionsrate R schon Ende Februar zu sinken und fiel bereits am 10. März auf 1,0 und einen Tag später auf 0,9, wie von mir ausgerechnet wurde, hier. Die Lockdown-Maßnahmen des 16. März wurden erst eine Woche nach dem 10. März verkündet – also konnten sie NICHT die Reduktion der Infektionsraten in diesen vier Bundesländern auslösen und haben auch anschließend KEINE statistisch erkennbare Wirkung mehr auf das Infektionsgeschehen dort gehabt.

Kontaktsperren hinterließen keine messbaren Spuren

Die Abbildungen 2 und 4 des RKI Bulletins bergen eine weitere Erkenntnis, die mindestens genauso gravierend ist, nämlich, dass auch die erhebliche Lockdown-Verschärfung der dritten Welle mit ihren Kontaktverboten ab dem 22. März ebenfalls keine Auswirkung hatte. Die Abbildung 2 zeigt auf den ersten Blick, dass die Krankheitszahlen im bundesdeutschen Durchschnitt mit KONSTANTER Rate vom 18. März bis zum 9. April gefallen sind. Wenn die Maßnahmen vom 22. März eine zusätzliche Wirkung gehabt hätten, dann hätte es 5 Tage später, ab dem 27. März (der durchschnittlichen Dauer bis zu Krankheitssymptomen), eine schnellere Reduktion der Erkrankungen geben müssen, aufgrund eines weiter gesunkenen R. Das ist aber nicht der Fall, das R blieb bis vor kurz Ostern laut der Abbildung 4 bei um die 0,9. (Erst während der Osterfeiertage sank es weiter herunter auf 0,7, wie wir mittlerweile wissen). Die Verschärfung der Maßnahmen am 22. März haben demnach ebenfalls KEINE messbaren Spuren in der Statistik hinterlassen.
Zusammengefasst: In vier großen Bundesländern begann die Epidemie bereits ab Ende Februar von alleine zu verschwinden, weil der Karneval und die alpinen Après-Ski Ferien saisonbedingt beendet waren. Das anschließende Großveranstaltungsverbot vom 8. März hat ein Wiederaufflammen bei Fußballfesten und anderen Festivals verhindert. Die zweite Welle der Maßnahmen ab dem 16. März haben in diesen vier Bundesländern keine weitere Wirkung in der Reduktion der Infektionsraten gehabt. Die beiden südlichen Bundesländer Bayern und Baden-Württemberg führten die alpinen Après-Ski Partys noch fort, und in Bayern fand sogar noch eine Kommunalwahl am 15. März statt. Das Ergebnis war ein erst späteres Abklingen der Epidemie im Süden. In keinem der Bundesländer hat die dritte Welle der Maßnahmen mit den Kontaktverboten ab dem 22. März eine statistisch erkennbare Wirkung gezeigt. Daraus folgt: Um die Infektionszahlen zu verringern, müssen Großveranstaltungen und Partys verboten werden – aber die Schließung des öffentlichen Lebens und Kontaktsperren machen keinen Unterschied in der Infektionsrate.

Schweden und Italien passen ins Bild

In dasselbe Bild passen die Erfahrungen von sowohl Schweden als auch Italien. Schweden hat nur eine erste Welle an Maßnahmen durchgeführt, nämlich alle Veranstaltungen über 50 Personen zu verbieten. Alles weitere ist erlaubt und geöffnet, (wobei Social Distancing empfohlen und praktiziert wird), und dennoch ist auch in Schweden das R bereits unter 1,0 gefallen. Dagegen fällt das R in Italien nicht unter 0,8 – selbst mit dem längsten und schärfsten Lockdown in ganz Europa, während dem die gesamte Bevölkerung seit mittlerweile sechs Wochen in ihre Wohnungen eingesperrt wurde und selbst die Industrieproduktion bis auf das Notwendigste eingestellt wurde. Auch in diesem internationalen Vergleich zeigt sich, dass es ausreicht, Großveranstaltungen zu verbieten, um ein R von unter 1 zu erreichen, aber dass weitere Maßnahmen der Schließung des öffentlichen Lebens und Kontaktverbote keine Wirkung entfalten, das R deutlich weiter zu reduzieren.
Dass die Lockdown-Maßnahmen der zweiten und dritten Welle wirkungslos sind, scheint zunächst widersinnig. Aber die Zahlen lügen nicht. Vielleicht lässt sich das wie folgt erklären. Die Übertragungswege des Corona Virus sind hauptsächlich, vielleicht sogar ausschließlich, die Tröpfchen- und Aerosol-Übertragung aus dem offenen Mund durch Husten, Niesen, Singen, Grölen, Lachen, Schnaufen und vielleicht sogar nur einfaches Sprechen. Ein Infizierter kann stundenlang im öffentlichen Verkehr direkt neben mir sitzen, aber solange er mich nicht anspricht, besteht keine Infektionsgefahr.
Es gibt keinen Hinweis auf Infektionsgeschehen in übervollen Flugzeugen, Bahnen, Bussen, Flughafenterminals oder Bahnhöfen, selbst ohne Mundschutz. Aber nur das Gehen durch eine noch schwebende Atemwolke von einem infizierten keuchenden Jogger, der schon längst nicht mehr zu sehen ist, reicht aus, um mich erkranken zu lassen. Oder vermutlich reicht auch die Atemwolke eines Infizierten, der fünf Meter vor mir schwer schnaufend das Treppenhaus im Mietshaus hochgestiegen ist. In dem ersten Fall sind 30 cm Nähe ungefährlich, und in dem letzteren Fall sind viele Meter Abstand trotzdem infizierend. Das heißt, selbst mit allen Social Distancing Maßnahmen, gibt es trotzdem genügend spontane Neuinfektionen, auch in einer auf das Minimum reduzierten Gesellschaft, die dann anschließend im engeren Familienkreis, bei den unmittelbaren Arbeitskollegen (der wenigen die noch arbeiten können), oder im medizinischen und pflegerischen Personal gleich wieder Dutzende von neuen Infektionsketten entstehen lassen.

Sommerurlaub auf Balkonien 

Was folgt daraus für die weitere Handlungsstrategie im Umgang mit dieser Epidemie? Die erste Folge ist einfach. Solange es weder Herdenimmunität noch Impfstoff gegen Covid-19 gibt, kann es auch keine Großveranstaltungen mehr geben – und entsprechend auch kein dichtgedrängtes Sommerurlaubsgetümmel mit entsprechender Partyszene am Mittelmeer, geschweige denn außerhalb Europas. Der deutsche Sommerurlaub wird weitgehend auf Balkonien oder heimatnahen Fahrradwegen stattfinden.
Die zweite Folge hängt von der Strategie ab, was die Gesellschaft will. Ist die Gesellschaft bereit, den schwedischen Weg zu gehen, eine Herdenimmunität aufzubauen, oder möchte sie lieber den taiwanesischen Weg beschreiten, das Virus möglichst aus der Gesellschaft zu eliminieren, bis es einen Impfstoff gibt? Für keine der beiden Strategien, ist es notwendig, die Lockdown-Maßnahmen der zweiten und dritten Welle aufrechtzuerhalten. Sie sind weder wirkungsvoll noch geeignet.
Für den schwedischen Weg mit dem Ziel einer Herdenimmunität muss ein starker Schutz für die Risikogruppen errichtet werden, also derjenigen, die eine höhere Sterblichkeitsrate bei einer Infektion haben. Ansonsten muss das Infektionsgeschehen nur soweit begrenzt werden, dass das Gesundheitssystem nicht kollabiert. Ein Verbot von Großveranstaltungen scheint dafür zu reichen.
Für den taiwanesischen Weg brauchen wir hochfrequentes Testen, die blitzschnelle Identifikation von möglicherweise Infizierten im öffentlichen Raum durch eine Contact Tracing App und konsequente Quarantäneüberwachung von allen potenziell Infizierten. Keine dieser drei Maßnahmen wird zur Zeit in Deutschland ergriffen. Die Gemüter bewegt stattdessen die Mundschutzpflicht. Aber ob das Tragen vom Mundschutz im öffentlichen Raum Wirkung zeigt, muss sich erst noch erweisen. Vermutlich nicht – denn der allergrößte Teil des Infektionsgeschehen hat schon immer im privaten Raum stattgefunden.

Beweisbar unwirksamen Strategie

Ohne sich entweder für den schwedischen oder für den taiwanesischen Weg zu entscheiden, hat die Bundeskanzlerin am 15. April an einer beweisbar unwirksamen Strategie festgehalten: Schließung des öffentlichen Lebens, Kontaktverbote und gravierende Wirtschaftsrestriktionen. Die Corona Krise hat bereits viele teure Fehlentscheidungen gesehen, zum Beispiel, sich im Januar nicht intensiv mit dem Virus in China zu beschäftigen oder im Februar keine Vorbereitungen für eine Pandemie zu treffen – oder im März sich nicht durch konsequentes Datensammeln eine Entscheidungsgrundlage erarbeitet zu haben.
Die Stopp-Taste am 16. März zu drücken, war deswegen zunächst richtig, denn aufgrund der vorherigen Versäumnisse gab es fast kein relevantes Wissen über das Virus. Aber mittlerweile wissen wir mehr, und die Zahlen sprechen eine zunehmend klare Sprache. In der Rekordjagd nach der teuersten Fehlentscheidung dürfte der 15. April jetzt einen neuen Spitzenwert verbuchen. Es wäre besser gewesen, die Bundeskanzlerin hätte das Bulletin ihrer oberen Bundesbehörde Robert-Koch-Institut vom selben Tag gelesen. Als promovierte Naturwissenschaftlerin kann sie diese Zahlen schließlich selbst verstehen und einordnen.
Der Beitrag erschien zuerst bei ACHGUT hier