Brüssel wurde in einen Skandal gefälschter Buchhaltung hineingezogen…

Die Eurokraten geben ihre Subventionsprämien an die Bauern als Klimaausgaben ab, solange die Bauern ein bestimmtes Maß an Klimastandards erfüllen.

Der Rechnungshof sagte in seinem Bericht, die Kommission habe den Beitrag des aktuellen Haushalts 2014-2020 zur Bekämpfung des Klimawandels überbewertet.

Er warnte davor, dass dasselbe wahrscheinlich auch für den nächsten Siebenjahreszyklus gelten würde.

Die Auditoren sagen:

Unsere Analyse der ländlichen Entwicklungsprogramme der Mitgliedstaaten im selben Bericht zeigte, dass die Kommission deren Beitrag zum Klimaschutz um mehr als 40 Prozent oder fast 24 Milliarden Euro überschätzt.

Dies liegt daran, dass die Kommission nicht ausreichend zwischen den Klimabeiträgen der verschiedenen Aktivitäten unterschieden hatte.

Die Kommission begründete diesen Ansatz mit der Notwendigkeit, ein Gleichgewicht zwischen der Minimierung des Verwaltungsaufwands und der Kosten und der Bereitstellung einer einigermaßen zuverlässigen Schätzung der klimabezogenen Ausgaben im Rahmen des Europäischen Landwirtschaftsfonds für die Entwicklung des ländlichen Raums zu finden“.

Die Rechnungsprüferin des ERH Joelle Elvinger forderte die Kommission auf, robustere Methoden zur Verfolgung ihrer Ausgaben zu entwickeln.

Sie sagte:

Die voraussichtlichen Beiträge zu klimabezogenen Ausgaben, insbesondere aus einigen landwirtschaftlichen Programmen, werden wahrscheinlich zu hoch angesetzt.

Ohne eine robuste Methodik sind die geschätzten Klimaausgaben möglicherweise nicht zuverlässig“.

Es wird erwartet, dass die Agrarausgaben fast die Hälfte der Klimaausgaben aus dem Blockhaushalt 2021-2027 ausmachen werden, der mit insgesamt 1,075 Billionen Euro veranschlagt wurde.

Der ganze Beitrag steht hier.
Link: https://www.thegwpf.com/eu-embroiled-in-e25-billion-bogus-climate-accounting-scandal/
Übersetzt von Chris Frey EIKE




Welt ohne Klimakonferenzen – und sie dreht sich weiter

Vor knapp dreißig Jahren legte das Kyoto-Protokoll den Rahmen für die Senkung  der Emission von Treibhausgasen fest. Seither ist der globale CO2-Ausstoß um 50 Prozent gestiegen – kontinuierlich, Jahr für Jahr. Um das zu verhindern, trafen sich die mächtigsten Männer und Frauen der Welt im gleichen Zeitraum insgesamt 25-mal – ganz offensichtlich mit wenig Erfolg.
Das letzte dieser Treffen fand 2019 in Madrid statt. Immerhin kamen damals 27.000 Personen zu der „COP25“ genannten Tagung. Das folgende Meeting wurde für November 2020 in Glasgow anberaumt, es fällt jedoch Covid-19 zum Opfer. Das Kohlendioxid aber lässt sich von alledem nicht beeindrucken.
Was würden Sie sagen, wenn jemand seit 30 Jahren jedes Frühjahr zu einer aufwändigen Fastenkur ins Sanatorium geht und jedes Mal zwei Kilo zunimmt? Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten (A. Einstein). Entweder ist unser Dickerchen also verrückt oder er trifft sich heimlich mit seiner Freundin. Und so müssen die Anstrengungen der Mächtigen zur Rettung der Welt entweder Wahnsinn sein oder aber ein gigantischer Betrug.
Ein Vertrag für einen Gebrauchtwagen
Schauen wir mal hinter die Kulissen solch einer Konferenz, zum Beispiel der COP15, bei der 2009 in der dänischen Hauptstadt 183 Nationen Versprechungen für ihr Wohlverhalten in Sachen CO2 abgaben. Unter den Teilnehmern fanden sich teils bedeutende, teils schillernde Persönlichkeiten wie Jacob Zuma (ZA), Robert Mugabe (ZIM), Lula da Silva (BRA), Barack Obama (USA), Hugo Chavez (VEN), Recep Erdogan (TUR), Angela Merkel (DE), Nicolas Sarkozy (FRA), Shimon Peres (ISR), Ban Ki-moon (UN) und Jose M. Barroso (EU).
Nach zwölf Tagen harter Arbeit verfassten China, Indien, Brasilien, Südafrika und die Vereinigten Staaten eine Vereinbarung, die von Obama als „bedeutungsvolles Abkommen“ beurteilt wurde. In einer Debatte aller Länder wurde das Dokument dann „zur Kenntnis genommen“, aber nicht „angenommen“, und es wurde auch nicht „einstimmig verabschiedet“.
In dem Text wurde anerkannt, dass der Klimawandel eine der größten Herausforderungen der Gegenwart darstellt und dass Maßnahmen ergriffen werden sollten, um Temperaturerhöhungen unter zwei Grad Celsius zu halten. Das Dokument als solches ist aber nicht rechtskräftig, es enthält keine verbindlichen Verpflichtungen.
Wenn Sie schon einmal versucht haben, einen Vertrag für einen Gebrauchtwagen gemeinsam mit dem Käufer zu verfassen, dann wissen Sie, wie schwer so etwas ist. Da darf man sich nicht wundern, dass 183 Nationen Probleme haben, etwas auf einen gemeinsamen Nenner zu bringen. Aber das, was in diesem Abkommen stand, das wusste man vielleicht auch schon vor der Konferenz. Es ist ein mageres Resultat angesichts der zwölf Tage harter Arbeit von tausenden Experten.
China ist mörderisch über die Stränge geschlagen
In der Konferenz machten verschiedene Länder unverbindliche Zusagen über die Reduktion des nationalen CO2-Ausstoßes. Man orientierte sich am Niveau vergangener Jahre und gab an, was im Vergleich dazu bis 2020 erreicht sein sollte. Ob das erreicht wurde, dazu können wir heute also etwas sagen.
Zunächst muss man wissen, dass Japan, Russland, Indien, EU, USA gemeinsam ein Drittel des globalen CO2-Ausstoßes produzieren, China alleine fast ebenso viel. Das restliche Drittel teilen sich rund 180 Länder.
Auf besagter COP15 in Kopenhagen versprach die EU, 30 Prozent unter das Niveau von 1990 – 4.500 Millionen Tonnen – zu kommen; heute ist man bei 3.500 Megatonnen. Das ist recht ermutigend.
Die USA versprachen, bis 2020 um 17 Prozent unter den Level von 2005 – 6.000 Mt – zu kommen. Heute sind sie knapp über 5.000 Mt.
Indien versprach, bis 2020 um 20 bis 25 Prozent unter den Level von 2005 – 1,1 Mt – zu kommen. Heute ist man bei 2,8 Mt.
China versprach, dass man 2020 um 1,8 bis 5 Prozent unter dem Ausstoß von 1990 zu liegen käme. 1990 lag China bei 2.500 Mega-t, zum Zeitpunkt der Konferenz im Jahre 2009 bei 8000 Mega-t, und heute wissen wir, dass China jährlich um die 12.000 Mega-t in die Luft pustet.
Der globale CO2-Ausstoß ist seit 2009 von 29.000 auf 34.000 Mt gestiegen, das sind 17 Prozent Zuwachs in zehn Jahren. (Hier für Sie graphisch dargestellt).
Zusammengefasst könnte man sagen, dass „der Westen“ seine Hausaufgaben gemacht hat, dass aber Asien – allen voran China – mörderisch über die Stränge geschlagen hat. Woher kommt das?
Verschiebebahnhof für CO2
Eine Überlegung: Deutschland hat ca. 33.000 Windturbinen installiert, das sind nach Adam Riese rund 100.000 Rotorblätter, von denen jedes ca. zehn Tonnen wiegt. Insgesamt sind das eine Million Tonnen Kohlefaser-Verbundmaterial, die über unseren Köpfen rotieren. Die Herstellung von 1 kg dieses Materials verbraucht ca. 70 kWh Energie. Nehmen wir an, wir würden die in China fertigen lassen, all diese Energie wäre elektrisch und käme aus Kohlekraftwerken, dann würden für jedes Kilogramm Material 70 kg CO2 emittiert.
Bei der Herstellung von einer Million Tonnen Rotorblätter würden also 70 Millionen Tonnen CO2 erzeugt. Das wären 9% der 800 Millionen Tonnen, die Deutschland jährlich produziert.
Die Zahlen hier sind hypothetische Annahmen, und die 100.000 Rotorblätter wurden auch nicht in einem Jahr produziert und nicht alle in China, aber sie machen deutlich, in welchem Umfang die Verlagerung der Produktion von Industriegütern nach China zum Anstieg der dortigen CO2-Emissionen führt – und bei uns zu einem Absinken.
Die jährliche Pro-Kopf-Emission – der „Carbon Footprint“ – ist in China seit dem Jahr 2000 von 3 auf rund 9 Tonnen gestiegen und damit auf deutsches Niveau. Das liegt aber weniger daran, dass die 1,3 Milliarden Chinesen jetzt alle so dicke Autos fahren und drei Klimaanlagen in jedem Haus sind, sondern am Ausbau der Industrie. Und dafür trägt der Rest der Welt eine Mitverantwortung.
Es ist eigentlich erstaunlich, dass diese Verschiebung kein stärkeres Absinken der CO2-Emissionen im Westen bewirkt hat.
CO2-Produktion ausgelagert
1990 begann ich eine Tätigkeit als Berater für wissenschaftliche Entwicklungsprojekte. Die Mehrzahl meiner Kunden waren Pharmafirmen. Man lud mich dort erst einmal zu einem Rundgang durchs Werk ein: durch Labors, wo Mitarbeiter in weißen Kitteln mit Ratten oder Kaninchen experimentierten, dann kamen Produktionshallen, wo Flaschen auf Förderbändern von Robotern befüllt wurden und wo die Etikettendrucker ihren Dienst taten. Schließlich kamen wir ins Lager, wo LKWs mit dem Logo der Firma vor den Toren warteten.
Heute wäre solch eine Tour langweilig: nur Großraumbüros. Wo sind all die Ratten und Kaninchen geblieben, die Förderbänder und die Lastwagen?
Die Arbeit der Labors macht jetzt ein Start-up-Unternehmen in der Tschechischen Republik, die Wirkstoffe werden in Indien hergestellt und von dort gleich an einen Lohnhersteller in China geschickt, der daraus Pillen und Säfte macht.
Was mich damals beeindruckte war eine gigantische Anlage, in der tausende Plastikflaschen mit Infusionslösung, so wie sie an den Krankenbetten hängen, samt Verpackung bei hoher Temperatur sterilisiert wurden. All das lief automatisch. Unmengen an Energie wurden hier verbraucht, die heute in China aus der Steckdose kommen müssen. Heute braucht man in der Mutterfirma nur noch Strom für die Computer auf den Schreibtischen, aber das sind vergleichsweise Peanuts.
Wenn man uns heute also über den Erfolg der Energiewende erzählt, so müssen wir bedenken, dass wir einen Großteil unserer CO2-Produktion ausgelagert haben: nach Asien und insbesondere China.
Produktion braucht Energie
Die Forderung „weniger CO2“ weltweit ist primär die Forderung „weniger CO2 aus China“. Das wäre schon mehr als die halbe Miete. Ist das realistisch? Die Welt hat sich entschieden, in China die Produktionsstätten für den Großteil ihrer Konsum- und Industriegüter aufzuschlagen. Das funktioniert gut, weil so die „economy of scale“ optimal zum Einsatz kommt. Zudem ist die Bevölkerung dort anspruchslos, gebildet und fleißig, und das politische System gibt Unternehmern kapitalistische Anreize. Unter diesen Bedingungen kann man dort die gleiche Qualität billiger produzieren als sonstwo auf der Welt.
Produktion braucht aber Energie. Die deutsche Energiewende hat bewiesen, dass die Sache mit Wind und Solar bestenfalls ein teures Hobby für eine arrivierte Gesellschaft wie die unsere ist, aber keine Lösung für China. Dort ist man dabei, so schnell es geht und mit eigenem Know-how, die Kernkraft ausbauen. Von den insgesamt 2.000 GW installierter Leistung sind derzeit 43 GW nuklear, elf weitere GW sind im Bau. Vorerst wird man also, wohl oder übel, den Löwenanteil seiner Energie durch Verbrennen von Kohle erzeugen.
Sollte man China das verbieten? Das ist einerseits undenkbar und wäre andererseits nicht gewollt. Dann würde die gut eingespielte Beziehung der Welt zu ihrem wichtigsten Lieferanten zusammenbrechen. Und der unmittelbar fühlbare Vorteil billiger Konsumgüter ist machtvoller als die Furcht vor einer Klimaveränderung, die wir gar nicht wahrnähmen, wenn man sie uns nicht ständig einsuggerieren würde.
An dieser Situation hätte auch COP26 im November 2020 in Glasgow nichts ändern können. Gut, vielleicht hätte man dort mit viel Fanfaren ein Projekt verabschiedet, um in Burkina Faso mit deutscher Entwicklungshilfe drei Windgeneratoren aufzustellen, die hier beim „Repowering“ abgebaut worden waren; oder man hätte den mutigen Vorschlag diskutiert, weltweit die Leistung von Staubsaugern auf 600 Watt zu begrenzen. Aber das kann man ja nächstes Jahr machen, wenn die Gefahr für Leib und Leben der 27.000 Teilnehmer hoffentlich überwunden ist und der Planet bis dahin überlebt hat.
Dieser Artikel erschien zuerst bewww.think-again.org, bei der Achse und im Buch „Grün und Dumm“.
 




Klimamodelle: 30 Jahre lang keine Erwärmung – möglicherweise

Natürliche Klimavariabilität war schon immer ein Thema, das viele Unbekannte enthält, aber es wurde selten explizit gesagt, wie wenig wir darüber wissen. Diese Variabilität wurde gewöhnlich unterschätzt, da es „offensichtlich“ war, dass die Hauptursache für die globale Temperatur die Akkumulation von Treibhausgasen in der Atmosphäre ist, wobei die natürliche Variabilität schwächere Auswirkungen zeitigt.

Aber die globalen Temperaturdaten dieses Jahrhunderts zeigen, dass die natürliche Variabilität in Form von El Ninos dominiert hat. „Egal, warten wir einfach ab und das Signal der Treibhauserwärmung wird aus dem Lärm der natürlichen klimatischen Variabilität heraustreten“. Wie lange werden wir auf dieses Signal warten müssen? Ziemlich lange, so einige Forscher, da immer mehr Arbeiten nachweisen, dass die natürliche Klimavariabilität einen großen, wenn nicht sogar dominierenden Einfluss auf die globalen Temperaturtrends hat.

Mit dem üblichen Vorbehalt bzgl. Klima-Prophezeiungen scheint es eine wachsende Zahl von Forschungsarbeiten zu geben, die darauf hindeuten, dass die globale Durchschnittstemperatur zumindest während der nächsten fünf Jahre weitgehend unverändert bleiben wird. Der Grund: die natürliche klimatische Variabilität.

Erst letzte Woche legte das UK Met.-Office Zahlen vor, die darauf hindeuten, dass die Wahrscheinlichkeit des Überschreitens der 1,5°C-Schwelle während der nächsten fünf Jahre nur 1 zu 34 beträgt. Nun erweitert ein neues Papier von Klimamodellentwicklern solche Vorhersagen und legt nahe, dass aufgrund der natürlichen Variabilität die globale Durchschnittstemperatur bis 2049 relativ unverändert bleiben könnte – selbst bei der größten Zunahme der Treibhausgasemissionen.

In einer ersten Studie dieser Art haben Nicola Maher vom Max-Planck-Institut für Meteorologie, Hamburg, Deutschland und Kollegen in den Environmental Research Letters geschrieben, wie sie den Zeitraum 2019-2034 anhand zweier Arten von Computermodellen untersucht und zu dem Ergebnis gekommen waren, dass genau dies der Fall ist:

Wir bestätigen zunächst, dass auf kurzfristigen Zeitskalen (15 Jahre) Temperaturtrends von interner Variabilität dominiert werden. Dieses Ergebnis erweist sich als bemerkenswert robust“.

Wenn man noch weiter in die Zukunft blickt, sagen sie, dass die natürliche Variabilität weiterhin bedeutsam ist:

… selbst in dreißig Jahren könnten große Teile des Globus‘ aufgrund interner Schwankungen immer noch keine Erwärmung aufweisen“, fügen sie hinzu.

Die Forscher demonstrieren die interne Klimavariabilität und ihre Bedeutung für den von uns beobachteten Klimawandel. Mit einer Reihe von Karten visualisieren sie sowohl das Maximum als auch das Minimum globaler, zukünftiger Trends, die auf kurz- und mittelfristigen Zeitskalen auftreten könnten. Sie zeigen auch deutlich die globale Abkühlung auf, die bei einem Anstieg der Treibhausgase – verursacht durch interne Variabilität – auftreten könnte.

In Prozent, die Rolle der internen klimatischen Variabilität. Quelle: Maher et al., 2020

Die Forscher erklären:

Kurzfristig könnten alle Punkte auf dem Globus einzeln eine Abkühlung oder keine Erwärmung erfahren, obwohl sie sich in einem probabilistischen Sinne viel eher erwärmen“.

Wenn man über das Kurzfristige hinausblickt, fügen sie hinzu:

Wir stellen fest, dass selbst auf der mittelfristigen Zeitskala ein großer Teil des Globus aufgrund interner Schwankungen zufällig immer noch keinen Erwärmungstrend erfahren könnte, obwohl dieses Ergebnis etwas modellabhängig ist“.

In der Vergangenheit haben Klimaextremisten die natürlichen El Ninos erfasst und sie als Beispiele für die rasche globale Erwärmung der Treibhausgase angeführt. Das ist eine unaufrichtige Herangehensweise, die immer schwieriger werden kann, falls solche Forschungen ein Indiz dafür sind.

Link: https://www.thegwpf.com/climate-models-no-warming-for-30-years-possibly/
Übersetzt von Chris Frey EIKE




RKI und Corona: Phantombetten und Steinzeitkommunikation

Insgesamt wurde die Einrichtung von 10.600 solcher Plätze bezahlt. Nach ein paar Monaten ist dem Ministerium nun aufgefallen, dass für die 530 Millionen Euro, die man in die Hand nahm, nur 3.300 zusätzliche Betten im DIVI-Register entstanden sind. Reichlich früh. Immerhin weiß man jetzt, wie viele Intensivbetten es derzeit gibt. Denn das ist in der Corona-Pandemie ja der Flaschenhals, der uns vor tausenden weiteren Toten retten sollte. Wenn er nicht überlastet ist. Dafür können das Gesundheitsministerium oder aber das Robert-Koch-Institut aber nix.
Da sollte man doch eigentlich wissen, wie viele Betten existieren, noch besser wäre es, zu wissen, wie viele mit Corona-Patienten belegt sind und ob diese Zahl zu- oder abnimmt. Übrigens sind momentan nach dem DIVI-Intensivregister 249 von 32.567 Betten mit Covid-19-Patienten belegt, davon werden 118 beatmet. Das Worldometer, das auf den Zahlen der Johns-Hopkins-Universität beruht, meldet 255 schwere oder kritische Fälle und 8 Verstorbene am 16.07.2020. Die Zahl der freien Intensivbetten verharrte während der Krise nach Einführung des DIVI-Intensivregisters stets um die 10.000, selbst als 3.000 und mehr Betten mit positiv Getesten belegt waren. Und sie ist nach Corona auch nicht gestiegen. Immer bleiben rund 20.000 Betten belegt, ob mit Corona oder ohne.
Dass das Gesundheitsministerium übersieht, dass rund 7.300 für die Bewältigung der Corona-Krise angeblich so dringend gebrauchte Betten nicht geschaffen wurden, ist nicht verwunderlich. Die Zahl der zu Beginn stets genannten 27.000 Betten, die den Grund für den Lock-Down lieferten, war geschätzt. Wie viele es wirklich waren, wusste keiner. Und das war 2017. Mit dem Aufsetzen des Intensivregisters begann die Deutsche Interdisziplinäre Vereinigung für Notfallmedizin Ende März, als der Lockdown schon in vollem Gange war. Die FAZ meldete am Dienstag den 7.4.2020, dass dieses Register “bis zum Wochenende” eingerichtet sei. Als der Lockdown beschlossen wurde, wusste niemand, wie viele Plätze es gab und wie viele belegt waren.
Das Robert-Koch-Institut erging sich zwar schon 2013 in apokalyptischen Schätzungen, bei einer CoViD-Pandemie würden binnen zweier Jahre 17 Millionen Menschen sterben. Die war Gegenstand einer Bundestagsdrucksache. Und der Präsident des RKI, Lothar Wieler, warnte noch am 1.4.2020 vor 10 Millionen Toten bis Juni 2020, wenn der Lockdown nicht käme. So schlimm kam es nicht mal im bösen Schweden, das sich dem Rat der Weltgemeinschaft verweigerte, endlich die Volkswirtschaft zum Erliegen zu bringen.

Nur Zahlen zählen

Ich gebe zu: 1984 im VWL-Grundstudium bin ich erst mal am Statistik-Schein gescheitert. Allerdings hieß MS Excel noch Multiplan, und ich hatte eh keinen PC. Der Informatikunterricht fand im Zweifel noch mit Lochstreifen statt. Doch seit es moderne Tabellenkalkulationssoftware gibt, kann ich mitreden. Die Statistik des Robert-Koch-Instiuts bewegt sich auf dem Weltniveau der zentralen Plankommission der Deutschen Demokratischen Republik. Fehlendes Wissen wird durch Anmaßung und Schätzung ersetzt. Neumodisch könnte man auch vom Prinzip Wirecard sprechen. Allerdings verschwinden nur Millionen, die allerdings einen Billionen-Schaden anrichten. Nur vertut man sich schon mal um ein paar Millionen Tote mit dem Schätzen. Die Folgen hat man eh nicht im Blick.
Je schneller man je mehr Daten und vor allen Dingen detaillierte Datensätze bekommt, desto leichter kann man seine eigene Vermutung verbessern und – wenn eine nötig ist – seine Schätzung anpassen. Das RKI wusste zu Beginn der “Pandemie” nicht, wie viele wirklich Erkrankte es gab und wie viele davon schwer erkrankt waren. Auch die Zahl der Genesenen kann die staatliche Instanz nur schätzen. Bis heute. Ein Armutszeugnis.

Deutschlands Gesundheitswesen arbeitet mit dem Telefax

Selbst der Deutschlandfunk-Moderator Zurheide fragt in einem Deutschlandfunk-Interview am 25.4.2020 beim Vorsitzenden des Sachverständigenrates im Gesundheitswesen, Ferdinand Gerlach, ungläubig nach:
Zurheide: „Sie haben ja gerade Fax gesagt, ich habe das richtig gehört oder?“
Gerlach: „Ja, wir haben in Deutschland noch den Fax-Standard, sowohl zwischen Gesundheitsämtern und RKI als auch zwischen Ärzten in Praxen und Kliniken, oft auch übrigens die papiergebundene Karteikarte. Das führt natürlich dazu, dass das länger dauert, dass das fehlerträchtig ist. Und dann schauen wir mehr auf die Daten der Johns-Hopkins-University, die auch nicht so viel besser sind, aber schneller da sind als auf unsere eigenen Daten.”
Mit der Kommunikationstechnik Telefax der Achtziger gegen das Virus der Globalisierung.
Ich habe schon am 20.3.2020 hier kritisiert, dass Quantität und Qualität der Daten für eine so weitreichende Entscheidung, einen Lockdown anzuordnen, nicht ausreichten. Die notwendigen Arbeitshypothesen der Virologen konnten nur durch eine Überprüfung durch empirische Daten verifiziert werden. Das Robert-Koch-Institut und der nordrhein-westfälische Gesundheitsminister Laumann wussten Mitte März nicht mal, wieviel Covid-19-Patienten überhaupt im Krankenhaus lagen. Die Deutsche Krankenhausgesellschaft schätzte sie auf ein paar hundert. Auf dieser Basis legte man die ganze Volkswirtschaft lahm. Selbst die bis heute Genesenen sind geschätzt. Und bei den Verstorbenen wissen wir auch nicht, wie viele gar nicht an der Covid-Infektion gestorben sind sondern an der Vorerkrankung. Das Robert-Koch-Institut versuchte lange förmlich, Obduktionen zu verhindern.
Auch die Zahlen der Grippeepidemie von 2017/18 beruhen auf Schätzungen und Hochrechnungen. Hier dienten die Meldungen einzelner Kliniken und Arztpraxen zu Erstellung einer Hochrechnung. Und die 2010 auf gleicher wissenschaftlicher Basis getroffenen Annahmen zur sogenannten Schweinegrippe haben – wie Gunter Frank hier beschrieb – sich komplett als falsch erwiesen. Trotzdem folgte die Risikoanalyse im Bevölkerungsschutz in Drucksache 17/12051 vom 3.1.2013 im Bezug auf eine mögliche Pandemie ein Horrorszenario, das man auch als Treatment für einen Horror- und Action-Blockbuster nach Hollywood schicken sollte. Binnen zweier Jahre hätte die Pandemie 17 Millionen Deutsche dahinraffen sollen. Pikanterweise wird als Konsequenz nicht einmal die Bereithaltung von Schutzkleidung empfohlen.
Spätestens 2010 hätte das RKI evaluieren müssen, warum es bei der Schweinegrippe so daneben lag. Einen gewissen Professor Christian Drosten einzubeziehen, wäre sinnvoll, denn der hatte die Szenarien ja noch weiter übertrieben. Das Ergebnis wäre einfach zu prognostizieren: mehr Daten, mehr Merkmale und das schneller. Und das wäre durch eine Verbesserung des Reporting- und Meldesystems durch eine Datenbank, die im Fall einer Epidemie möglichst schnell möglichst viele Daten erfasst, zu realisieren gewesen. Und natürlich auch eine Veränderung der Risikoeinschätzung anhand der nicht eingetretenen erwarteten Epidemien wäre wohl angezeigt gewesen.

Eine webbasierte Datenbank

Zentrale Datenbanken mit dezentralen Eingabemasken für Arztpraxen, Krankenhäuser, Labors und Gesundheitsämter erfassen die entsprechenden Meldungen in Echtzeit über das Netz. Das DIVID-Register belegt, wie schnell so eine Datenbank einzurichten gewesen wäre. Der Zugang erfolgt passwortgeschützt, und die Datenlage kann mit den Ergebnis des traditionellen Meldewegs abgeglichen werden. Dabei wären/würden folgende Daten erfasst (worden).

  • Persönliche Daten: Name, Alter, Gewicht, ledig, verheiratet, Kinder/keine Kinder, Jahreseinkommen, Beruf, Hobbies, Ausbildung, Hobbies, Geschlecht, Vorerkrankungen, Wohnadresse, Arbeitsort, vermuteter Ort der Infizierung, Person, bei der man sich vermutlich infiziert hat, vermuteter Zeitpunkt der Infizierung.
  • Testdaten: Anzahl der Tests. Je Test: Testdatum, Testergebnis.
  • Krankheitsdaten der positiv Getesteten täglich: Ohne Symptome, leicht erkrankt, schwer erkrankt, hospitalisiert, Intensivbehandlung, Beatmung. Genesung. Therapie. Beginn der Quarantäne, Ende der Quarantäne. Folgeschäden.
  • Daten eines Sterbefalls: Todesursache nach Autopsie: Vorerkrankung oder Covid-19. Art der Therapie (Beatmungspflichtig?).
  • Daten zur Kapazität des Gesundheitswesens (tägliche Meldung durch Arztpraxen und Krankenhäuser). Anzahl der Betten, Anzahl der belegten Betten nach Krankheit, Anzahl der Betten mit den Infizierten in der jeweiligen Einrichtung. Anzahl der Intensivbetten, Anzahl davon belegt, Anzahl nach Krankheit, davon Anzahl der an der Pandemie Erkrankten, Anzahl der Beatmungsplätze, Anzahl der belegten Beatmungsplätze nach Krankheiten. Dauer der Hospitalisierung, Intensivbehandlung, Beatmung.
  • Testkapazität, durchgeführte Tests, Kosten der Tests, Kosten der Behandlung.

Diese Daten werden für alle Getesteten erhoben; auch auf der Basis dieser Daten hätte man zu Beginn der Pandemie bereits viel fundierter entscheiden können und bereits bei der Grippewelle 2017/18 vielleicht eine effiziente Strategie zur Reduzierung der Infektionen, Krankheits- und Todesfälle finden können. Und ich persönlich bin entsetzt, dass es eine solche Datenbank zur Erfassung von angeblich so furchtbaren Pandemien nicht gibt. Sie sollte unbedingt und sofort eingerichtet werden, auch wenn sie bei der Bewertung des derzeitigen Szenarios keine Erkenntnisse mehr liefern kann.
Die Richtigkeit kann man verifizieren, in dem man das bisherige System parallel laufen lässt und die Daten abgleicht.

Die Realitätsverweigerung des RKI

Der Lockdown wurde zunächst damit begründet, das Gesundheitssystem, deren Kapazität man zu diesem Zeitpunkt schätzte, aber nicht kannte, dürfe nicht überlastet werden. Als diese sich nicht im Ansatz einstellen wollte – im Gegenteil, die Krankenhäuser mussten ihre Mitarbeiter in Kurzarbeit schicken –, musste eine andere Begründung her: Der R-Faktor besagt, wieviel Personen von einem als infiziert Getesteten angesteckt werden. Und um die Pandemie auszutrocknen, muss dieser Faktor unter eins bleiben. Dann steckt ein als infiziert getesteter Mensch weniger als einen anderen Menschen an.
Das Problem beim R-Faktor: Wie das RKI selbst zugibt, handelt es sich (wieder mal) um eine Schätzung. Und weil deren Kalkulation nicht zu stimmen scheint, ist seit Wochen nicht mehr davon geredet worden.
Für die Freiheitseinschränkungen muss seither die Anzahl der Neu-Infizierten pro 100.000 Einwohner herhalten. Auch diese Maßzahl ist genauso wenig relevant wie die Zahl der Infizierten überhaupt.
Das RKI hat in seinen Verlautbarungen immer darauf abgestellt, 80 Prozent der Infizierten blieben ohne Symptome, 20 würden erkranken und davon 5 Prozent schwer. Bei rund 10.000 freien Intensivbetten würde die Kapazitätsgrenze also bei 200.000 gleichzeitig als infiziert getesteten Bürgern liegen. Würden alle rund 30.000 Betten mit Covid-19-Patienten belegt, müssten nach dieser Faustformel 600.000 Menschen infiziert sein. Es wären dann ca. 120.000 Menschen gleichzeitig schwer erkrankt und hospitalisert. Die Gesamtkapazität deutscher Krankenhäuser ist mit 500.000 angegeben. Eine Entwicklung eines solchen Szenarios war spätestens Anfang April mehr als unwahrscheinlich. Insgesamt wurden tatsächlich aber nur 15 Prozent hospitalisiert. Nach Angaben des Statistischen Bundesamtes waren in etwa die Hälfte davon in intensivmedizinischer Behandlung, also ca. 15.000, das sind dann 7,5 Prozent der als infiziert Getesteten.
Die Ergebnisse der Streeck-Studie (Heinsberg), die Untersuchung in Ischgl und auch das Geschehen um den Corona-Ausbruch bei Tönnies in Rheda-Wiedenbrück, wo von 1.500 positiv getesteten Personen 6 als erkrankt gemeldet wurden, legen die Vermutung nahe, dass die Zahl der Infizierten, die nicht einmal leichte Symptome entwickeln, deutlich höher liegt. Auf der anderen Seite gibt es ja noch das Phänomen falsch positiver Tests.

Die verzerrende Statistik des RKI

Auch am Samstag hieß es wieder in den Nachrichten: 583 Menschen hätten sich mit Corona infiziert, insgesamt 200.843, 9.082 seien im Zusammenhang mit Corona verstorben, davon 4 am 18.7.2020, insgesamt sind geschätzte 186.900 genesen. Durch die Kumulation der seit Mitte Februar aufgetretenen Fälle entstehen riesige Zahlen, die uns allen Angst einflößen.
Der aktuelle Lagebericht müsste lauten: 583 Menschen sind seit gestern als infiziert getestet worden, 4.861 sind derzeit insgesamt als infiziert getestet. Das Intensivregister meldet derzeit 247 Patienten auf Intensivstation, davon müssen 115 invasiv beatmet werden. Das sind 0,000030 Prozent der Bevölkerung. 4 Menschen sind bedauerlicherweise im Zusammenhang mit dem Virus gestorben.
Die Öffentlichkeitsarbeit des RKI suggerierte dabei offensichtlich eine Kenntnis der Lage, die offensichtlich nicht vorhanden war.

Es ist nicht entscheidend, wie viele Menschen als infiziert getestet sind, sondern wer

Schon das kümmerliche Zahlenwerk des RKI widerlegt dessen eigene Hypothesen. Das lässt sich besonders am Fall Tönnies belegen. Hier ist die Unverhältnismäßigkeit ja sogar gerichtsnotorisch.
Ich habe versucht zu ermitteln, wie viele der als infiziert gemeldeten Mitarbeiter der Fleischfabrik erkrankt, hospitalisiert oder gar verstorben seien. Eine aktuelle Zahl findet sich nicht.
Finden lässt sich dagegen im täglichen RKI-Bericht vom 18.7.2020, dass Einrichtungen nach § 42 des Infektionsschutzgesetzes (Fleischindustrie, Großküchen) im gesamten Zeitraum insgesamt 4.782 Menschen infiziert wurden, davon wurden 202 hospitalisiert und 5 (!) sind verstorben. 4.600 gelten als genesen. Derzeit gelten also noch 177 als infiziert-getestet. Das lässt die Entscheidung, gleich zwei Landkreise wieder in den Stillstand zu schicken in fraglichem Licht erscheinen.
In derselben Tabelle hat das RKI die Zahlen der Krankenhäuser, Alten- und Pflegeheime und vergleichbaren Institutionen zusammengefasst. Dort haben sich 21.810 Bewohner und Patienten infiziert, von denen bedauerlicherweise 4.236 verstorben sind. Ob am Virus oder einer anderen Erkrankung, ist nicht bekannt. Das sind aber eben 46,26 Prozent aller positiv getesteten Toten, obwohl die Zahl der positiv Getesteten nur 10,78 Prozent der Gesamtzahl ausmacht. Die Wahrscheinlichkeit, als positiv Getester in einer solchen Einrichtung zu sterben, liegt bei 19,5 Prozent gegenüber 4,53 Prozent bei der Gesamtbevölkerung.
Zieht man die Zahl der in diesen Einrichtungen Verstorbenen von der Gesamtzahl ab, so verbleiben 180.535 Infizierte und 4.924 Verstorbene. Allerdings halbiert sich der Anteil der Verstorbenen auf 2,73 Prozent.
Noch dramatischer wird das Ergebnis, wenn man die Altersstruktur berechnet. 7.772 der Verstorbenen waren über 70 Jahre. Als infiziert getestet gelten 13.910 Menschen in dieser Altersgruppe. Auf 28 Prozent der als infiziert Getesten entfallen somit 56 Prozent der Verstorbenen.
Dreht man die Perspektive, wird deutlich: Von 188.434 Menschen unter 70 Jahren, die als infiziert getestet wurden, sind 1.388 verstorben. Das sind 0,74 Prozent. Wenn ich das auf 83 Millionen hochrechne, bekommt die Zahl zu viele Nullen hinter dem Komma.
War diese Entwicklung vorhersehbar? Bis zum 30.3.2020 waren 455 Menschen als infiziert Getestete verstorben, davon waren 397 oder 87 Prozent über 70 Jahre alt. Über die Fälle in den medizinischen Einrichtungen nennt das RKI keine Daten in diesem Bericht. Die Altersstruktur der Betroffenen hat sich nicht verändert.
Hätte man seinen eigenen Zahlen vertraut und sie nüchtern analysiert, dann hätte man bereits Ende März, spätestens zu Ostern, den Lockdown aufgehoben und alle Ressourcen in den Schutz der Risiko-Gruppe gesetzt. Systematische Testungen aller Beschäftigten in diesen Einrichtungen hätten Infektionen unterbunden, denn insgesamt wurden dort 24.205 Mitarbeiter als positiv getestet. Die zügige Ausstattung mit Schutzkleidung hätte die früher immunisiert und und so die Infektionskette da unterbrochen, wo sie gefährlich war, statt in den Gesundheitsämtern eine ziemlich überflüssige Schnitzeljagd zu betreiben. Man nennt das “Unterbrechen der Infektionsketten”. Vor allem die Bereitstellung von Schutzkleidung hätte eine Ausbreitung in Krankenhäusern und Seniorenresidenzen reduziert. Der Lockdown war dafür keine geeignete Maßnahme.

Die Plausibilität des internationalen Vergleichs

Wenn man vom Rathaus kommt, ist man schlauer. Aber das war eben schon am 30.3.2020 der Fall. Damals hätte man radikal umschwenken müssen und damit wirkliche Erkrankungen vermieden und damit auch Todefälle.
Aber wir klagen auf hohem respektive niedrigem Niveau. „Nur“ 109 Tote je eine Million Einwohner sind schließlich „Weltklasse“. Aber es hätten eben auch weitaus weniger sein können, wenn man die Ressourcen auf den Schutz der Risikogruppe konzentriert hätte.
Auch hier zeigt sich im internationalen Vergleich, dass die Zahl der Infizierten nichts über die Dramatik der sogenannten Pandemie sagt. In der Vergleichsgruppe schneiden nach Deutschland mit bisher 429 Toten je eine Millionen Einwohner die USA noch am besten ab. Während Deutschland bisher insgesamt 4,53 Prozent der als infiziert getesteten Todesfälle verzeichnet, sind es in den USA 3,77 Prozent.
Das Vereinigte Königreich schneidet da drastisch schlechter ab. 1.543 der als infiziert Getesteten sind verstorben, und mit 666 Toten je Millionen Einwohner nimmt es auch im Vergleich einen traurigen Spitzenplatz ein. Als “Kontrollgruppe” habe ich Schweden eingeführt, das wie Großbritannien ein staatlich rationiertes Gesundheitssystem hat und keinen Lockdown durchgeführt hat. Schweden liegt bei den Toten je Millionen Einwohnen zwischen den USA und deutlich unter dem Vereinigten Königreich mit 556 Toten je einer Million Einwohner. So wird die Pandemie ein Beleg dafür, dass die “Bürgerversicherung” genannte Verstaatlichung des gesamten Gesundheitssystems mehr Opfer kostet als das duale deutsche System.
Dass es weder eine Korrelation zwischen den positiven Tests und dem Pandemie-Verlauf gibt, offenbart sich, wenn man die Zahlen vergleicht. Die Schweden haben mit 67.492 Tests pro Million Einwohner am wenigsten getestet, aber mit 11,33 Prozent der Tests die höchste positive Quote. Deutschland hat 82.159 Tests je Million Einwohner durchgeführt, davon waren ca. 3 Prozent positiv. Die Briten haben mehr als das Doppelte mit fast 190.000 Tests durchgeführt, davon waren nur 2,27 Prozent positiv. Die USA haben mit 140.773 Tests je eine Million Einwohner ebenfalls ein dreistelliges Ergebnis, haben aber mit 8,09 Prozent positiven Tests nach den wenig testenden Schweden eine deutlich bessere Trefferquote als die Deutschen oder die Briten.

Was lernen wir daraus?

Evidenz erzeugen – Wissen teilen – Gesundheit schützen und verbessern. An diesem selbst gewählten Motto muss sich das Robert-Koch-Institut messen lassen. Und es versagt nicht nur im Falle der Corona-Krise.
“Als nationales Public Health-Institut spielt das Robert Koch-Institut eine zentrale Rolle für den Schutz der Gesundheit der Bevölkerung in Deutschland. Doch die Herausforderungen, mit denen sich Public Health konfrontiert sieht, nehmen zu – sowohl auf nationaler als auch internationaler Ebene (Global Health). Diesen Themen wird sich das RKI in Zukunft stellen müssen. Gelingen kann dies nur, wenn das Institut seine Struktur und Arbeitsweise an die kommenden Aufgaben anpasst. Das RKI arbeitet bereits heute wissenschaftlich und evidenzbasiert – das macht die Empfehlungen des Instituts glaubwürdig und ist zentral für seine Funktion als Berater der Bundesregierung und im Gesundheitswesen. In Zukunft möchte das Robert Koch-Institut seine Fähigkeiten stärken und strategisch ausbauen. Die Strategie RKI 2025 formuliert die Ziele für diesen Weg.”
Dieses Selbstbildnis findet sich auf den Seiten des RKI. Danach kann man gelassen feststellen, dass es seinen eigenen Ansprüchen nicht genügt. “Evidenzbasiert war hier so ziemlich keine Regierungsberatung, weil das Institut die entsprechenden Daten gar nicht kannte. Die erzeugte veröffentlichte Meinung und die Empfehlungen an die Bundesregierung hatten keinen empirischen Hintergrund. Sie folgten dem Konzept der bekannten Sendung “Rate mal mit Rosenthal.” Vielleicht hätte das RKI mal jemanden fragen sollen, der sich damit auskennt, statt dürftige Zahlen mit hochkomplexen mathematischen Modellen zu verbrämen. Die laufen am Ende immer auf die bekannte Formel “Pi mal Daumen” hinaus. Das RKI ist überflüssig. Es sollte geschlossen werden. Die Erhebung und Verarbeitung von Daten ist beim statistischen Bundesamt besser aufgehoben.
An dem glimpflichen Verlauf hatte das RKI jedenfalls keinen Anteil. Der Grund scheint mir zu sein, dass unser Gesundheitssystem effektiver zu sein scheint als die staatlichen Systeme Schwedens, Italiens oder Großbritanniens. Der Wettbewerb zwischen privaten und öffentlich-rechtlichen Trägern scheint selbst auf den staatlichen Teil auszustrahlen, und die Quersubventionierung der gesetzlichen Krankenkassen durch die Privaten führt offensichtlich zu einer besseren Finanzierung. Es sind also die Pfleger und Schwestern, die Ärzte und die Kliniken, denen zu danken ist. Unser System ist schlecht, aber es ist immer noch besser als alle staatlichen Systeme, die unterfinanziert sind und darauf mit Rationierung reagieren. Wer etwa in Großbritannien mit 80 Jahren noch eine künstliche Hüfte braucht, bekommt stattdessen einen neuen Krückstock. Die Befürworter der “Bürgerversicherung” sollten mal darüber nachdenken.
Ich bin übrigens gespannt, ob sich die 7.300 Betten doch noch anfinden.
Der Beitrag erschien zuerst bei ACHGUT hier




Pläne: Noch viel mehr Windräder in der Ostsee

Schweinswale und alle anderen Meeresbewohner in Nord- und Ostsee sollten rasch verschwinden: Es wird unter Wasser wieder ziemlich laut. Nord- und Ostsee sollen weiter mit Windrädern zugebaut werden. Dazu müssen Pfähle in den Boden gerammt werden, auf denen die Windräder aufgebaut werden und erzeugen einen Höllenlärm, der sich im Wasser besonders gut fortpflanzt. Der BUND fordert, beim Bau auf die stark lärmerzeugende Rammtechnik zu verzichten.

Jetzt hat das zuständige Bundesamt für Seeschifffahrt und Hydrographie (BSH) seinen Vorentwurf für mögliche neue Standorte vorgelegt und damit für Entsetzen bei »Umweltschützern« gesorgt. Bereits jetzt stehen 1.500 Windräder vor den Küsten mit einer Nennleistung von 7,5 Gigawatt. Bis 2030 soll die Leistung knapp verdreifacht und bis 2040 auf 40 Gigawatt verfünffacht werden.Grundlage ist der Beschluss der Bundesregierung, mehr Windparks in Nord- und Ostsee zu bauen. Änderungen im »Windenergie-auf-See-Gesetz« sollen einen schnelleren Ausbau von Windrädern auf See ermöglichen: »Die Erhöhung der Ausbauziele und die langfristige Planbarkeit entfalten Nutzen für die Allgemeinheit und die Stromverbraucherinnen und Stromverbraucher.«
Der »zielstrebige, effiziente, netz-synchrone und zunehmend marktorientierte Ausbau der erneuerbaren Energien« sei ein entscheidender Baustein, »um die Klimaziele in der Energiewirtschaft zu erreichen«, heißt es in der Offshore-Vereinbarung vom 11. Mai 2020 zwischen dem Bund, den Küstenländern Hansestadt Bremen, Hansestadt Hamburg, Mecklenburg-Vorpommern, Niedersachsen und Schleswig-Holstein sowie den Übertragungsnetzbetreibern 50Hertz, Amprion und TenneT.»Windenergieanlagen auf See können hierzu aufgrund der guten Standortbedingungen im Meer, der stetigen Stromerzeugung, der gesunkenen Technologiekosten und der hohen gesellschaftlichen Akzeptanz einen wichtigen Beitrag leisten«, heißt es im Entwurf. Klar auch im Berliner Politneusprech unter Punkt »Alternativen«: »Keine.«
Die Bundesregierung erklärt auch nicht, woher der Strom in Zeiten der Flaute kommen soll. Denn ohne konventionelle Kraftwerke würde in den letzten Tagen wieder eine erhebliche Lücke zwischen Stromverbrauch und Erzeugung durch Sonne und Wind klaffen, wie man gerade an den vergangenen Tagen sehen kann.

Die Bundesregierung müsste jedoch ziemlich viel erklären. Denn sogar an sehr guten Offshore-Standorten werden nur 4.500 Vollaststunden angegeben, an schlechten relativ nahe an der Küste nur 3.200 Stunden. Woher die restlichen Strommengen kommen sollen, ist offen, zumal sich der Wind eher nicht danach richtet, wann ein Industrieland Strom benötigt. Das Jahr hat immerhin 8.760 Stunden.
Motto: Wenn schon Windräder in der Größenordnung von 7,5 Gigawatt bei Flaute nichts liefern, dann müssen noch mehr gebaut werden. Die liefern dann wenigstens etwas mehr als nichts. Gespalten sind »Umweltschützer«, die einerseits im Ausbau »erneuerbarer Energien« die Rettung vor einer vermeintlichen Klimakatastrophe sehen, andererseits die gigantischen Umweltschäden solcher Großindustrieparks nicht länger verheimlichen können. Spätestens nicht mehr, seitdem Michael Moore in seinem neuesten Dokumentarfilm die drastischen Folgen deutlich dargestellt hat.

MICHAEL MOORES FILM „PLANET OF THE HUMANS“
Der Schwindel von der vermeintlich grünen und erneuerbaren Energie

Die Umweltkonzerne BUND und Greenpeace befürworten zwar die Windparks, wie ein Greenpeace-Vertreter sagt: »Der Ausbau der erneuerbaren Energien und der Windenergie auf See ist für das Erreichen der Energiewende- und Klimaziele von großer Bedeutung.« Doch müssten »ökologische Belastungsgrenzen« beachtet werden.

Nabu-Präsident Jörg-Andreas Krüger kritisierte laut Hamburger Morgenpostdie Pläne: »Ein solcher Ausbau wäre nicht naturverträglich umsetzbar und wäre nicht vereinbar mit dem Naturschutzrecht.«Die Leiterin des WWF-Meeresschutzzentrums in Hamburg, Heike Vesper, befürchtet, dass mehr als 50 Prozent der Fläche für bedrohte und geschützte Vogelarten verloren gingen und der Deutsche Fischereiverband sorgt sich um die Fanggebiete, die verschwinden würden. Denn innerhalb der Windparkbereiche darf im Gegensatz zu Dänemark und Großbritannien kein Fischfang betrieben werden.
Am Ende des Jahres soll nach dem derzeitigen Stand ein Flächenentwicklungsplan verabschiedet werden, dann sollen die Flächen auf ihre Eignung untersucht und von der Bundesnetzagentur versteigert werden.
Der Beitrag erschien zuerst bei TE hier