„Globale Abkühlung wird uns alle umbringen“

Versuche des berüchtigten William Connolley, der in einem vergeblichen Versuch, die Geschichte mit der willkürlichen Veränderung von 5428 Wikipedia-Einträgen zu verändern und den „Global Cooling Scare“ aus dem Internet zu löschen, scheiterten. Wie James Delingpole in The Telegraph erklärt, verwandelte Connolley Wikipedia systematisch in eine Maschine, welche die vom Menschen verursachte globale Erwärmung vor sich her peitschte (Delingpole, 2009). Er schrieb Artikel zur globalen Erwärmung, zum Treibhauseffekt, zu Klimamodellen und zur globalen Abkühlung um. Dabei versuchte er, die mittelalterliche Warmzeit und die kleine Eiszeit auszulöschen. Auf den Seiten von Wikipedia machte er berühmte Klimawissenschaftler, die der vom Menschen verursachten globalen Erwärmung skeptisch gegenüberstanden, wie Richard Lindzen, Fred Singer, Willie Soon und Sallie Baliunas, nieder. Außerdem hinderte er die Menschen daran, seine Lügen zu korrigieren.

William Connolley ist mit Michael Mann und seinem Hockeyteam befreundet, zu welchem auch Phil Jones und Raymond Bradley gehören. Er ist auch Mitbegründer der alarmistischen Website Realclimate.org. Offensichtlich sorgte Connolley dafür, dass Mann und Bradley bei Wikipedia glühendes Lob erhielten, bis er 2009 gefeuert und als Wikipedia-Administrator abgesetzt wurde (Delingpole, 2009).

Es überrascht uns nicht, dass Connolley als Koautor der von Fachkollegen begutachteten Studie „The Myth of the 1970s Global Cooling Scientific Consensus“ in BAMS [= Bulletin of the American Meteorological Society] auftaucht, das von Thomas Peterson, William Connolley und John Fleck verfasst wurde (Peterson, Connolley, & Fleck, 2008). Das Papier ist Unsinn und macht keinen Unterschied, weil Fakten stur sind. Dass die Studie die Begutachtung bestanden hat, zeigt, wie korrupt die Klimawissenschaft geworden ist. Die Einleitung darin liest sich so:

In den 1970er Jahren gab es keinen wissenschaftlichen Konsens darüber, dass die Erde auf eine bevorstehende Eiszeit zusteuerte. Tatsächlich dominierte die Möglichkeit einer anthropogenen Erwärmung schon damals die von Experten begutachtete Literatur“. (Peterson, Connolley, & Fleck, 2008)

Abbildung 1. Rekonstruktion der globalen Durchschnittstemperatur seit 1850 seitens U.K. Met Office Hadley Centre und der Climatic Research Unit (CRU) an der University of East Anglia. Sie zeigt, wie auch andere Rekonstruktionen, eine globale Abkühlung um etwa 0,09°C (0,16°F) von 1944 bis 1977.

Die globale Abkühlungsangst der 1960er und 1970er Jahre war vorhanden: Sowohl Klimawissenschaftler als auch die Öffentlichkeit befürchteten, dass sich der globale Abkühlungstrend, der in den 1940er Jahren begann (siehe Abbildung 1), fortsetzen und die Welt sehr kalt werden, vielleicht sogar zu einer Gletscherperiode zurückkehren würde, wie sie vor etwa 11.700 Jahren zu Beginn des Holozäns endete.

Die Studie von Peterson, et al. sucht sich ebenso sorgfältig wie willkürlich 71 Studien heraus und behauptet, dass nur sieben davon zwischen 1965 und 1979 der „Konsens“-Position widersprachen, der zufolge die globale Erwärmung in der Zukunft stattfinden würde. Sie fanden 20, die eine neutrale Position vertraten und 44, die mit dem Konsens über die globale Erwärmung übereinstimmten. Aber die Welt kühlte sich damals ab und zwar seit 1944. Kenneth Richard untersuchte dies und erweiterte den Zeitrahmen auf 1960 bis 1989. Richard fand 285 Studien, die nicht mit der „Konsens“-Position übereinstimmten, dass die globale Erwärmung in der Zukunft stattfinden würde (Richard, 2016).

Von diesen 285 Beiträgen diskutierten 156 die Abkühlung seit 1940 und sagten eine zukünftige Abkühlung voraus. Sieben versuchten zu zeigen, dass CO2 die Abkühlung verursachen könnte. Eine vollständige Liste der Beiträge kann von Kenneth Richards Beitrag heruntergeladen werden. Die Panikmacher fälschten die Zahlen, um einen 97%igen Konsens darüber zu zeigen, dass der Mensch die globale Erwärmung verursacht hat, dann fälschten sie auf die gleiche Weise den Konsens über die globale Kühlung.

Angus McFarlane nahm die von Kenneth Richard und Peterson u.a. erstellten Datenbanken, führte sie zusammen (es gab 16 Duplikate) und führte dann eine eigene unabhängige Suche durch. Er fand zwei weitere relevante Studien, die nicht bereits in einer der beiden Datenbanken enthalten waren. Dann eliminierte er die Studien, die außerhalb des ursprünglichen Zeitraums von 1965-1979 von Peterson et al. lagen.

McFarlanes Datenbank ist kleiner als die von Richard und enthält nur 190 relevante Arbeiten, aber das sind 119 mehr als die von Peterson u.a. gefundenen, und sie decken den gleichen Zeitraum ab. McFarlanes Durchsicht der Arbeiten ergab, dass 86 eine künftige Abkühlung, 58 eine neutrale und 46 eine Erwärmung vorhersagten. Von den 86 Abkühlungs-Studien sagten 30 eine mögliche neue „Eiszeit“ voraus. Streng genommen befinden wir uns nun aber in einer Eiszeit, was bedeutet, dass eine neue Eiszeit gemeint ist, in der sich das Eis zu einem neuen großen neuen Maximum ausdehnt wie vor 19.000 Jahren im letzten großen Gletschermaximum. Die 86 Abkühlungs-Studien machen 45% der Gesamtzahl aus. Wenn wir die neutralen Papiere ignorieren, wie es John Cook, et al. (Cook, et al., 2013) in seiner 97%-Konsensstudie taten, dann machen die Abkühlungspapiere 65% der Papiere aus, die eine Stellungnahme abgegeben haben. Wenn wir Cooks Regeln verwenden, können wir bequemerweise behaupten, dass es 1979 einen globalen Konsens bzgl. Abkühlung gab.

Als sich jedoch der Abkühlungstrend Mitte des zwanzigsten Jahrhunderts umkehrte und zu einem Erwärmungstrend wurde, dauerte es nicht lange, bis sich auch der „Konsens“ umkehrte. Der globale Oberflächentemperatur-Trend änderte sich um 1977 in Erwärmung (etwa 0,017°C/Jahr, wie in der Grafik dargestellt), und die von Experten begutachteten Klimastudien von 1977-1979 änderten sich in ein Verhältnis von 52% pro Erwärmung zu 48% pro Abkühlung, eine knappe Mehrheit der Erwärmungs-Studien, wobei die neutralen Studien ignoriert wurden. In den 1980er Jahren änderten sich der Trend in den Studien schnell auf Pro-Erwärmung.

[Hervorhebung vom Übersetzer]

Mitte der siebziger Jahre berichtete die Presse, dass ein Konsens von Klimawissenschaftlern glaubte, die Welt kühle sich ab und die Abkühlung werde sich fortsetzen (Struck, 2014). Artikel über den Abkühlungskonsens erschienen in Newsweek, Time, der New York Times und National Geographic. Eine bahnbrechende Geschichte von Peter Gwynne in Newsweek vom 28. April 1975 war typisch (Gwynne, 1975). Sie trug den Titel „The Cooling World“. Im überhitzten Stil der Newsweek beginnt der Artikel: „Es gibt unheilvolle Anzeichen dafür, dass sich die Wettermuster der Erde dramatisch zu verändern begonnen haben“. Später in dem Artikel erklärt Gwynne atemlos: „… das Klima der Erde scheint sich abzukühlen … und die daraus resultierenden Hungersnöte könnten katastrophal sein“. Zu Gwynne’s zitierten Quellen gehören die National Academy of Sciences, Murray Mitchell (NOAA), George Kukla (Columbia University), James McQuigg (NOAA’s Center for Climatic and Environmental Assessment) (Gwynne, 1975).

Anders als viele seiner Kollegen änderte George Kukla von der Columbia University und dem Lamont-Doherty Earth Observatory seine Ansicht über einen langfristigen globalen Abkühlungstrend nicht. Als er am 31. Mai 2014 traurigerweise verstarb, glaubte er immer noch, dass in der Zukunft, vielleicht in 5.000 Jahren, eine neue massive Eiszeit beginnen würde. Javier Vinós sagt in seinem Blogbeitrag über „The next glaciation“ (Vinós, 2018) voraus, dass die nächste große Eiszeit in 1500 bis 2500 Jahren beginnen würde. Es ist ein Glück, dass beide Vorhersagen weit in der Zukunft liegen.

Wenn die nächste globale Abkühlungsperiode beginnt, was unvermeidlich der Fall sein wird – werden Klimawissenschaftler dann mehr Studien bzgl. globaler Abkühlung schreiben? Warum sollten wir Klimawissenschaftlern glauben, die sagen, dass sich die Welt jetzt gefährlich erwärmt, während sie noch vor 50 oder 60 Jahren sagten, dass sie sich gefährlich abkühlt? Eine vernünftige Frage. Welche direkten Beweise sind aufgetaucht, die sie überzeugt haben, den Kurs umzukehren? Wir hatten einen Konsens für die Abkühlung, als sich die Welt abkühlte, jetzt haben wir einen Konsens für die Erwärmung, und die Welt erwärmt sich. Ist das alles, was es dazu zu sagen gibt? Beides sind Hypothesen – was lässt sie zu Fakten oder Theorien werden?

Hypothesen sind spekulative Ideen. Ein echter Wissenschaftler fragt: „Ist das so? Sagen Sie mir, warum Sie das denken!“ Mit einem strengen wissenschaftlichen Verfahren muss nachgewiesen werden, warum beobachtete Ereignisse wie die globale Erwärmung oder Abkühlung eintreten. Zu zeigen, dass sie potenziell gefährlich sind, erfordert sogar noch mehr Arbeit.

Konsens ist eine politische Sache. Die Öffentlichkeit bildet eine Konsensmeinung, stimmt dann ab und erlässt Gesetze oder Regeln, die diese Meinung reflektieren. In der Wissenschaft entwickeln wir zunächst eine Hypothese oder einen Gedanken, der ein beobachtetes Naturphänomen, wie z.B. eine Erwärmung oder Abkühlung, erklärt. Der nächste Schritt ist der Versuch, dies zu widerlegen. Wenn das nicht gelingt, überlebt die Hypothese. Wir veröffentlichen, was wir getan haben, und andere versuchen, die Hypothese zu widerlegen; wenn auch sie das nicht schaffen, überlebt sie. Wenn dies lange genug so weitergeht, wird der Gedanke zu einer Theorie. Eine wissenschaftliche Theorie überlebt einfach, sie wird nie bewiesen, sie muss immer einer Prüfung unterzogen werden.

Wir haben bereits erwähnt, dass sieben der von Angus McFarlane und Kenneth Richard untersuchten Papiere darauf hinwiesen, dass CO2 eine globale Abkühlung verursachen könnte. Ein gutes Beispiel ist Sherwood Idsos Beitrag von 1984 im Journal of Climatology. Das Papier trägt den Titel [übersetzt] „Was ist, wenn ein Anstieg des atmosphärischen CO2 einen umgekehrten Treibhauseffekt hat?“ (Sherwood Idso, 1984). Idso spekuliert, dass zusätzliches CO2 die Pflanzen dazu veranlassen wird, in trockenere Gebiete zu ziehen, weil zusätzliches CO2 bewirkt, dass die Pflanzen weniger Wasser für ihr Wachstum verbrauchen. Idso glaubt, dass dies die Albedo (Reflexionsvermögen) der Erde so verändern könnte, dass die Temperaturen sinken. In ähnlicher Weise spekulierten Richard Lindzen und Yong-Sang Choi, dass zusätzliches CO2 die Luftfeuchtigkeit in den Tropen und damit die Bewölkung erhöhen würde (Lindzen & Choi, 2011). Extrem kleine Veränderungen der durchschnittlichen Bewölkung können tagsüber einen großen kühlenden Effekt haben.

Peter Webster präsentiert eine interessante Diskussion über Sherwood Idsos Arbeit in seiner Klimawandel-Studie „The Carbon Dioxide/Climate Controversy: Some Personal Comments on Two Recent Publications“ (Webster, 1984). Neben einer interessanten Diskussion über die Emotionen, die mit der Debatte über den vom Menschen verursachten Klimawandel verbunden sind, können wir aus Websters Diskussion und Idsos Papier ersehen, wie wenig wir wirklich über die Auswirkungen von zusätzlichem CO2 in der realen Welt wissen. Winzige Veränderungen in der Albedo der Erde, sei es durch Bewölkung oder durch die Verteilung von Pflanzen, können einen großen Unterschied machen.

Empirische Schätzungen der ECS (die Veränderung der Lufttemperatur aufgrund der Verdoppelung der CO2-Konzentration) haben nie mit theoretischen Berechnungen aus Klimamodellen übereingestimmt. Die empirischen Werte (wie die von Idso oder die von Lindzen und Choi) sind normalerweise nur etwa halb so groß wie die Modellschätzungen und können wie die von Idso sogar negativ sein. Dies ist wahrscheinlich, weil den Modellen etwas fehlt – u. A. vielleicht mögliche zukünftige Veränderungen der Albedo durch wechselnde Bewölkungsverhältnisse und die Verbreitung von Pflanzen.

This post is condensed and modified from my new book, Politics and Climate Change: A History.

To download the post bibliography click here

Link: https://wattsupwiththat.com/2020/11/05/global-cooling-will-kill-us-all/

Übersetzt von Chris Frey EIKE




Impfstoff: Viel Lärm um fast nichts

Was ist und wie wirkt BNT162b2?

BNT162b ist ein mRNA-Impfstoff. Ein Fragment der RNA des Virus wurde als mRNA in ein Lipid-Nanopartikel als Trägersubstanz eingebracht. Das Fragment kodiert für ein Stück Eiweiß, die Rezeptorbindungsstelle des SARS-CoV-2 Spike-Glykoproteins, mit dem sich das Virus an Zellen des Atemwegsepithels anheftet. Wenn man die Partikel intramuskulär spritzt, werden sie von Zellen aufgenommen. In den Zellen synthetisieren Ribosomen aus der mRNA das Eiweißfragment des Spike-Glykoproteins, das dann in kleinere Stücke zerlegt und von den Histokompatibilitätskomplexen MHC I und II an der Zelloberfläche dem Immunsystem präsentiert werden. Das Immunsystem reagiert darauf mit der Vermehrung passender T- und B-Zellen seiner zellulären und humoralen Komponenten, es bildet sich eine Immunität gegen das Eiweißfragment aus. Man kann die entsprechenden Antikörper gegen das Fragment im Serum des Blutes messen.

BNT162b2 wäre bei seiner Zulassung der erste mRNA-basierte Impfstoff; es gibt mit dem Nutzen-Risiko-Profil der Technologie noch keine breiten Erfahrungen. Die Hersteller haben aber zahlreiche Maßnahmen ergriffen, um die potenziell toxische Wirkung der mRNA auf den Organismus zu vermeiden (gründliche Aufbereitung der mRNA, um nur Einzelstrang-RNA zu erhalten, Verpackung in Lipidpartikeln).

Wie ist die klinische Studie aufgebaut, und was kam bisher raus?

Für BNT162b sind bei clinicaltrials.gov drei Studien gemeldet, zwei davon mit Kaukasiern (das sind die Menschen, die derzeit in Europa und Nordamerika noch die rassische Mehrheit bilden: Weiße) laufen, eine Studie für Japaner (die Asiaten des zahlungskräftigsten Marktes im fernen Osten), die notwendig ist, weil Rassen unterschiedlich auf Pharmaka reagieren, rekrutiert noch nicht.

Die laufenden, von der zuständigen US-Behörde FDA im Eilverfahren genehmigten Studien haben einen unkonventionellen Aufbau. Normalerweise werden die drei Phasen 1, 2 und 3 nacheinander und aufeinander aufbauend durchgeführt. In der Phase 1 wird die elementare Sicherheit und die Pharmakokinetik (Aufnahme, Verteilung und Metabolisierung) des Arzneimittels etabliert. In der Phase 2 wird festgesellt, ob und wie stark das Pharmakon hinsichtlich eines messbaren Endpunkts wirkt, in Phase 3 werden die Ergebnisse an einer großen Zahl von Patienten validiert. Jede Phase wird nur begonnen, wenn die vorherige Phase erfolgreich war; oftmals werden die Phasen noch aus Sicherheits- und Kostengründen unterteilt. Bei Krebsmitteln werden die Phasen 1 und 2 manchmal kombiniert, um sie schneller zu entwickeln.

Hier wurden, wohl um der globalen Corona-Panik gerecht zu werden, gleich alle drei Phasen kombiniert, ein bisher präzedenzloses und in vielerlei Hinsicht törichtes Vorgehen, da auf diese Weise das Nutzen-Risiko-Profil des Stoffes viel schlechter ermittelbar ist und für die Probanden erhöhte Risiken in Kauf genommen werden; das klassische Studienschema gibt es nicht umsonst, denn klinische Studien sind Menschenversuche, das darf man nie vergessen.

Bei BNT162b2 wurden alle Phasen zusammengelegt. Die wichtigsten zu untersuchenden Eigenschaften (Endpunkte) sind laut Studienprotokoll: Reaktionen an der Injektionsstelle, systemische Reaktionen wie Fieber, Kopfschmerz, Grippegefühl sowie sonstige (potenziell ernste) unerwünschte Wirkungen (auch solche, die man anhand paraklinischer Tests ermittelt), Anteil der Studienteilnehmer mit und ohne COVID-19-Erkrankung vor der Impfung, sowie – und zwar nur als sekundärer Endpunkt (!) – Antikörpertiter nach erster und zweiter Impfung und im weiteren Verlauf. Es gibt keinen Endpunkt zur Messung der klinischen Wirksamkeit des Impfstoffs, der Verhinderung einer Infektion. Eine solche Messung ist sehr aufwändig und nur über Jahre zu ermitteln, indem man Impflinge und lediglich mit Trägerstoff behandelte (nicht geimpfte) Probanden beobachtet und vergleicht. Man muss dann feststellen, ob tatsächlich weniger Impflinge als Vergleichsprobanden erkranken.

Eine solche prospektive Studie ist logistisch aufwändig und statistisch anspruchsvoll, da Dropouts (Patienten, die aus der Studie verschwinden, weil sie versterben oder sich einfach nicht mehr melden) und vor allem Krankheitsbilder genau festgestellt und verglichen werden müssen. Für klassische Erreger wie Masern, Mumps oder Röteln hat man das gemacht und Impfstoffwirkungen von 99,9 Prozent festgestellt, bei Influenza-Impfstoffen liegen die Quoten je nach Alter zwischen 5 und 25 Prozent, die alten Risikopatienten profitieren kaum.

In der Phase 1/2-Studie wurden zwei intramuskuläre Impfdosen à jeweils 10, 30 oder 100 Mikrogramm gegeben, im Vergleichsarm der Studien sind wie üblich mit Placebo behandelte Patienten. Die ersten Ergebnisse liegen bereits seit August vor. Es zeigte sich, dass BNT162b2 bei 45 Patienten gut verträglich war und zu einer starken Immunreaktion mit Bildung von Antikörpern gegen das Spike-Protein-Fragment führte, was aber nichts über die klinische Wirksamkeit aussagt. Weitere Ergebnisse wurden noch nicht publiziert.

Die Jubelmeldungen, die uns erreicht haben, beziehen sich nicht auf publizierte Studienergebnisse, sondern auf mündliche Mitteilungen von Pfizer und Biontech, die eine baldige Veröffentlichung der Daten ankündigen, denn die Messung der klinischen Wirksamkeit ist gar nicht Ziel der Studien und kann in so kurzer Zeit auch nicht durchgeführt werden.

Keine Erlösung vom Wahn

Der in den Medien berichtete Hype wird sich sicherlich noch einmal verstärken, wenn die Studiendaten vorliegen, denn Uğur Şahin, der Chef von Biontech, wäre kaum vor die Presse getreten, wenn er die Daten nicht hätte. Doch wissen wir aufgrund der Antikörpertiter nichts über die klinische Wirksamkeit. Diese dürfte allenfalls moderat sein wie bei Influenza, obwohl Coronaviridae immerhin langsamer mutieren als diese, was Hoffnung gibt, dass die Wirksamkeit des Impfstoffs besser sein könnte. Das werden wir jedoch erst in einigen Jahren wissen, genauso lange wird es noch dauern, bis man weiß, wie oft der Impfstoff zu schweren Nebenwirkungen (Impfunfällen) führt, wie riskant er also ist. Ein gewisses Risiko besteht, da RNA im Extrazellulärraum sehr toxisch ist.

Vielleicht planen unsere Politiker und ihre Qualitätsmedien mit der Zulassung des Impfstoffs aber auch, den „Krieg gegen das Virus“ für gewonnen zu erklären – egal wie wirksam er ist. Wir werden es sehen.

Viel wichtiger ist es für uns alle aber, sich klarzumachen, dass SARS-CoV-2 lediglich eine etwas geringere Letalität als Influenza hat und epidemiologisch bedeutungslos ist: Durch SARS-CoV-2 hat sich die weltweite Zahl der Viruspneumonietoten pro Jahr nicht verändert. Es ist einfach nur ein weiterer Erreger grippaler Atemwegsinfekte zu den Dutzenden, die wir schon haben, hinzugekommen, und hat dafür andere ein wenig vom Futtertrog der infizierbaren Wirte verdrängt. Die Leute, die an SARS-CoV-2 sterben, sind zu weit über 99 Prozent alt und so schwer krank, dass sie 6 bis 12 Wochen nach dem Tod an COVID an etwas Anderem gestorben wären (das ist der Zeitraum, nach dem die ohnehin sehr geringe Übersterblichkeit eines Erkrankungsgipfels verschwindet). Bei ihnen ist COVID eine natürliche Todesursache. Ihnen hilft der Impfstoff nicht. Ob er den Anderen wenigsten nicht schadet, werden wir in den nächsten Jahren erfahren. Ich werde nächste Woche 50 und lasse mich nicht impfen, obwohl ich bei wirksamen Impfstoffen ein Impffanatiker bin und so ziemlich alle Impfungen frisch habe, die in unseren Breitengraden wirksam sind.

 

Der Autor ist Arzt,  Mathematiker und Publizist.

Der Beitrag erschien zuerst bei ACHGUT hier




Sie wollen zuverlässigen Strom? – Sie schädigen unseren Planeten!

Laut Hughes kann „für diejenigen, die ernsthaft über den Klimawandel besorgt sind, das Gegenteil – die Forderung nach elektrischer Kontinuität – das eigentliche Problem sein.“

 Ja, Sie haben richtig gelesen, der Wunsch, rund um die Uhr Strom zur Verfügung zu haben, ist die Ursache unserer globalen Klimakatastrophe, und wir müssen lernen, mit intermittierender Energie zu leben, wie die glücklichen Camper von Simbabwe und Puerto Rico, die „Modelle für das liefern, was wir als pausenreiche Elektrizität bezeichnen könnten“.

Und wer wird zuerst auf die neue Stromdiät gesetzt? Sie fragen noch- Sie sind es, Sie mit dem Einfamilienhaus sind Umwelt Ketzer. Hughes erklärt: „… Jeder Haushalt, der kontinuierlichen Strom benötigt, verschärft die Klimakrise geringfügig. Vielleicht ist es dann entscheidend, dass wir keine Energie für diese Häuser speichern. Zumindest sollten wir dies nicht so tun, dass der Übergang weg von fossilen Brennstoffen behindert wird. Wir sollten in Betracht ziehen, einige Jahre auf die Stromspeicherung zu warten – und dabei jedes Jahr mehr als sechs Stunden Ausfallzeit zu haben – um schneller von fossilen Brennstoffen wegzukommen.

Sicherlich können Sie mit „ein paar Jahren“ intermittierender Stromausfälle und Stromabschaltungen umgehen, richtig, Vorstädter?

Diese Agenda der  Energierationierung wurde bisher durch eine Vielzahl falscher Versprechungen verborgen, die den Wechsel zu erneuerbaren Energien erleichtern würden. Uns wurde gesagt, dass sich Batterien so schnell anpassen werden, dass wir Wind- und Sonnenenergie aufbauen können, während konventionelle Kraftwerke verdorren und sterben, und jeder wird seinen Kuchen haben und ihn auch essen [müssen]! Leider ist die Realität der Beschränkungen  von Batteriespeichern für Menschen, die Tag für Tag mit der  Realität von Batterien konfrontiert sind, einfach zu offensichtlich: Sie werden mit der Zeit nicht viel besser. Mark Mills vom Manhattan Institute weist darauf hin:

[die Übersetzung belässt pound ~ Pfund, was in der genauen Gewichtsbestimmung unerheblich ist, hier geht es nur um die Verhältnisse der Massen]

  • Etwa 60 Pound Batterien werden benötigt, um das Energieäquivalent von einem Pfund Kohlenwasserstoffen zu speichern.
  • Für jedes hergestellte Pound Batterie werden mindestens 100 Pfund Material abgebaut, bewegt und verarbeitet.
  • Für die Speicherung des Energieäquivalents eines Barrels Öl mit einem Gewicht von 300 Pound sind 20.000 Pound Tesla-Batterien (im Wert von 200.000 US-Dollar) erforderlich.

Um das Energieäquivalent des Flugkraftstoffs zu transportieren, der für einen Flug nach Asien notwendig ist, wären Tesla-Batterien im Wert von 60 Millionen US-Dollar erforderlich, die fünfmal so schwer sind wie überhaupt dieses Flugzeug.

Und selbst Hughes gibt jetzt zu, dass die Herstellung von Batterien umweltschädlich ist, und Umweltschützer wollen nicht, dass Sie diese herstellen, selbst wenn Sie könnten. Schließlich werden Batterien nicht einfach geerntet:

[Die Entwickler von] Lithium-Ionen-Batterien versuchen, diese Eigenschaften zu überwinden, [letztere] verursachen jedoch eigene Probleme. Wie die meisten Formen des Bergbaus produziert die Lithiumgewinnung Toxine, die in diesem Fall den einheimischen „Down-winders“ in Chile auferlegt werden. [~die in der giftigen Abluft leben]. Ebenso wie der Bergbau konzentriert der Lithiumhandel Macht und Reichtum in den Händen weniger Unternehmen. Dieser Prozess wird manchmal als „Engpass“ bezeichnet und wandelt eine zu gewinnbringende Ressource – wie Sonnenlicht – in eine knappe und lukrative Ware um. Nicht einmal der Umweltretter Elon Musk ist vor Missbrauch sicher, denn Tesla scheint „auf dem richtigen Weg zu sein, einen kontrollierenden Anteil an jedem an Elektrofahrzeuge angeschlossenen Smart Grid zu erlangen. Die Powerwall-Batterie ist weniger konkurrierend mit weniger toxischen Technologien und könnte sich möglicherweise mit Software kombinieren, die als „Demand Response“ bezeichnet wird.

Die Moral dieser Geschichte lautet: Wenn die Typen Ihnen „grüne“ Energie, „grüne Wirtschaft“ und „grüner New Deal“ sagen, ist alles, was sie wirklich wollen, dass Sie weniger davon haben. Weniger Quantität, weniger Zuverlässigkeit, weniger Erschwinglichkeit und weniger Flexibilität der Verbraucher. Und denken Sie daran, wenn Sie das nächste Mal zur Wahlurne gehen dürfen.

 

Autor

Kenneth Green studiert seit über 20 Jahren Energie- und Umweltpolitik an marktwirtschaftlichen Think Tanks in Nordamerika. Er hat einen Doktortitel in Umweltwissenschaften und -technik von der UCLA und verfasste mehr als 850 Veröffentlichungen.

https://www.cfact.org/2020/11/01/reliable-electricity-bah-humbug-kpg/

Übersetzt durch Andreas Demmig




Wo ist die Grippe geblieben?

Ein Kollege hat mich auf die WHO-FluMart aufmerksam gemacht. Sie finden auf dieser offiziellen WHO-Seite eine weltweite Influenza-Erhebung bezüglich der Grippehäufigkeit. Eine Standardisierungsplattform vieler Quellen, Labore, nationale Erhebungen etc. zum Thema Grippe. Wie man sich das vorstellen muss, zeigt diese Grafik. Dort ist die Influenza ab Frühjahr dieses Jahres einfach verschwunden. Dies war in keinem der vorangehenden Jahre der Fall. Die Influenza überlebt auf niedrigem Niveau im Sommer, um dann meist im Herbst wieder anzusteigen.

Wer es genau wissen und sehen will, muss leider folgenden komplizierten Weg gehen (oder einfach einen Absatz weiter unten weiterlesen). Da es keine direkte Verlinkung zu den Grafiken gibt, müssen Sie selbst bitte Folgendes tun: Folgen Sie diesem Link. Es öffnet sich eine Seite mit vier Feldern, die interaktiv sind.

Wählen Sie im 1. und 3. Feld jeweils 2020 und im 2. Feld: KW1 und im 4. Feld: KW 53. Wenn sie dann auf Display report klicken, dann sehen Sie eine Grafik, die die Messungen aller bekannten Influenzastämme weltweit darstellt und zwar ab der 1. Woche 2020 bis aktuell. Man erkennt, ab KW 13 wurden kaum noch Influenzafälle gemeldet und ab KW 17 gar keine mehr – bis heute. Tun Sie das Gleiche, indem Sie andere Jahre einstellen. Beispielsweise im 1. und dem 3. Feld das Jahr 2019. Und danach jeweils 2018 und so weiter.

Nun stellt sich die Frage: Gibt es eine plausible Erklärung dafür, dass nur im Jahr 2020 die Grippe ab KW 17 weltweit verschwunden ist? Die großen Medien stellen diese Frage meinem Überblick nach gar nicht erst.

Man warnt lieber alarmistisch vor der nächsten Grippewelle, und das mit den Bildern aus 2018. Damals war in der Tat eine echte Übersterblichkeit in Deutschland zu verzeichnen, und man konnte tatsächlich überall in Deutschland Betten auf den Gängen sehen, weil die Zimmer belegt waren. Doch war dies kaum eine Schlagzeile wert, geschweige denn kam jemand auf die Idee, einen Lockdown zu verhängen. Warum auch, es war ein mittelschweres, medizinisches Problem, welches einer medizinischen Diskussion von Fachleuten bedarf und besser gelöst werden sollte. Vorschläge dazu finden Sie weiter unten. Die eigentliche Frage bezüglich der Grippe lautet derzeit jedoch, ist es wirklich realistisch, dass sie seit Frühjahr komplett verschwunden ist, oder sind vielleicht ein Teil der als Covid gezählte Patienten in Wirklichkeit Grippefälle?

Auch scheint keinem der Verfasser solcher Grippe-Beiträge aufzufallen, dass sie in ihren Berichten indirekt zugeben, dass die Virensaison in Deutschland etwa 2018 viel schlimmer war als die Situation heute, etwa hier. Damals herrschte eine echte Übersterblichkeit, im Gegensatz zu heute. Das könnte Anlass sein, etwas beruhigter zu sein und für die Frage, ob die Maßnahmen überzogen und aufgrund ihrer Willkürlichkeit eine unzulässige Einschränkung unsere Grundrechte darstellen.

Viel dringlicher ist es, nach Lösungen innerhalb des Gesundheitssystems zu suchen. Wie beispielsweise die Ergänzung vieler Pflegeheime mit einer geriatrischen, palliativ ausgerichteten Intensiv-Pflegeabteilung unter ständiger ärztlicher Überwachung. Das würde viel besser dafür sorgen, dass alte Menschen ihr Lebensende nicht vereinsamt und getrennt von ihren Angehörigen an dem gefährlichsten Ort, in den sie verlegt werden können, verbringen müssen. Das Problem nosokomiale Infektionen bringt nach RKI-Schätzung 10.000 bis 20.000 Menschen jährlich in Deutschland um, in südlichen Ländern noch mehr. Hauptansteckungsort: die Intensivabteilung.

Die Behandlung ist Teil der Übersterblichkeit

Allerdings haben die Niederlande das Problem der nosokomialen Infektionen besser im Griff, aber dennoch verhältnismäßig mehr Covidtote zu verzeichnen. Ich persönlich glaube, dass alte Menschen mit Lungenentzündung vor allem durch eines bedroht sind, die viel zu frühe Intubationsnarkose bei Einweisung in ein Krankenhaus. Wie mir erfahrene Leiter von Lungenkliniken mitteilen, scheint das Problem der zu frühen Intubationsnarkose bei Viruspneumonien immer noch nicht durchgedrungen zu sein.

Es ist insbesondere für notärztlich sozialisierte Anästhesisten eine ungewohnte Vorstellung, bei einer sehr niedrigen Sauerstoffsättigung, aber Ansprechbarkeit des Patienten, von einer Intubation abzusehen. Eine Einstellung, die bei Unfallopfern Leben rettet. Bei einer viral geschädigten Lunge jedoch ist es ganz offensichtlich besser, abzuwarten, auch bei beängstigend niedriger Sauerstoffsättigung. Nach drei Tagen sei dann das Gröbste ausgestanden. Dazu braucht es keine Intensivabteilung, nur aufmerksames Pflegepersonal und einen Arzt vor Ort, der, falls die Ansprechbarkeit nicht mehr gegeben ist, dann die invasive Beatmung zügig durchführt.

Erfahrene Klinikleiter, die lungenfachärztlich geprägt sind, berichten mir, dass eine Verlegung auf Intensiv dann nur sehr selten notwendig wird und die kritische Phase allermeist nach 3 Tagen überstanden ist. Wer jedoch mit virengeschädigter Lunge invasiv beatmet wird, stirbt sehr häufig oder kommt meist nicht mehr gesund von der Beatmung los. Die schnelle Intubation scheint vor allem in den Ländern üblich zu sein, in denen auch eine Übersterblichkeit gemessen wird. Die Corona-Todesraten bei Intubation betragen in Wuhan 97 Prozent, in New York 80 Prozent und in Deutschland 54 Prozent. Die schnelle Intubation ist wohl besonders auch in Frankreich üblich. Diese Zahlen habe ich mündlich von Lungenärzten, eine entsprechende Publikation ist in Vorbereitung. Das wirklich Ärgerliche ist ein typisches Verhaltensmuster von leitenden Medizinern, auch bekannt als Semmelweis-Reflex.

So werden anscheinend aktuell Angebote, dieses Problem hochkompetent vor einem größeren Kreis vorzutragen, abgelehnt, mit dem Hinweis, dies würde nur verwirren. Es ist durchaus zu vermuten, dass die erhebliche Übersterblichkeit 2018 in Deutschland mit geschätzten 25.000 Toten zum Teil auf dieses antiquierte Revierverhalten zurückzuführen ist. Ich muss zugeben, dass mir dies auch nicht ausreichend bewusst war.

Grippesituation in Deutschland

In Deutschland erfasst das Robert-Koch-Institut im extra dafür entwickelten Projekt GrippeWeb die Situation. Dort werden Stichproben erfasst, um dann eine belastbare Vorstellung des aktuellen Grippeverlauf des jeweiligen Jahres zu bekommen.

Im Wochenbericht KW 43 kann man lesen.

„Die geschätzte Rate der die für die Bevölkerung in Deutschland neu aufgetretenen, akuten Atemwegserkrankungen (ARE) ist in der 43. Kalenderwoche (KW) (19.10. – 25.10.2020) gesunken ist. Die Rate der grippeähnlichen Erkrankungen (ILI, definiert als ARE mit Fieber) ist im Vergleich zur Vorwoche ebenfalls gesunken. Alle Proben werden am RKI auf 21 verschiedene Atemwegserreger, darunter Influenzaviren und SARS-CoV-2, untersucht. Bisher sind 299 Probenpaare am RKI eingegangen (Datenstand: 26.10.2020). In keiner Probe wurden bisher Influenzaviren nachgewiesen.“

Dieser Bericht spricht dafür, dass die Schutzmaßnahmen die Ausbreitung von Krankheitserregern relevant eindämmen. Influenza ist nicht gefunden worden.

In den Sentinelberichten entwickeln sich aktuell die SARI und ARE Fälle so:

„Die Aktivität der akuten Atemwegserkrankungen (ARE-Raten) in der Bevölkerung (GrippeWeb) ist in der 44. KW 2020 im Vergleich zur Vorwoche bundesweit stabil geblieben. Im ambulanten Bereich (Arbeitsgemeinschaft Influenza) wurden im Vergleich zur Vorwoche insgesamt mehr Arztbesuche wegen ARE registriert, die Werte befinden sich insgesamt über den Werten der Vorsaisons. Im Rahmen der ICD-10-Code basierten Krankenhaussurveillance schwerer akuter respiratorischer Infektionen (ICOSARI) lagen validierte Daten bis zur 43. KW 2020 vor. Die Gesamtzahl stationär behandelter Fälle mit akuten respiratorischen Infektionen (SARI-Fälle) ist stark angestiegen. Dabei ist der Anteil an COVID-19-Erkrankungen bei SARI-Fällen weiter deutlich angestiegen und lag in der 43. KW 2020 bei 32%.“ 

Dieser Bericht spricht nun gerade nicht dafür, dass die Schutzmaßnahmen die Ausbreitung von infektiösen Atemwegserkrankungen relevant eindämmen. Wie im Frühjahr übrigens auch. Das widerspricht dem Grippeweb aus gleichem Hause. Der Grund hierfür ist für mich unklar.

Bezüglich der Influenza liest man weiter im Sentinel-Wochenbericht:

„Im Nationalen Referenzzentrum (NRZ) für Influenzaviren wurden in der 44. KW 2020 in insgesamt 21 (51%) der 41 eingesandten Sentinelproben respiratorische Viren identifiziert, darunter 19 (46%) Proben mit Rhinoviren und zwei (5%) Proben mit SARS-CoV-2. Influenzaviren wurden nicht nachgewiesen. Aufgrund der geringen Zahl eingesandter Proben ist keine robuste Einschätzung zu derzeit eventuell noch zirkulierenden Viren möglich. Für die 44. Meldewoche (MW) 2020 wurden nach Infektionsschutzgesetz (IfSG) bislang 14 labordiagnostisch bestätigte Influenzafälle an das Robert Koch-Institut übermittelt (Datenstand: 3.11.2020). … Im europäischen Influenzanetzwerk berichteten 24 Länder (darunter Deutschland) für die 43. KW 2020 eine Influenza-Aktivität unterhalb des nationalen Schwellenwertes, drei Länder berichteten über eine niedrige Influenza-Aktivität. Für die 43. KW 2020 wurden in zwei (1%) von 236 Sentinelproben Influenzaviren detektiert.“ 

Demnach ist die Influenza-Aktivität in Deutschland derzeit sehr niedrig.

Aus meinem Netzwerk: Ein Chefarzt eines sehr großen Krankenhauses berichtet auf die Frage, ob die Influenza verschwunden ist:

„Nein, habe genügend ambulante Patienten, bei denen eine (Influenza) gefunden wurde, ich denke vor lauter Covid wird nicht dokumentiert, denke (weiß nicht) aber auch, dass durch Schutzmaßnahmen insgesamt weniger Influenza Fälle auftreten, sehe auch weniger „Grippe-Kranke“ im Zentrallabor.

Doppelinfektionen sind nicht ausgeschlossen, aber normalerweise wird bei „Grippe“ ja auch kein Influenza Test gemacht, man geht zum Hausarzt … Interessant, dass im Frühjahr weniger Antibiotika verschrieben wurden und keine vermehrten Toten durch bakterielle Pneumonie auffielen.“

Ein Epidemiologe schreibt dazu:

„Immerhin fast keine Influenzaviren. Die einfachen resp. Infekte sind endemisch. Die Influenza kommt oft aus dem Ausland, und da gibt es ungleich weniger Kontakt!“

Influenza weltweit

Ich halte es für ausgeschlossen, dass die Influenza zu Gänze seit der KW 17 verschwunden ist. Das Problem ist, dass virale Atemwegserkrankungen klinisch kaum voneinander zu unterscheiden sind. Alles, was zu Covid geschrieben wird, lässt sich auch auf Influenza übertragen, von den Symptomen wie zu den Langzeiteffekten. Die Diagnose Covid-19 ist definitiv nicht über den Test zu stellen, sondern klinisch zunächst über Symptome einer schweren Atemwegsinfektion, und dann anhand des einzigen wohl typischen Befundes: typische Infiltrate der Lunge, erkennbar nur im Rahmen eines CTs. Ein Herzinfarktpatient oder ein Unfallopfer ohne Lungenentzündung liegen definitiv nicht wegen Covid im Krankenhaus. Es ist grob irreführend, diese nur aufgrund eines positiven Tests als Covid-Patient zu listen.

Doch welche Länder haben ausreichend Computertomographen in jedem Krankenhaus, um für jeden Patienten die Diagnose Covid-19 durch den typischen CT-Befund abzusichern. Das dürfte in Ländern wie Brasilien, Indien, vielleicht auch Spanien und sicher in den County-Hospitals in den USA, wo die Nichtversicherten behandelt werden, eher die Ausnahme sein. Stimmt die WHO-Grippestatistik, ist die plausibelste Erklärung für das „Verschwinden“ der Grippe, dass weltweit viele Covid-Kranke in Wirklichkeit eine Grippe haben.

Fazit und Ausblick

In Deutschland ist die Rate an Influenzainfektionen derzeit niedrig. Die Annahme erscheint dennoch logisch, dass weltweit sehr viele als Covid-Patienten gezählte Erkrankte, sogar dann, wenn sie eine Lungenentzündung haben und/oder einen positiven SARS-CoV-2 Test aufweisen, kein Covid-19 haben, sondern aufgrund von Influenza symptomatisch wurden. Vereinzelt wird dies auch für Deutschland gelten.

Ceterum censeo: In keiner Weise, ganz egal unter welchen Maßnahmen auch immer, liegt in Deutschland medizinisch 2020 eine außergewöhnliche Situation vor. Ein Thema, welches ausschließlich anhand harter Statistik zu diskutieren ist. Punktuelle Überlastungen sind dagegen das tägliche Brot der Medizin in den Wintermonaten und systembedingt ganz und gar nicht außergewöhnlich. Entsprechende, hoch emotionalisierte Einzelberichte verstellen den Blick aufs Ganze. Viel geeigneter ist diese aktuelle Belegungsstatistik der Helioskliniken, die für 89 Krankenhäuser steht. Es spricht für sich, wenn ich den Verantwortlichen Mut konstatieren muss, diese zu veröffentlichen. Denn der geringe Covid-Anteil an der Belegung konterkariert die Panik.

Schauen sie insbesondere auf die obigen drei nebeneinanderstehenden Kästen. Die ersten beiden repräsentieren die harten Endpunkte Krankenhausbelegung in Bezug auf Normalstation und Intensivstation. Während der dritte Kasten lediglich den Ersatzparameter positive Testergebnisse repräsentiert. Dieser wird allgemein immer noch irreführend als Fälle aufgeführt und ohne Bezug zu einer belastbaren repräsentativen Aussage.

Die Belegungszahlen sind auch gar nicht das eigentliche Problem. Eine außergewöhnliche Situation entsteht allein durch die Panik, die symptomatische Menschen viel zu schnell in die Krankenhäuser treibt, den ständigen Quarantäneausfall positiv getesteten, aber symptomfreien Personals und die unglaublich schweren Arbeitsbedingungen infolge vermehrt unter Quarantänebedingungen zu pflegender Patienten, wo alleine schon eine einfache Blutabnahme wegen der Schutzmaterialien eine Stunde in Anspruch nimmt.

Das Positive

Die Medizin kann durch den Druck einer, meiner Meinung nach, künstlich geschaffenen, außergewöhnlichen Situation auch lernen:

1. Am dringendsten müssen wir darüber nachdenken, wie wir zukünftig besser mit viralen Atemwegserkrankungen bei alten, insbesondere pflegebedürftigen Menschen umgehen. Die wohl sinnvollste Antwort: Ergänzung der Pflegeheime mit einer geriatrischen, palliativ ausgerichteten, intensivmedizinischen Abteilung. Dies würde Unmengen von Krankenhausbetten ersetzen, wo immer noch alte Menschen viel zu invasiv behandelt werden mit dem hohen Risiko eines unwürdigen Todes. Wir dürfen uns diesem Drama, welches uns allen irgendwann droht, nicht verschließen durch wohlfeiles Euthanasiegefahr-Gerede.

2. Wie behandeln wir eigentlich Atemwegsinfektionen in der Hausarztpraxis? Offensichtlich ambulant immer noch viel zu häufig mit Antibiotika. Außerdem, das beziehe ich auch auf mich, haben viele Ärzte bisher zu sorglos infektiöse Patienten im Wartezimmer mit Nichtinfizierten auf engstem Raum platziert, anstatt sie voneinander zu trennen. Diese Trennung hat die Corona-Krise erzwungen, und dies sollte auch beibehalten werden.

3. In den Krankenhäusern sollte Revierverhalten und Semmelweis-Reflex schleunigst überwunden werden, um die Erkenntnisse der Pulmologie zum Thema stationäre Behandlung von Viruspneumonien durchzusetzen. Das wird zukünftig viele Leben retten. Wohin mit den unnötig bestellten Beatmungsgeräten? Das ist eine andere Frage.

4. Wir Ärzte müssen viel stärker als bisher darauf drängen, dass unsere medizinischen Funktionäre und Behördenleiter eine Grundkompetenz und -motivation besitzen, die es ihnen ermöglicht, frühzeitig und klar gegen panische Fehlentwicklungen im Namen der Gesundheit einzuschreiten. Vor allem, bevor die Deutung politisch-medial zementiert und die Wirklichkeit ausgeblendet wird. Wir dürfen es nicht zulassen, wenn angeblich im Namen der Gesundheit Grundrechte und Demokratie beschädigt werden. Das gilt auch dann, wenn eine schlechte Politik nicht mehr unmittelbar zu stoppen ist. Denn es wird wesentlich für den Ausgang juristischer Klagen sein, wenn sich möglichst viel Kompetenz frühzeitig öffentlich positioniert hat. In diesem Sinne Respekt vor den Kollegen, die dieses Positionspapier mit Unterstützung so vieler Fachgesellschaften initiiert haben.

Auch wenn nun versucht wird, die Verfasser in üblicher Weise zu desavouieren, solche öffentlichen Positionierungen sind, wie alle ärztlichen Aufrufe zur Vernunft, immens wichtig.

Nachtrag:

Thomas Maul machte mich auf folgende bemerkenswerte Statistik der zentralen amerikanischen Gesundheitsbehörde CDC aufmerksam. Offiziell werden dort, Stand 10.11.2020, 220.199 „Corona-Tote“ gezählt. (https://www.cdc.gov/nchs/nvss/vsrr/covid19/index.htm) Ganz abgesehen von den Begleiterkrankungen, sie wissen „mit oder an“, wiesen diese Verstorbenen den kritischen Verlauf einer Lungenentzündung ohne Influenza (sic) in einer Zahl von 101.119 auf. Von den anderen 119.000 Toten hatten 94.277 auch eine Influenza Infektion. Wie Influenza ermittelt wurde, z.B. durch einen Test, ist mir nicht bekannt. Das legt den Schluss ziemlich nahe, dass es einen beträchtlichen Anteil an Grippetoten unter den offiziell an Corona-Verstorbenen in den USA gibt. https://www.cdc.gov/nchs/nvss/vsrr/covid_weekly/index.htm#Comorbidities

In eigener Sache:

Manche Leser merken bei meinen Beiträgen an, dass diese zu lang und damit schwer zu lesen sind, manche wiederum finden die Fülle von Information und Aspekten gut. Ich versuche mich kurz zu fassen, was zugegebenermaßen nicht immer gelingt. Im Zweifel geht es im Moment vor allem um breite Information, weil sie in den etablierten Medien einfach fast nur noch einseitig in Form von Panikmache vorkommt. Wenn es nur um meine Deutung der aktuellen Corona-Krise ginge, könnte ich dies in fünf Sätzen ausdrücken. Aber ohne Anspruch, die einzig richtige zu sein.

Deswegen möchte ich Ihnen die Chance geben, eine eigene Deutung zu finden aufgrund der zur Verfügung gestellten Informationen (wenngleich ich mir manchmal Klartext nicht verkneifen kann). Deswegen die Länge. Ich bitte auch zu bedenken, dass dies irgendwo zwischen Sprechstunde und Einschlafen erfolgt, also nebenberuflich. Wäre die Zeit grenzenlos, wären noch tiefergehende Analysen möglich. Ich finde jedoch, dass das, was man in wenigen Stunden recherchieren kann, völlig ausreicht, um das Irrationale der jetzigen Situation deutlich zu machen.

Auch meinen einige Leser, das Ganze sei prinzipiell verlorene Liebesmüh, da die, die es lesen müssten, dies eh nicht tun würden. Das stimmt wahrscheinlich, aber ich bin nun mal Optimist und möchte diesen Fatalismus nicht teilen. Sicher bewirken Berichte wie die meinen kurzfristig wenig. Aber seien Sie gewiss, die Wenigsten, die für den Murks des aktuellen Krisenmanagements verantwortlich sind, sind bösartige, totalitäre Schweinehunde. Vielmehr sitzen sie, aus Gründen, wie ich sie in meinem Moralismus-Beitrag beschrieben habe, in Bezug auf ihre Qualifikation einfach am falschen Platz.

Sie sind komplett überfordert. Ich bekomme so viele ganz hervorragende Rückmeldungen zu meinen Berichten mit eindrücklichen Schilderungen von Kollegen aus Ämtern und Ministerien, die diese Inkompetenz und die Feigheit ihrer obersten Vorgesetzen eindrucksvoll schildern. Dies deckt sich mit meinen Erfahrungen mit Teilnehmern aus Talkshows und Hintergrundgesprächen. Der Fall Stephan Kohn steht exemplarisch für die Unfähigkeit und Feigheit der Vorgesetzten eines gesamten Ministeriums.

Das bedeutet: dranbleiben. Nicht in die eigene Panik-Frustrations-Falle laufen. Wir leben in einer Demokratie, und wir haben eine leistungsfähige Justiz, wenn auch zu häufig mit Schlagseite. Doch die vielen juristischen Rücknahmen von Corona-Maßnahmen stimmen hoffnungsvoll, sind sie doch eine Ohrfeige für die Politik. Auch werden die Klagen gegen Facebook von Achgut stets gewonnen, dank Joachim Steinhöfel und den finanziellen Unterstützern.

Gegen Inkompetenz wird sich sachliches Dagegenhalten, wo immer man ist, langfristig auszahlen. Corona bietet eine große Chance für einen allgemeinen Stimmungsumschwung, weg von Moralismus hin zu Vernunft. Ich wage mich mal vor: Spätestens im Frühjahr werden die meisten das Panik-Inkompetenz-Corona-Krisenmanagement am eigenen Leib spüren, finanziell und psychologisch. Sie werden zunehmend fragen, wozu eigentlich. Dann wird die Bereitschaft, die wirklichen Zahlen endlich wahrzunehmen, deutlich zunehmen. Die Mühlen der Demokratie mahlen langsam, aber sie mahlen.

Der Beitrag erschien zuerst bei ACHGUT hier




Die Elektrifizierung des Krieges

Bei diesen Gegnern hat man es weniger mit Kalaschnikows und „Panzerfäusten“, sondern mit präzisen Mittelstreckenraketen, einer funktionstüchtigen Luftabwehr und elektronischer Kriegsführung zu tun. Das alles vor allem in den Weiten des Pazifiks – für Amerikaner tauchen dabei sofort die Trauma von Perl Harbor, den Philippinen und dem blutigen „Inselhopping“ auf dem Weg nach Japan auf. In einer breiten Allianz zwischen den Parteien im Kongress und Senat ist bereits der Umbau der Teilstreitkräfte eingeleitet worden. An dieser Stelle kommt die Kernenergie mit riesigen Schritten ins Laufen.

Die Rolle der Stützpunkte

Stützpunkte (Flugbasen, Häfen etc.) haben den Bedarf von Kleinstädten an elektrischer Energie und Wärme. Sie müssen auch und gerade im Krieg sicher versorgt werden. Um welche finanzielle Größenordnung es sich dabei dreht, sieht man an den Energiekosten von 3,4 Milliarden US$ des US-Militärs (Fiskaljahr 2018) für seine 585 000 Einrichtungen und seine 160 000 Unterstützungsfahrzeuge. Damit im Kriegsfall diese Einrichtungen und die kämpfende Truppe sicher versorgt werden können, ist ein erheblicher logistischer Aufwand nötig. Nicht nur das, in den neun Jahren des Irak- und Afghanistan-Krieges sind 52% aller Opfer (18 700 Kriegsopfer) bei den Versorgungsfahrten eingetreten. Eine typische vorgeschobene Basis mit einer Grundlast von 13 MWel benötigt 16 000 Gallonen Diesel täglich. Das entspricht allein etwa sieben Tankwagen täglich. In den Weiten des Pazifiks unter feindlichen U-Booten und dem Beschuß durch Präzisionsmunition kaum zu leisten. Hier kommt die Idee des Einsatzes von Kernreaktoren. Durchaus keine neue Idee, aber mit neuer Technologie und neuen Randbedingungen.

Wie gewaltig die Stückzahlen sind, ergibt eine Studie der US-Army. Man hat zahlreiche Stützpunkte untersucht und kommt zum Schluß, daß man etwa 35 bis 105 Reaktoren mit einer elektrischen Leistung von 10 MWel und 61 bis 108 Reaktoren mit 5 MWel benötigt. Parallel hat das DOD („Verteidigungsministerium“) eine Untersuchung der Einrichtungen „in der Heimat“ (continental United States (CONUS)) durchgeführt. Es kommt zum Schluß, es sind 500 (!) Mini-Reaktoren sinnvoll. Abgesehen von den Einrichtungen in abgelegenen Regionen, werden die meisten Anlagen aus den öffentlichen Netzen versorgt. Man ist aber besorgt, daß die öffentlichen Netze immer anfälliger werden (Naturkatastrophen, Wind und Sonne etc.). Versorgungssicherheit ist aber für eine moderne Armee mit Radaranlagen, Raketenabwehr und totalem Kommunikationsanspruch überlebenswichtig. Im zweiten Weltkrieg konnte man notfalls einen Flugplatz noch mit Petroleumlampen betreiben – eine Abwehr von Interkontinentalraketen ohne Strom für das Rechenzentrum und das Phasenradar ist so wertvoll wie eine Steinaxt. Insofern stellen sich hier notwendige Investitionen anders dar: Da die Versorgungssicherheit im Vordergrund steht, muß auch beim Bezug „billiger Energie“ aus dem öffentlichen Stromnetz trotzdem die volle Leistung über Dieselanlagen vorgehalten werden.

Laserwaffen etc.

Seit dem (in Deutschland verlachten) „Krieg der Sterne“ Programm von Ronald Reagen, wird die Entwicklung von Hochenergie-Lasern mit Hochruck vorangetrieben. Die Klasse unter einem kW geht bereits an die Truppe, die Klasse bis 150 kW ist in der Erprobung. Die erste Anlage zur Abwehr von Drohnen ist bereits auf einem Schiff im Golf im Einsatz. Drohnen sind sehr billig und effektiv, wie man spätestens nach dem Einsatz durch den Iran gegen Ölanlagen in Saudi Arabien feststellen mußte. Weil sie so billig sind, kann man durch einen Sättigungsangriff schnell auch modernste Luftabwehr überfordern. Als Gegenmaßnahme bleiben nur Laser zum Schutz der Anlagen im Nahbereich – ohne teuere Raketen, sondern nur mit „Energie“.

Ein weiterer Schritt sind Geschütze (rail gun), die massive Geschosse mit mehrfacher Schallgeschwindigkeit über große Entfernungen sehr präzise verschießen. Die erste Installation sollte auf den Zerstörern der Zumwalt-Klasse erfolgen. Dies sind vollelektrische Schiffe, die ein Gasturbinenkraftwerk zur wahlweisen Energieversorgung besitzen. Dieses Konzept hat sich aber nicht bewährt, da die elektrische Belastung (Trägheit des Bordnetzes durch An/Abschaltung so großer Leistungsspitzen, Wellenbildung im Bordnetz usw.) die gesamte Stromversorgung des Schiffes gefährdet. Man favorisiert z. Zt. deshalb sogar auf Schiffen separate „Mini-Reaktoren“.

Die Elektromobilität

Fahrzeuge mit Elektroantrieb besitzen zwei militärische Vorteile: Sie sind leise und haben nur sehr geringe Abwärme – sind also nur schwer zu orten. Erste Kleinlaster für den Einsatz bei Spezialeinheiten sind mit Elektroantrieb in der Erprobung. Grundsätzlich gilt auch hier, der Bedarf an elektrischer Leistung für Elektronik und (später) Bewaffnung nimmt stetig zu. Im Moment deutet sich deshalb ein Übergang zu hybriden Antriebssystemen an. Der immer größer werdende Bedarf an elektrischer Energie soll dann bei Stillstand (teilweise) aus Batterien gedeckt werden. Als Nebenprodukt ergibt sich noch der etwas geringere Spritverbrauch durch Vermeidung ungünstiger Teillast. Wenn es gelänge, hoch mobile Kleinstreaktoren in Frontnähe zur Verfügung zu haben, könnte bei einer Umstellung auf vollelektrische Fahrzeuge der erforderliche Nachschub auf ein Minimum begrenzt werden. Alle hierfür notwendigen Unterstützungseinheiten würden für den Fronteinsatz frei. Ganz besonders groß ist das Interesse bei den US-Marines: Bei einer Konfrontation mit China müßten deren Einheiten sich möglichst schnell auf unterschiedlichen kleinen Inseln bewegen, um einer Vernichtung durch Mittelstreckenraketen etc. zu entgehen. Die Logistik – tausende Meilen von der Heimat entfernt – ist dabei das zentrale Problem. Diese Problematik ergibt sich bereits bei der Abschreckung um den Frieden zu bewahren.

Die Finanzierung

Wichtig ist in diesem Zusammenhang, daß es in den USA eine breite Unterstützung für die Kernenergie quer durch die Parteien gibt. Dies schließt sogar „Umweltschutzgruppen“ mit ein. Eine völlig andere Situation als in Merkelhausen. Widerstände kommen in den USA – wenn überhaupt – nur aus der fossilen Industrie. Selbst dort muß man noch deutlich unterscheiden: Die Kohleindustrie kämpft inzwischen selbst ums Überleben. Der „Feind“ ist nicht mehr nur die Kernenergie, sondern auch der Erdgassektor, der durch den Hype um Wind- und Sonnenenergie einen totalen Imagewandel erfahren hat. Jede neue Windmühle und jeder zusätzliche Sonnenkollektor fördert den Absatz von Erdgas (Dunkel-Flaute) bei der Stromerzeugung. Deutlich erkennt man diese Tendenz bereits in Texas: Kohlekraftwerke werden geschlossen und Gaskraftwerke neu in Betrieb genommen. Der Druck kommt über die „Alternativenergien“, für die Texas geradezu ideale Vorraussetzungen hat (dünne Besiedelung, recht stetige Winde vom Golf und jede Menge Sonnenschein). Hinzu kommen noch günstige Gaspreise (Begleitgas aus der Ölförderung) bei allerdings zunehmenden und preisstabilisierenden Exporten (nach Mexiko per Rohrleitungen und nach Übersee als verflüssigtes Erdgas).

Bisher haben die vom Kongress zugewiesenen Mittel sogar die Anforderungen der Verwaltung übertroffen. So wurden im Haushaltsjahr 2020 für das DOE’s Office of Nuclear Energy („Fachbereich Kernenergie des Energieministeriums“) nicht nur $1,49 Milliarden für die Kernenergie-Forschung bereitgestellt, sonder $230 Millionen Dollar zweckgebunden für ein „Programm zur Demonstration fortschrittlicher Reaktoren“. Im Rahmen dieses Programms wurden drei Wege für die Kooperation mit der Privatwirtschaft beschlossen: Förderung von zwei „Demonstrationsvorhaben“ innerhalb der nächsten 5–7 Jahre, Risikominimierung bei Vorhaben, die einen erwarteten Entwicklungsbedarf von 10 Jahren haben und „fortschrittliche Reaktorkonzepte“ die einen Zeithorizont von mehr als 15 Jahren besitzen.

Der Kongress (Mehrheit Demokraten) hat das DOD („Verteidigungsministerium“) bereits 2019 (also Während der Präsidentschaft von Trump) aufgefordert seine Stützpunkte durch „Minireaktoren“ unabhängiger von der öffentlichen Stromversorgung zu machen (siehe 2019 National Defense Authorization Act (NDAA) Section 327 ). Darin wird gefordert, mindestens einen Stützpunkt bis zum 31.12.2027 durch einen zugelassenen „Minireaktor“ zu versorgen. Das DOD’s Office of Acquisition and Sustainment („Beschaffungsstelle des US-Verteidigungsministeriums“) arbeitet dafür eng mit dem DOE („Energieministerium“) zusammen. Ebenfalls 2019 wurden $70 Millionen im Haushaltsjahr 2020 für ein Konstruktions- und Testprogramm für mobile Kleinstreaktoren zur Versorgung vorgeschobener Militärbasen eingestellt. Dies war der Start des „Projekt Pele“. Im März 2020 wurden knapp $40 Millionen für die Unternehmen BWXT, Westinghouse, und X-energy für einen zweijährigen Konstruktionszeitraum bewilligt. Danach soll ein Prototyp beim National Laboratory (INL) gebaut und 2024 mit einer C-17 zu einem Stützpunkt in Alaska geflogen werden, um die Mobilität und den Betrieb unter Praxisbedingungen zu demonstrieren. Damit es mit der Kerntechnik vorangehen kann, hat das DOD im Haushaltsjahr 2021 über $100 Milliarden für Forschung, Entwicklung, Tests, und Auswertung (RDTE) beantragt. Das ist der größte Betrag in der Geschichte des DOD. Allgemein wird geschätzt, daß für die Umsetzung des „Minireaktor-Programms“ insgesamt $500 Millionen benötigt werden.

Genehmigungsproblematik

Eigentlich kann das US-Militär Reaktoren bauen wie es will. Beispiel hierfür sind die zahlreichen Reaktoren für U-Boote und Flugzeugträger. Übrigens mit einer exzellenten Verfügbarkeit und Sicherheitsbilanz. Allerdings mit einem entscheidenden juristischen Unterschied: Die Schiffe sind amerikanisches Territorium. Man braucht mit ausländischen Häfen nur über eine Genehmigung zum Einlaufen bzw. den einzuhaltenden Regularien zu verhandeln. Für Stützpunkte in anderen Ländern geht das sicher nicht. Dort wird man sich den jeweiligen nationalen Genehmigungsverfahren unterwerfen müssen. Das gilt schon für den Transport mobiler Reaktoren dort hin. Insofern ist es folgerichtig, daß man von Anfang an eine Zulassung durch das NRC (Genehmigungsbehörde für kommerzielle Kernkraftwerke) anstrebt. Da immer noch die Zulassung durch das NRC als internationaler „Goldstandard“ betrachtet wird, wird dies die Genehmigung im Ausland stark vereinfachen und beschleunigen.

Ganz so einfach ist die Sache allerdings nicht. Das NRC ist bisher auf die Genehmigung von Leichtwasserreaktoren spezialisiert. Für „fortschrittliche Reaktoren“ mit anderen Kühlmitteln, Brennstoffen und Sicherheitssystemen sind noch erhebliche Vorarbeiten zu leisten, bis das Risiko qualitativ und quantitativ nachvollziehbar bemessen werden kann. Je mehr Unternehmen mit unterschiedlichen Konzepten kommen, um so mehr kommt das NRC an seine Kapazitätsgrenzen. In diesem Fiskaljahr beträgt ihr Etat rund $860 Millionen, wovon etwa $430 Millionen auf die Reaktorsicherheit entfallen.

Kommerzieller Ausblick

Das US-Militär arbeitet schon immer eng mit der Privatwirtschaft zusammen und man ging schon immer unkonventionelle Wege: In den 1950er Jahren entwickelte man die Sidewinder Flugabwehrrakete: Einmal abgeschossen, suchte sie sich selbst über ihren Infrarot-Suchkopf ihren Weg ins feindliche Ziel. Ein echter Gamechanger im Luftkampf. Die Sache hatte nur einen Harken: Man brauchte große Stückzahlen, was aber beim damaligen Stand der Halbleitertechnik schlicht zu teuer war. Man ging einen typisch kapitalistischen Weg: Um die Stückpreise zu senken, brauchte man zusätzliche Stückzahlen aus dem zivilen Sektor. Die Spielkonsole war geboren.

In Punkto „Mini-Reaktoren“ zeichnet sich der gleiche Weg ab. Man kann bereits Minengesellschaften für solche Reaktoren begeistern. Überall wo Diesel-Kraftwerke in abgelegenen Regionen im Einsatz sind, besteht wegen der hohen Stromkosten ernsthaftes Interesse. Ein weiteres Einsatzgebiet ergibt sich aus dem Hype für Elektrofahrzeuge. Will man Schwerlaster elektrifizieren, braucht man überall dort, wo man heute Tankstellen hat, Ladestationen. Diese brauchen aber enorme Leistungen, wenn man einen LKW auch in etwa 20 Minuten voll aufladen will. Hier kommen flugs Minireaktoren ins Spiel. Mit ihnen könnte man kontinuierlich Wärmespeicher beladen, die anschließend bei Bedarf große Spitzenleistungen über Dampfturbinen bereitstellen könnten. Es gibt bereits Pläne in Zusammenarbeit mit den Marketing-Genies von Tesla. Da freut sich doch das Grüne-Öko-Herz oder vielleicht doch nicht?

Der Beitrag erschien zuerst auf der Website des Autors hier