Klima-Reflexionen

Steven Koonins neues Buch „Uncertainty“* (das ich gerade zu Ende gelesen habe und das ursprünglich diesen Gastbeitrag inspiriert hat) trägt viel dazu bei, eine nuanciertere Perspektive voranzutreiben, indem es die faktische Klima-“Ungenauigkeit“ (auch bekannt als falsches Zeug) und die damit verbundene „Ungewissheit“ (Unwissenheit) in der Klimadebatte hervorhebt. Aber seinem ‚wissenschaftlichen‘ Ansatz fehlt teilweise der Gegenpol zu der hier angesprochenen zusätzlichen ‚religiösen Klimagläubigen, die gegen die Wissenschaft immun sind‘-Dimension, auch wenn Koonin sie in seinen Schlusskapiteln kurz anschneidet. Dieser Beitrag bleibt absichtlich nicht so an der Oberfläche.

[*Beim EIKE auf Deutsch hier vorgestellt]

Als einleitendes Beispiel ignorieren die „Klimagläubigen“ die Unterbrechungen und die fehlende Netzträgheit, die ihre Lösungen für erneuerbare Energien (Green New Deal, GND) automatisch mit sich bringen. Dies mag nur aus physikalischer Unkenntnis der komplexen Mathematik der Wechselstromelektrizität (a+bi, mit der Quadratwurzel aus minus 1, was physikalisch eine Phasenverschiebung anzeigt) [?] sein. Aber nach vielen Blog-Interaktionen denke ich jetzt, dass es wahrscheinlicher auf absichtlicher, vorsätzlicher Ignoranz beruht, die im US-Recht als „kriminelle grobe Fahrlässigkeit“ definiert ist… „wusste, oder hätte wissen müssen“.

Es gibt viele andere Beispiele für „kriminelle grobe Fahrlässigkeit“ der Klimawissenschaft.

Zum Beispiel hat Dr. Susan Crockford die „Eisbärenexperten“ entlarvt, die behaupten, Eisbären seien durch (modelliert) vermindertes arktisches Meereis im Sommer gefährdet, wenn in Wahrheit etwa 80% ihrer jährlichen Nahrungsaufnahme von der Wurfsaison der Robben im Frühjahr abhängt – wenn das arktische Eis jahreszeitlich bedingt immer abnimmt.

Zum Beispiel hängt der behauptete GAST-Temperaturanstieg von einem „vernachlässigbaren“ (pro BEST) UHI plus unzureichenden landgestützten Messstationen ab, die für eine globale Abdeckung eingefügt wurden. Ein klassisches Beispiel für letzteres ist die BEST-Station 166900, also die Amundsen-Scott-Station am Südpol, die wohl teuerste und am besten gewartete Wetterstation auf dem Planeten. Der „automatische Anpassungs-Algorithmus“ von BEST verglich sie mit McMurdo, 1300 km entfernt an der Küste und 2700 Meter tiefer gelegen. Der BEST-Qualitätskontroll-Algorithmus kam zu dem Schluss, dass die Amundsen-Scott-Messungen für 26 extrem kalte Monate auf der Grundlage von McMurdo und NICHT auf derjenigen von BEST berücksichtigt werden müssen. BEST hat Amundsen Scott automatisch, aber fälschlich künstlich erwärmt.

Zum Beispiel behauptete Fabricius (NCC, 2011), dass die Korallen in der Milne Bay durch die Versauerung der Ozeane (OA) abnehmen würden. Ihre SI zeigte, dass ihre eine karge (7,8 pH) See wegen H2S giftig war, so giftig für Meeresorganismen, wie Zyanid für uns ist – und aus den gleichen Gründen.

Es gibt viele weitere ähnliche nachfolgende Gastbeiträge hier und bei Climate Etc.
Also, wie kann diese Klima-Perversion der wahren Wissenschaft über mehrere Jahrzehnte weitergehen? Was motiviert die offensichtliche absichtliche „kriminelle grobe Fahrlässigkeit“?
Es gibt mindestens drei Antworten auf diese Frage.

Die erste Antwort ist das Geld in Form von Festanstellungen und staatlichen Zuschüssen. Mitmachen, um mitzukommen. Manns gefälschter Paläo-Hockeystick von 1999 ist nur ein berühmtes Beispiel. Er wurde reich und erhielt eine Festanstellung für eine SEHR schlechte Arbeit, die inzwischen gründlich diskreditiert ist. Sein Bankkonto kümmert das nicht.

Das zweite ist die akademische Akzeptanz; Gruppenzwang, wenn man so will. Das ist es, was Dr. Judith Curry vom Lehrstuhl für Geowissenschaften an der Georgia Tech vertrieben hat, nach ihrer eigenen Erklärung. Junge Klimawissenschaftler, die aufsteigen wollen, können keine Abtrünnigen sein, und sie konnte ihnen nicht guten Gewissens einen anderen Rat geben.

Drittens ist ‚cool sein‘. Es gibt keine andere Erklärung für John Kerry als Bidens ‚Klima-Zar‘. Es ist dumm und letztlich selbstzerstörerisch, aber definitiv ein großes Plus auf jeder gegenwärtigen MA-Cocktailparty. AOC und ihr GND ist ein kleineres Beispiel für das gleiche ‚coole‘ soziale Phänomen aus Brooklyn im Kongress.

Also, was zu tun?

Es mag einige wirksame Gegenmaßnahmen jenseits der „Wissenschaft“ geben, gegen die wahre Klima-Gläubige offenbar immun sind. Die folgenden drei Vorschläge sind alle aus Alinskys „Regeln für Radikale“ entlehnt, die seit langem gegen als Leugner bezeichnete Skeptiker eingesetzt werden. Mein Vorschlag lautet, zum Gegenangriff überzugehen, und zwar nicht nach den Regeln des Marquis von Queensbury, die Skeptiker gewöhnlich anwenden, sondern nach den Regeln von Alinsky.

Zuerst muss man den Feind lahmlegen und ihn dann lächerlich machen. Mark Steyn tat dies sehr effektiv gegen Mann mit seinem Buch „A Disgrace to the Profession (volume 1)“. Unanfechtbar, da Mann bis heute nicht darauf reagiert hat und die implizite „Band 2“-Drohung schon seit Jahren im Raum steht.

Der zweite Punkt ist, den Feind dazu zu bringen, sich an seine eigenen Regeln über die Klimawissenschaft zu halten. Das war Koonins zentraler Punkt, den er in seinem neuen Buch wiederholt betont.

Drittens geht es darum, die Expertise des Gegners zu verlassen. Erneuerbare Intermittenz und fehlende Netzträgheit sind Beispiele für Fachwissen, die hier bereits diskutiert wurden und die die Grünen ignorieren oder gar nicht erst begreifen, weil sie außerhalb ihrer Expertise liegen.

Abschließende Überlegungen

Viele hier bei WUWT mögen wie ich zuvor auch gedacht haben, dass eine „wissenschaftliche“ Widerlegung gegen Warmisten ausreicht. Das tut es aber nicht. Sie haben ein sozio-religiöses Glaubenssystem (Greta Thunberg ist ein Beispiel) erschaffen, das stärkere Gegenmaßnahmen erfordert.

Link: https://wattsupwiththat.com/2021/05/12/climate-reflections/

Übersetzt von Chris Frey EIKE

 




Der stärkste geomagnetische Sturm des 20. Jahrhunderts …

Übersicht:

Der intensivste geomagnetische Sturm des 20. Jahrhunderts fand während des Sonnenzyklus‘ 15 in einem Zeitraum von 3 Tagen vom 13. bis 15. Mai 1921 statt. Der Sturm ereignete sich vor der weit verbreiteten elektrischen Abhängigkeit der Infrastruktur, die wir in der heutigen Welt haben, aber die Auswirkungen eines außerordentlich starken koronalen Massenauswurfs waren dennoch ziemlich weitreichend. Der elektrische Strom des Sturms löste eine Reihe von Bränden auf der ganzen Welt aus, darunter einen in der Nähe des Grand Central Terminal [= Hauptbahnhof] in New York City. Außerdem traten im gesamten Osten der USA Polarlichter auf, die den nächtlichen Himmel hell erleuchteten, und der Telegrafendienst kam wegen durchgebrannter Sicherungen und beschädigter Geräte praktisch zum Erliegen. Forschungen in den letzten Jahren haben ergeben, dass dieser Super-Sonnensturm vom Mai 1921 genauso intensiv war wie der Großvater aller Superstürme in der aufgezeichneten Geschichte – das „Carrington-Ereignis von 1859“.

Die jetzt als „AR1842“ bezeichnete Sonnenfleckengruppe, wie sie am 13. Mai 1921 in Erscheinung getreten war. Quelle: spaceweather.com

Gigantischer Sonnenfleck

Der größte Sonnensturm des 20. Jahrhunderts fand tatsächlich während der abnehmenden Phase des Sonnenzyklus‘ 15 statt, dessen Ursache ein gigantischer Sonnenfleck war, der damals als „Greenwich-Region 933404“ bezeichnet worden war. Dieser Sonnenfleck wurde erstmals am 8. Mai 1921 auf dem östlichen Rand der Sonne gesehen und rotierte während der nächsten zehn Tage zum westlichen Rand. Dieser Sonnenfleck erzeugte in diesem Zeitraum wahrscheinlich bis zu sechs direkt auf die Erde gerichtete koronale Massenauswürfe (CMEs), wie bodengestützte Magnetometer-Messungen ergaben (Newton, 1948, S. 178). Wissenschaftler auf der ganzen Welt waren überrascht und wahrscheinlich ziemlich verblüfft, als ihre Magnetometer während des Höhepunkts des Sturms in der Zeit vom 13. bis 15. Mai „verrückt spielten“. Sie ahnten nicht, dass dies der größte Sonnensturm des Jahrhunderts werden würde – und laut Dr. Tony Phillips von spaceweather.com hat es seitdem nichts Vergleichbares mehr gegeben.

Besonders gravierend waren die Auswirkungen in New York City und -State

Die Auswirkungen des Supersonnensturms vom Mai 1921 waren in New York City und im gesamten Bundesstaat New York besonders akut, weshalb dieses Ereignis manchmal auch als „New York Railroad Superstorm“ bezeichnet wird (Love, et al, 2019). Elektrische Ströme, die durch die geomagnetische Aktivität induziert wurden, flossen durch Telefon- und Telegrafenleitungen und erhitzten diese bis zum Punkt der Verbrennung. Der Kontrollturm der Eisenbahn in der Nähe der Grand Central Station in New York City ging in Flammen auf. Die Flammen griffen auch auf die Schalttafel in der Brewster Station der Central New England Railroad nördlich von New York City über und breiteten sich so weit aus, dass das gesamte Gebäude zerstört wurde. Ein dortiger Telegrafist wurde durch „elektrische Flüssigkeit“, die plötzlich „aufloderte“, von seinen Tasten vertrieben (The Bridgeport Telegram, 17. Mai 1921, S. 11). Am 14. Mai verursachten übermäßige elektrische Ströme auf den Telefonleitungen, dass die Union Railroad Station in Albany, NY, Feuer fing und der Bahnhof bis auf die Grundmauern niederbrannte. Die New York Times berichtete, dass die Auswirkungen des Sturms im gesamten Osten der USA besonders ausgeprägt waren, wo die schwankenden elektrischen Ströme ein Ausmaß erreichten, bei dem „kaum noch ein Draht irgendwo funktionierte“ und die Streuspannungen auf einigen Drähten 1000 V überschritten. Die Polarlichter über New York City waren anscheinend so hell, dass selbst die „intensiven Lichter der elektrischen Schilder entlang des Broadways die Brillanz des flackernden Himmels nicht trüben konnten“.

Schlagzeilen des Großen Sonnensturms im Mai 1921 (Quelle: Spaceweather.com)

Die Auswirkungen des Supersonnensturms verbreiteten sich rund um den Globus, wobei an zahlreichen Orten Brände ausbrachen, darunter zum Beispiel eine Telegrafenzentrale in Schweden, die am 15. Mai in Flammen aufging.  In Australien, Brasilien, Dänemark, Frankreich, Japan, Neuseeland, Norwegen, Schweden und Großbritannien kam es zu Unterbrechungen der Telegrafensysteme. Auf dem Höhepunkt des Sturms wurden „Nordlichter“ bis nach Texas in den USA, von Schiffen auf See, die den Äquator überquerten, und sogar in der südlichen Hemisphäre an Orten wie Samoa und Tonga gesehen.

Tägliche Beobachtungen der Anzahl der Sonnenflecken seit dem 1. Januar 1900 laut Solar Influences Data Analysis Center (SIDC). Die dünne blaue Linie zeigt die tägliche Sonnenfleckenzahl an, während die dunkelblaue Linie den laufenden Jahresdurchschnitt angibt. Der Pfeil zeigt den Zeitraum des Supersturms vom Mai 1921 an, der während der abnehmenden Phase des Sonnenzyklus‘ 15 auftrat. (Grafik mit freundlicher Genehmigung von climate4you.com)

Interessante Auswirkungen auf die Ausbreitung von Radiowellen

Eine der interessanten Eigenschaften dieses Sonnensturms war laut einer kürzlich erschienenen Veröffentlichung (Hapgood, 2019) seine variable Auswirkung auf die Ausbreitung von Langstreckenfunksignalen. Es gab Berichte, die sowohl eine Unterbrechung als auch eine Verstärkung der Funkausbreitung zeigten, wobei die Berichte über die Verstärkung viel Aufmerksamkeit erregten, da sie in krassem Gegensatz zu den Unterbrechungen anderer Telekommunikationssysteme standen. Ein Beispiel für eine Verstärkung war ein Bericht in der New York Times (NYT, 1921a), dass die Funksignale, die New York von Berlin (etwa 6.400 km entfernt) und Bordeaux (5.800 km) erreichten, am 15. Mai zwischen 02:30 und 04:00 GMT viel stärker waren als gewöhnlich. Dieser Bericht hat eine besondere Glaubwürdigkeit, weil die New York Times eine von mehreren US-Zeitungen war, die damals eigene Funkstationen betrieben, um Nachrichten aus Europa zu empfangen (Hudson et al., 2000). Die gute Leistung der Funkverbindungen in den Vereinigten Staaten und in Bordeaux wurde auch in Aussagen der Radio Corporation of America bestätigt (Telegraph and Telephone Age, 1921b). Ein weiteres Beispiel für eine Verbesserung kam aus dem pazifischen Raum, wo Angenheister und Westland (1921a) und Gibbs (1921) von ungewöhnlich guten Bedingungen um 06:15 Uhr auf den Funkverbindungen zwischen den Funkstationen in Apia auf Samoa und Awanui im Norden Neuseelands (eine Entfernung von 2.700 km) berichteten.

Um die Verstärkung der Funksignale während des Sturms zu verstehen, muss man wissen, dass die Funksysteme, die 1921 in Gebrauch waren, in niederfrequenten Funkbändern unterhalb von 300 kHz arbeiteten. Zum Beispiel arbeitete die Funkverbindung zwischen Neuseeland und Samoa mit 150 kHz (Gibbs, 1921). Bei dieser Frequenz koppeln Funksignale an die leitfähige Oberfläche der Erde, sowohl an Land als auch im Meer, und breiten sich entlang dieser Oberfläche aus, wobei sie der Erdkrümmung in einer sogenannten „Bodenwelle“ folgen. Die Signale werden allmählich durch die endliche Leitfähigkeit der Oberfläche abgeschwächt, wobei die Dämpfung dort geringer ist, wo die Leitfähigkeit höher ist, was vor allem über dem Salzwasser der Ozeane offensichtlich ist (International Telecommunications Union, 2007). Die Signale können sich jedoch auch in die obere Atmosphäre ausbreiten und von der Ionosphäre reflektiert werden, wodurch eine „Himmelswelle“ entsteht, die mit dem Bodenwellensignal interferieren kann, was Probleme beim Signalempfang verursacht. Himmelswelleninterferenzen können auch durch weit entfernte Quellen natürlicher Funksignale wie Blitze und andere elektrische Aktivitäten in der Atmosphäre entstehen. Daher ergeben sich gute Bedingungen für die Signalausbreitung bei 150 kHz, wenn die Himmelswellen durch Absorption aufgrund der erheblichen Plasmadichte in der unteren Ionosphäre unterhalb von 90 km stark abgeschwächt werden (siehe Hapgood, 2019).

Potentielle Auswirkungen auf die heutige Welt

Einige neuere Forschungen (z. B. Love et al. 2019) legen nun nahe, dass dieser große Sonnensturm vom Mai 1921 etwa genauso intensiv war wie das „Carrington-Ereignis von 1859“, das als der stärkste Sonnensturm in der aufgezeichneten Geschichte bezeichnet wird. Der Super-Sonnensturm von 1859 fand während des Sonnenzyklus‘ 10 statt und wurde nach dem britischen Astronomen Richard Carrington benannt, als er von seinem eigenen privaten Observatorium aus die Sonneneruption beobachtete, die einen großen, direkt auf die Erde gerichteten koronalen Massenauswurf (CME) verursachte. Der vielleicht intensivste Sturm seit dem Supersturm vom Mai 1921 war der magnetische Sturm vom März 1989, der einen Stromausfall in Quebec, Kanada, verursachte.

In der heutigen Welt sind elektronische Technologien in das tägliche Leben eingebettet und natürlich ziemlich anfällig für Sonnenaktivität. Stromleitungen, Langstrecken-Telefonkabel, Radar, Handys, GPS und Satelliten – sie alle könnten durch ein Ereignis wie das von 1859 oder den Sturm von 1921 erheblich beeinträchtigt werden.  Mit anderen Worten: Die High-Tech-Infrastruktur der Welt könnte zum Stillstand kommen und alltägliche Aktivitäten vom Kauf einer Gallone Benzin bis zur Nutzung des Internets stören.

Besonders besorgniserregend ist die Befürchtung, was diese Art von Sonnensturm mit dem Stromnetz anstellen könnte, da die durch Sonnenpartikel verursachten Stromstöße riesige Transformatoren durchbrennen lassen können.  Wenn zahlreiche Transformatoren auf einmal zerstört werden, würde es wahrscheinlich schmerzhaft lange dauern, sie zu ersetzen.  Der Osten der USA ist besonders verwundbar, da die Strominfrastruktur stark vernetzt ist, so dass Ausfälle an einem Ort zu Ausfällen in anderen Regionen führen können. Eine langfristige Lösung für diese Anfälligkeit wäre es, das alternde Stromnetz so umzubauen, dass es weniger anfällig für solare Störungen ist.

[Hervorhebung vom Übersetzer]

Auf der positiven Seite gibt es den Trost, dass die Beobachtung der Sonne in der heutigen Welt eine Konstante ist, mit einer Flotte von Raumfahrzeugen, die in Position sind, um die Sonne zu überwachen und Daten über Sonneneruptionen zu sammeln. Außerdem gibt es heute bessere Vorhersagen, und Sonnenwissenschaftler könnten eine Art Warnung geben, wann Sonneneruptionen auftreten könnten und ob ein bestimmter Sturm auf die Erde gerichtet ist. Bessere Vorhersagen können es ermöglichen, Maßnahmen zur Schadensbegrenzung zu ergreifen, da die schädlichsten Emissionen langsam genug reisen, um von Satelliten entdeckt zu werden, lange bevor die Partikel auf die Erde treffen. So könnten beispielsweise Energieversorgungsunternehmen wertvolle Transformatoren schützen, indem sie diese vom Netz nehmen, bevor ein Sonnensturm auf die Erde trifft.
Eines ist sicher: Wir sollten auf einen weiteren massiven Sonnensturm von der Größenordnung des „Carrington-Ereignisses von 1859“ oder des großen geomagnetischen Sturms vom Mai 1921 vorbereitet sein – dem stärksten Sonnensturm des 20. Jahrhunderts.

Meteorologe Paul Dorian

Peraton

peratonweather.com

Link: https://wattsupwiththat.com/2021/05/13/the-greatest-geomagnetic-storm-of-the-20th-centurymay-13-15-1921a-century-ago-new-york-city-new-york-state-were-especially-hard-hit/

Übersetzt von Chris Frey EIKE

 




Das ZDF zwischen Anspruch und Wirklichkeit – Teil 1: Wissen­schaftliche Analyse des realen Wetter-/Temperatur­geschehens

Abb.2 zeigt die tatsächliche Temperaturentwicklung im Vergleich zu den IPCC-Klimavorhersagen. Eine immer größere Abweichung ist zu erkennen, was nichts anderes bedeutet, als das sämtliche IPCC-Temperaturprognosen wertlos/Nonsens sind und mit ihnen, sämtliche Gesetze/Verordnungen, die sich darauf beziehen/aufbauen. Quelle im Original: Lewis, M., Satellites and global warming: Dr Christy sets the record straight, 5. Februar 2016; globalwarming.org (aus der Aussage von Dr .John Christy’s in der Anhörung des House Science Committee der USA zum Pariser Klimaabkommen)

Besonders Herr Terli, der für seine tendenziösen Wetterberichte bekannt ist (hier) hebt sich dabei hervor. So trat er auch Ende Februar mit folgender Präsentation vor ein staunendes Publikum:

Abb.3, Quelle ZDF Wetter vom 20.02.2021. Das Chart von Herrn Terli hat nicht ansatzweise einen wissenschaftlichen und damit wertigen Inhalt, da ein einziger Fixpunkt gewählt wurde und Daten in dessen Nähe, z.B. 19,x°C-Werte, die wir ebenso empfinden wie 20,0°C-Werte, von vorneherein ausgeklammert werden und damit den manipulierenden Charakter des Charts zeigen.

Nein, Herr Terli ist jetzt nicht etwa vor das Publikum getreten und hat dargelegt, dass der April 2021 rekordverdächtig in der Anzahl der Frosttage war und die Anzahl aufgelistet (wie oben), sondern er ist seiner grün-tendenziösen Berichterstattung treu geblieben, Abb.4.

Abb.4, ZDF-„Wetterfrosch“ Herr Terli bei seiner Wettervorhersage am Freitag, den 07.05.2021, mit der er zeigen will, dass eine weltweite Erwärmung, trotz extrem kaltem April, in vollem Gange ist, Quelle: ZDF-Heute vom 07.05.2021. Was dies mit dem Wetterbericht für unser Land zu tun hat, weiß wohl nur Herr Terli. Den Grund seiner Darstellung haben Sie natürlich erkannt. Bereits die gewählte Farbe Rot für eine vermeintliche Erwärmung, aus der nicht hervorgeht, ob diese 0,001°C oder 0,1°C ist, zeigt die tendenziöse Absicht des Bildes. Siehe hierzu auch den jüngsten EIKE-Artikel hier. Eine seriöse Berichterstattung sieht anders aus, wie Abb.5 zeigt. Zu den Beweggründen Herrn Terli im Teil 2 mehr.

Abb.5, Quelle: climate4you.com, zeigt die gemessenen globalen Temperaturabweichungen von 1979 – heute (letzte Aktualisierung: 07.05.2021). Auch hier ist, wie in Abb.4 von Herrn Terli, der Bezugszeitraum 1991-2020. Wie zu sehen, verzichtet eine wissenschaftliche, seriöse Arbeit auf Signaltöne wie rot. Von Dramaturgie ist nichts zu sehen. Erst recht nicht, werden die Temperaturen über einen noch längeren Zeitraum betrachtet.

Abb.6, Quelle wie Abb.5, zeigt die Temperaturabweichungen der letzten gut 10.000 Jahre bis heute, gewonnen aus Eisbohrkerndaten (siehe Chart) und dazu den atmosphärischen CO2-Pegel. Wie unschwer erkennbar, sind die heutigen Temperaturen nicht wärmer, sondern kälter als früher und wer einen Zusammenhang der Temperaturentwicklung und dem sog. Treibhausgas CO2 sieht, der sieht auch einen Zusammenhang aus dem Kaffeesatz zur Temperaturentwicklung.

Da der GISP 2-Datensatz der Temperaturrekonstruktion in Abb.6 im Jahr 1854 endet, zeigt Abb.7 die Ergänzung mit den gemessenen Temperaturen bis heute.

Abb.7, Quellen siehe Chart, zeigt die Temperaturen der letzten 10.000 Jahre bis zur Gegenwart. Dazu haben die Forscher die Warmperioden und kleinere Kaltzeiten gekennzeichnet. Die gegenwärtige Warmperiode ist also als vglw. kühl einzustufen.

[Zu dieser Abbildung: Die aktuellen Daten haben eine viel feinere Auflösung als die stark geglätteten Daten aus den Eisbohrkernen. Das bedeutet, dass kurzfristige Spitzen und Täler, wie wir sie heute bestimmen können, in früheren Daten ebenso vorhanden sein könnten, aber dank der geringen Auflösung und der Tendenz der Proxys, kurzfristige Variationen auszubügeln, nicht erkennbar sind. Gggf. vergleicht man mittels Spleißung Äpfel mit Birnen. Der allgemeine Tatbestamd ist aber unbestreitbar.]

Die Abb.6 und 7 zeigen bereits eindringlich, dass das Temperaturgeschehen rein gar nichts mit sog. Treibhausgasen zu tun hat und schon gar nicht rekordverdächtig, sondern zyklischer Natur ist, wie Abb.8 unterstreicht.

Abb.8, Quelle, zeigt das zyklische und damit natürliche Temperaturverhalten der letzten knapp 500.000 Jahre. Die heutigen Temperaturen sind als vglw. kühl einzustufen. Die Wissenschaft spricht bei den Temperaturen über der gestrichelten Linie von Zwischeneiszeiten.

Dass der April 2021 so kalt war und wir derzeit ein vglw. zyklisches Wettergeschehen haben, liegt vorrangig am Jetstream, exakt am Polarfrontjet (PFJ) und ist als normal einzustufen.

Jetstream

Der Jetstream bildet sich aufgrund von Druckunterschieden zwischen hohen und niedrigen Breiten. Angetrieben wird er durch die Sonne. In den Regionen der stärksten Luftdruckgegensätze, in 8 – 16 km-Höhe bilden sich starke Winde aus, die durch die Corioliskraft (Erddrehung) auf der Nordhalbkugel nach rechts und auf der Südhalbkugel nach links abgelenkt werden (ist dem Drehimpulserhaltungssatz geschuldet). Bei weiter ansteigenden Druckunterschieden beginnt der Jetstream zu mäandrieren, was durch die unterschiedliche Reibung an der Erdoberfläche verstärkt wird. Er hat eine typische Breite von 100 km – 200 km und eine Dicke von 1 – 5 km.

Der Jetstream bekam seinen Namen aufgrund seiner konstant hohen Windgeschwindigkeiten von 200 – 300 km/h. Vereinzelt wurden Windspitzen von bis zu 550 km/h gemessen. Das sich um den gesamten Globus ziehende geschlossene Wellenband weist, wie oben schon angedeutet, mehr oder weniger starke Mäander auf, die man als planetarische Wellen oder Rossby-Wellen bezeichnet (Abb.9). Diese Wellen sorgen für den Ausgleich zwischen Kaltluft und Warmluft dergestalt, dass in den Trögen (Wellentälern) Kaltluft in wärmere und in den Keilen (Wellenberge) Warmluft in kältere Gebiete strömt. Beim Aufeinandertreffen von Kalt- und Warmluft wird letztere gehoben, was zu Wolken- und Niederschlagsbildung führt. Wegen des viel höheren Druck- und Temperaturgegensatzes im Winter ist der Jetstream in dieser Jahreszeit am stärksten ausgeprägt.

Abb.9 zeigt die um den Globus verlaufende Welle des PFJ, Quelle

Abb.9 zeigt die um den Globus verlaufende Welle des PFJ, Quelle

Für unser Wetter in unseren Breiten spielt der Polarfrontjet eine entscheidende Rolle. So verlaufen die Zugbahnen der Orkane entlang seiner Ausbildung. Er hält also je nach Lage, die kalte Polarluft von uns fern. Der PFJ verläuft mit seiner Wellenform um den ganzen Globus. Wie beschrieben, bildet er die barokline Übergangszone zwischen Warm- und Kaltluft. Die Luftmassen können nicht einfach quer über diesen Jetstream hinweg strömen. Da Wind nichts anders als von Molekülen übertragene Energie ist, kann eine Energie minderer Intensität, keine Energie höherer Intensität von sich aus überwinden. Die Kaltluft bleibt bildhaft gesehen, sozusagen nördlich seines Verlaufs „gefangen“.

Der PFJ steuert die “planetarische Frontalzone“ (hier treffen tropische und polare Luftmassen aufeinander, was sich in einem unruhigen Wettergeschehen, wie wir es kennen, widerspiegelt. Er steuert primär die Hoch- und Tiefdruckgebiete (Abb.10), die sich entlang seines Verlaufs ausbilden. Er ist demnach für unser Wetter maßgeblich. Seine Lage ist abhängig vom Energieinhalt der Atmosphäre, die durch den Sonnenstand, also die Jahreszeiten gesteuert wird und schwankt zwischen 30° und 70° N bzw. Süd (für die südliche Halbkugel). Je nach Grundstrom und Wellenzahl mäandriert er stark (in Abhängigkeit von positiver bzw. negativer AO) und verläuft geschlossen um den Globus.

Abb.10, Quelle, zeigt den Verlauf der Hoch- und Tiefdruckgebiete am PFJ.

Die Mäander oder Wellen des PFJ bewegen sich von West nach Ost, und zwar umso schneller, je mehr Wellen in dem globalen Band vorhanden sind (d. h. je kürzer die Wellenlänge). Ist der Anteil der kurzen Wellen gering, dominieren die langen Wellen, was dazu führt, dass eine bestimmte Wellenkonfiguration auch mal längere Zeit konstant gehalten wird. Je nach Zustand der Atmosphäre, haben wir dann länger andauernde Trockenphasen, länger anhaltender Regen oder Kälte.

Und je nachdem, welche Lage sein Trog über Deutschland gerade einnimmt, lenkt er einmal Warmluft aus südlichen Breiten in unsere Zonen und einmal Kaltluft (Abb.11). Durch seine Bewegung von West nach Ost wechselt sich warmes und kälteres Wetter über Deutschland ab, wobei die Temperaturunterschiede deutlich ausfallen können, da sich heiße Mittelmeerluft (oder gar aus der Sahara), mit kühler Luft aus nördlichen Breiten abwechselt. Bekanntlich endet der Winter in Nordskandinavien erst Anfang Mai.

Abb.11 zeigt eine Momentaufnahme des PFJ und der Verteilung von Kalt und Warmluft, sowie die jeweiligen Windrichtungen, Quelle: John Mason.

An der Grenzschicht findet keine Luftvermischung statt, so dass die kalte Luft über dem PFJ sozusagen „gefangen“ bleibt. Die Wärmeenergie – nicht zu verwechselt mit Luft, also Materie – südlich des PFJ kann zwar gemäß dem 2. Hauptsatz der Thermodynamik nach Norden gelangen, ist jedoch nicht in der Lage, die immer wieder aufs Neue einströmenden kalten Luftmassen aus dem Norden spürbar zu erwärmen, so dass es in der Sonne (hoher Sonnenstand, wie Anfang August) zwar warm ist, die Luft aber kalt bleibt.

Soweit ein kleiner Ausschnitt, in ein komplexes meteorologisches Thema. Dass wir so unterschiedliche Wetter mit rapiden Wechseln zwischen warm und kalt haben, hat also nichts mit Geisterbeschwörung zu tun, die man heute menschengemachter Klimawandel nennt und deren „Teufelsaustreiber“ sich so wohlklingende Namen wie „Fridays for Future“ zulegen, die sich bei näherer Betrachtung oftmals jedoch nur den Realitäten der Pisa-Studie entziehen wollen, sondern mit physikalischen Gegebenheiten und speziell dem Polarfront-Jet, kurz PFJ, zu tun, der daraus entsteht.

Teil 2 folgt demnächst

 

 




Woher kommt der Strom? Preisliche Wellenbewegung

Abbildung

Abbildung 1

Bis zum Sonntag, dem letzten Tag der Analyse-Woche, ist das nicht weiter tragisch, weil das Preisniveau aufgrund reger Nachfrage insgesamt hoch ist. In dem Moment, wo die Nachfrage – wie am Samstag, am Sonntag – nachlässt, sinkt der Strompreis über die Mittagsspitze. Kommt – wie am Sonntag – starke Windstromerzeugung hinzu, fällt der Strompreis, muss Strom verschenkt werden.

Das Problem wird sich umso mehr verschärfen, desto mehr PV-Strom erzeugt wird. Trifft eine hohe PV-Stromerzeugung dann auf eine ebenfalls hohe Windstromerzeugung, sinken die Preise (Abbildung 2) Denn auf die regenerative Stromerzeugung kommen immer noch die mindestens 20 GW konventionell erzeugter Strom (Abbildung 3), die zur Stabilisierung des Stromnetzes unabdingbar sind.

Die 17. Woche war für Deutschland trotz des Preiseinbruchs am Sonntag insgesamt befriedigend. Der mittlere Preis, der für den Stromexport erzielt wurde, lag bei 48,90€/MWh (Abbildung 4).

Die Tabelle mit den Werten der Energy-Charts und die daraus generierte Tabelle liegen unter Abbildung 5 ab. Es handelt sich um Werte der Nettostromerzeugung, der „Strom, der aus der Steckdose“ kommt, wie auf der Webseite der Energy-Charts ganz unten ausführlich erläutert wird.

Abbildung 6 weist die Struktur der Energieerzeugung der 17. Woche aus. Wie immer können Sie ihr eigener virtueller Energiewender sein. Klicken Sie den Ergebnislink an und schalten Sie einfach Kernkraft und/oder Kohle, Braunkohle ab. Die sich auftuenden weißen Bereich zeigen die Strommenge an, der fehlen wird, wenn nicht hauptsächlich konventionell erzeugter Strom hinzuerzeugt wird. Sie haben auch die Möglichkeit den Energierechner herunterzuladen. Der ermöglicht Analysen und Ausgleichsmöglichkeiten der Lücken, die durch Minderung konventioneller Stromerzeugung entstehen. Das Simulationstool Strom-Speicher-Strom bietet einen feinen Einblick in die Zukunft der regenerativen Stromerzeugung mit diversen Speichermöglichkeiten. Nutzen Sie das Tool und erfahren Sie, was es heißt „dicke Bretter“ zu bohren. Nutzen Sie die vorgefertigten Szenarien. Zum Einstieg empfehle ich Szenario W5.

Die Charts, welche die angenommene Verdoppelung, Verdreifachung der Wind- und PV-Stromerzeugung darstellen, finden Sie unter Abbildung 7.

Abbildung 8 präsentiert Frau Prof. Claudia Kemfert, wie sie am 6.5.2021 bei „Lanz“ den Zuschauern erklärt, dass die komplette Stromversorgung Deutschlands mit Wind- und PV-Strom weder heute noch in Zukunft ein Problem sei. Regelmäßige Leser dieser Kolumne wissen, dass das kompletter Unfug ist. Damit nach dem denkwürdigen Auftritt von Frau Prof. Kemfert die Verhältnisse in Richtung reale Gegebenheiten gerückt werden, gibt es noch zwei Ausschnitte aus einem Vortrag von Prof. Hans-Werner Sinn, der sich zu den angeblich CO2-freien Elektroautos und zur Brennstoffproblematik äußert. Themen, die auch von Frau Prof. Kemfert angeschnitten und falsch eingeschätzt werden. Sie glaubt wohl tatsächlich, dass Elektroautos CO2-frei und daher im Rahmen der Energiewende sinnvoll seien. Deswegen befürwortet sie die direkte Einspeisung von grünem Strom in die Batterien der E-Autos ohne den Umweg „teurer Wasserstoff“. Womit sie Recht hätte. Wenn es denn genügend regenerativ erzeugten Strom gäbe.

Tagesanalysen  

Montag, 26.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 45,34 Prozent, davon Windstrom 9,76 Prozent, Solarstrom 23,88 Prozent, Strom Biomasse/Wasserkraft 11,7 Prozent. Die Agora-Chartmatrix: Hier klicken.

Über Tag kaum Windstrom. Dafür PV-Strom satt. Selbstverständlich reichen die regenerativen Energieträger dennoch nicht aus. Auch mit Biomasse und Wasserkraft nicht. Die Konventionellen steuern den fehlenden Strom, am Mittag immerhin gut 30 GW, hinzu. Morgens und abends muss Strom importiert werden. Die Preise: Knackig. Der Handelstag. Frankreich, die Schweiz und andere machen feine Preisdifferenzgeschäfte.

Dienstag, 27.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 51,14 Prozentdavon Windstrom 18,12 Prozent, Solarstrom 22,44 Prozent, Strom Biomasse/Wasserkraft 10,58 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute etwas mehr Windstrom. Starke PV-Stromerzeugung kommt über Tag hinzu. Der Strompreis sinkt entsprechend. Stromlücken entstehen heute nicht, so dass Deutschland hohe Preise in den nachfragestarken Zeiten erzielt. Massiver Pumpspeichereinsatz macht das möglich. Der Handelstag.

Mittwoch, 28.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,53 Prozentdavon Windstrom 16,83 Prozent, Solarstrom 20,65 Prozent, Strom Biomasse/Wasserkraft 11,06 Prozent. Die Agora-Chartmatrix: Hier klicken.

Annähernd das gleiche Bild wie am gestrigen Dienstag. Nur dass heute (19:00 & 20:00 Uhr) etwas Strom importiert werden muss. Das Preisniveau ist hoch, die Konventionellen gleichen mittels Pumpspeicherstrom die ´kritischen`, im Verhältnis zur regenerativen Stromerzeugung nachfragestarken Zeiten gut aus.

Donnerstag, 29.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 48,29 Prozent, davon Windstrom 26,85 Prozent, Solarstrom 10,41 Prozent, Strom Biomasse/Wasserkraft 11,03 Prozent. Die Agora-Chartmatrix: Hier klicken.

Heute wieder keine Versorgungslücken. Die Windstromerzeugung steigt, PV-Strom schwächelt. Zum Vorabend werden sogar absolut gute Gewinne erzielt. Am Vormittag ist der überschüssige Strom zu wenig aber immerhin vorhanden. Konventionelles Regulativ sind wie immer der Pumpspeicher- aber auch Stein- und Braunkohlestrom. Der Handelstag.

Freitag, 30.4.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 34,19 Prozent, davon Windstrom 9,66 Prozent, Solarstrom 11,79 Prozent, Strom Biomasse/Wasserkraft 12,74 Prozent. Die Agora-Chartmatrix: Hier klicken.

Die Windstromerzeugung lässt über Tag massiv nach. Erhebliche Versorgungslücken entstehen. Die konventionelle Stromerzeugung kann, will sie nicht schließen. Es lohnt sich nicht, vor dem bedarfsarmen Wochenende Kraftwerke zusätzlich hochzufahren, um sie kurze Zeit später wieder herunterzufahren. Da wird lieber importiert und entsprechend gezahlt. Der Handelstag.

Samstag, 1.5.2021: Anteil Erneuerbare an der Gesamtstromerzeugung 41,28 Prozent, davon Windstrom 7,52 Prozent, Solarstrom 16,47 Prozent, Strom Biomasse/Wasserkraft 17,29 Prozent. Die Agora-ChartmatrixHier klicken.

Maifeiertag: Wenig Bedarf, wenig Windstrom, wenig Sonnenstrom. Deutschland importiert fast den ganzen Tag Strom, um den Bedarf zu decken. Die Konventionellen fahren massiv die Erzeugung herunter. Zu massiv? Die Importpreise jedenfalls sind zwar hoch, doch geringer als an den Tagen zuvor. In Europa herrscht Ruhe. Der Handelstag. 

Sonntag, 2.5.2021: Anteil erneuerbare Energieträger an der Gesamtstromerzeugung 56,34 Prozent, davon Windstrom 28,33 Prozent, Solarstrom 12,83 Prozent, Strom Biomasse/Wasserkraft 15,19 Prozent. Die Agora-Chartmatrix: Hier klicken.

Der Sonntag mit dem Preiseinbruch. Denn aus heiterem Himmel zieht die Windstromerzeugung an. Die Konventionellen wollen/können so schnell nicht weiter herunterfahren. Die Stabilität des Netzes darf nicht gefährdet werden. Der Handelstag. Dänemark macht Stromgroßeinkauf. Und verkauft später wieder zu hohen Preisen. Gratulation. 

Noch Fragen? Ergänzungen? Fehler entdeckt? Bitte Leserpost schreiben! Oder direkt an mich persönlich: stromwoher@mediagnose.de. Alle Berechnungen und Schätzungen durch Rüdiger Stobbe& Peter Hager nach bestem Wissen und Gewissen, aber ohne Gewähr. 

Die bisherigen Artikel der Kolumne Woher kommt der Strom? mit jeweils einer kurzen Inhaltserläuterung finden Sie hier.

Rüdiger Stobbe betreibt seit über fünf Jahren den Politikblog www.mediagnose.de.




Gab es vielleicht „nur“ zehntausend „echte“ Corona-Tote im vorigen Jahr ?

In dem folgenden Tortendiagramm versteckt sich die Prozentzahl 1,1 % links oben unter der Bezeichnung „an Corona“ ( zu ergänzen: „gestorben“ ).

Die Bezeichnung „an“ Corona unterscheidet sich von dem offiziösen Sprachgebrauch „an und mit“ Corona (gestorben ), wie wir ihn aus den täglichen Nachrichten und vom RKI gewohnt sind. Eine andere dieser offiziösen Bezeichnungen lautet reichlich gekünstelt „im Zusammenhang mit“ Corona ( gestorben ). Die offiziösen Bezeichnungen erlauben eine Aufblähung der Corona-Sterbezahlen insofern, als jeder Verstorbene mit einer positiven Testung als Corona-Toter erfasst wird, unabhängig davon, wie  bedeutend  der Covit-Anteil  am Tod ist.

Der typische Corona-Tote ist weiterhin  über 70 Jahre alt und durch eine, häufig  mehrere schwere Vorerkrankungen wie Bluthochdruck, Diabetes, Krebs, Adipositas oder Herzerkrankungen gekennzeichnet. „Aus vielen … Untersuchungen wissen wir, dass SARS-COV-2 fast ausschließlich der Tropfen ist, der ein bis zum Rand gefülltes Glas zum Überlaufen bringt“ ( Reiss, Bhakdi 2020, 36 ). Dieses anschauliche Bild macht deutlich, dass das Virus zwar in einem strengen kausaltheoretischen Sinn ursächlich ist für den Tod, aber nicht die eigentliche Ursache darstellt. Die eigentliche Ursache ist das bereits randvolle Glas. In diesem Fall ist der Tote nicht „an“ Corona gestorben. Reiss, Bhakdi zitieren den Gesundheitsberater der italienischen Regierung Prof. Ricciardi, der davon ausgeht, dass 88 % der angegebenen „Corona-Toten“ nicht eigentlich an dem Virus gestorben sind ( ebd., 40 ). Oder anders herum: nur 12 % sind eigentlich am Virus gestorben.

Die Wissenschaftler der „Corona Initiative Deutscher Mittelstand“ nennen nun für 2020 als neue Zahl für die „an“ Corona Verstorbenen 1, 1 %  aller in diesem Jahr Verstorbenen und berufen sich auf „Obduktionsergebnisse“ ( vgl. unter dem  Schaubild die Quellenangabe unten rechts ). Das kann man glauben oder nicht. Ich habe Vertrauen in die Kompetenz und Seriosität der Initiative, die enge Beziehungen zur Mittelstands- und Wirtschaftsunion der CDU / CSU und ihrem Vorsitzenden Carsten Linnemann hat. Trotz dieser politischen Nähe zur Union hat sie sich eine sehr kritische Distanz zur Merkel-Politik bewahrt und betreibt Wissenschaft im besten Sinn als Suche nach Wahrheit. Im Grunde sind die Erkenntnisse der Initiative, wie ich u. a. in meinem letzten Artikel herausgestellt habe ( Nahamowitz 2021 ), hervorragend geeignet, die gesamte staatliche Corona-Schutzpolitik als unverhältnismäßig zu demontieren.

In Deutschland sind im vorigen Jahr insgesamt 982.489 Menschen gestorben. 1,1 % von ihnen sind 10. 807 Tote, womit dann auch die Zahl der „echten“, d.h. „an“ Corona Verstorbenen genannt ist. Diese Zahl beträgt nur etwas mehr als  ein Viertel der offiziell vom RKI gezählten 39.201 Corona-Toten ( vgl die Pressemitteilung  von Destatis Nr. 044 vom 29. Januar 2021 ). Angesichts des vielfach bewiesenen Alarmismus des RKI, welches die Corona-Zahlen verwaltet. erscheint mir dieses Ergebnis sehr plausibel.

Nur gut 10.000 echte Corona-Tote im Jahr 2020, welches nahezu  ausschließlich im Zeichen des Virus  und des staatlichen Kampfes gegen ihn stand, sind ein weiterer Beleg für die manifeste Unverhältnismäßigkeit der staatlichen Krisenpolitik, vor allem der Lockdown-Politik. Im Grippejahr 2018 betrug die Zahl der Grippetoten nach Schätzung des RKI 25.000 – an denen kein Mensch Anstoß genommen hat.

Sogar wenn man die offiziell gezählten rund 40.000 Corona-Toten zugrunde legt, sind m. E. die Zweifel an der Verhältnismäßigkeit der staatlichen Corona-Abwehr im vorigen Jahr zwingend. Oder soll das Plus von gerade mal 15.000 Toten im Vergleich zu den 25.000 Grippe-Toten des Jahres 2018 den Unterschied ausmachen zwischen vollständigem politischen Desinteresse und höchstem Alarmismus.?

Auch der geringe Unterschied bei den allgemeinen Sterbefallzahlen zum Vorjahr 2019 spricht dagegen, dem Jahr 2020 eine krisenhafte Ausnahmestellung einzuräumen. Nominal betrug die Übersterblichkeit im Jahr 2020 gegenüber 2019  laut Destatis zwar 5 %. Das Statistikamt relativiert diese aber sogleich durch den Verweis auf zwei Sonderfaktoren  Einmal war 2020 ein Schaltjahr, „sodass sich durch den zusätzlichen Tag ein Anstieg  um etwa 3.000 Fälle gegenüber dem Vorjahr ergibt. Wenn man außerdem den bisherigen Trend zu einer steigenden Lebenserwartung und die absehbaren Verschiebungen in der Altersstruktur der Bevölkerung berücksichtigt, wäre ohne Sonderentwicklungen ein Anstieg um etwa 1 – 2 % für das Jahr zu erwarten gewesen“ ( Destatis, ebd. ).

Ein Anstieg von nur 1 – 2 % bei der Sterblichkeit gegenüber 2019, und 2020 soll das Jahr  einer „Jahrhundertpandemie“ ( Angela Merkel ) gewesen sein? Fassungslos kann man nur den Kopf schütteln und sich zum wiederholten Mal fragen, wie konnte es nur zu dieser staatlichen Überreaktion in Form mehrerer Lockdowns und sonstiger grundrechtseinschränkender „Maßnahmen“ kommen?

Die Beweggründe der Politik, zum Mittel der Lockdowns zu greifen, dürften vielgestaltig sein. Aus zwei Indikatoren kann man wissen, dass bereits im Vorfeld bewusst eine dahin gehende Entscheidung getroffen worden war. Die CIDM hat berichtet, dass sie kurz nach Ausbruch der Epidemie der Politik einen Vorschlag gemacht hatte, wie ohne schwerwiegende  Interventionen die Krise bewältigt werden könnte, Der Initiative wurde aber bedeutet, dass die Würfel für eine andere Lösung schon gefallen seien.

Der zweite Indikator ergibt sich aus dem Verhalten des NRW-MP und jetzigem CDU-Kanzlerkandidaten Armin Laschet im Vorfeld der Lockdownverlängerung am 15. April 2020. Der Bonner Virologe Hendrik Streeck hatte mit Kollegen die inzwischen berühmte Heinsberg-Studie mit etwa 1000 Probanden als repräsentative Studie nach den methodischen Grundsätzen der WHO in der Gemeinde Gangelt durchgeführt, in der es im Anschluss an eine Karnevalssitzung zu einem Massenausbruch von Corona gekommen war. Streeck zog mit seinem Team von Haus zu Haus, um die maßgeblichen Daten zu erheben. Unter ihnen war die Letalitätsrate  von 0,37 %, die bedeutet, dass  auf  zehntausend Infizierte 37 Tote kommen – keine Zahl, welche dem Corona-Alarmismus dienlich war. Die Rate konnte objektiv bestimmt werden, weil alle Infizierten erfasst waren, es also keine Dunkelziffer gab. Da die Studie eine für die deutsche  Bevölkerung repräsentative Grundgesamtheit der Einwohner Gangelts erfasste, war das Ergebnis einer Letalitätsrate von 0, 37 %  auch verallgemeinerungsfähig auf ganz Deutschland.

Das Ergebnis brachte Streeck viel Kritik und Häme bis hin zu Morddrohungen ein, von den kritischen Beobachtern der offiziellen Corona-Politik dagegen viel Lob. Sein Kollege Christian Drosten, dessen Nachfolger Streeck in Bonn  ist, blieb hingegen cool. In einem Interview nannte er die Ergebnisse von Streeck „nichtssagend“. Diese nicht nachvollziehbare Beurteilung zeigt die dogmatische Grundhaltung eines der Wortführer der orthodoxen Virologenfraktion, der lange Zeit Hauptberater der Kanzlerin in Coronasachen war.

Bei der Pressekonferenz, auf der Streeck seine Ergebnisse verkündete, war Armin Laschelt anwesend und hielt auch eine Rede. In der Folgezeit war er Vertreter einer moderaten Corona-Linie, ohne in seinen zahlreichen TV-Auftritten sich aber jemals auf die 0,37 % zu berufen. Offensichtlich konnte mit dieser niedrigen Sterberate kein alarmistischer Staat gemacht werden.

Zusammenfassend kann man sagen, dass der Entschluss der politischen Entscheider zu einer harten Lockdown-Politik nicht aus einer Panikreaktion herrührte, sondern wohl kalkuliert war. Die beteiligten Politiker wussten ( oder ahnten es intuitiv), dass ganz im Sinne einer klassischen staatsrechtlichen bzw. politikwissenschaftlichen Erkenntnis der Notstand die Stunde der Exekutive ist, welche zahlreiche Regulierungs- und Profilierungschancen für die politischen Entscheider bereit hält. Auf der tiefenpsychologischen Ebene aktiviert sich bei den Akteuren in einer solchen Ausnahmesituation eine psychische Konstellation, welche Hans-Joachim Maaz das   narzistische „Größenselbst“ nennt, ein unbewusstes neurotisches Syndrom, welches  eine Selbstüberschätzung der Persönlichkeit bewirkt ( Maaz 2016 ).

Die geschilderte Notstands- und Ausnahmesituation war attraktiv für die politischen Entscheider europa- und sogar weltweit.Nur wenige Länder vermochten sich dem Konformitätsdruck zu entziehen, in Europa ist Schweden, welches ohne Lockdown ausgekommen ist, zu nennen. Seit dem Jahreswechsel erntet Schweden die Früchte seiner Standhaftigkeit: Laut Worldometer bewegen sich seit Wochen seine Todeszahlen im „seven days moving average“ im einstelligen Bereich, Zum Vergleich: Das bezogen auf die Bevölkerung 8 mal größere Deutschland verzeichnet eine 70 mal höhere Todeszahl und bewegt sich mit ihr im dreistelligen Bereich ( etwa am 6. Mai: in Deutschland 210, in Schweden 3 Todesfälle ).

In Deutschland wurde auf der wissenschaftlichen Ebene die alarmistische Corona-Politik durch die orthodoxe Fraktion der Virologen gestützt, zu der u.a. die Prof. Drosten, Lauterbach, Stürmer, Meyer-Hermann und Wieler, der zugleich Präsident des RKI ist, gehören. Diese Gruppe fordert nahezu reflexhaft bei steigenden Fallzahlen einen „ganz harten“ Lockdown, bis der Inzidenzwert zumindest unter 35, am besten unter 20, etwa bis 12 fällt.

Diese orthodoxe Virologenfraktion, die ihren organisatorischen Bezugspunkt nicht zuletzt in der Nationalen Akademie der Wissenschaften Leopoldina hat, fällt durch eine bemerkenswerte Fehleinschätzung  epidemiologischer Prozesse auf. Diese zeigte sich im Grunde bereits  bei der Einschätzung der Streekschen Forschungsergebnisse durch Drosten als „nichtssagend“. Ein weiteres Beispiel lieferte Wieler auf einer Pressekonferenz Ende April als er die beiden ersten Tage deutlich sinkender Fallzahlen mit der Bemerkung kommentierte, da habe die Bevölkerung sich auf einmal stärker an die Corona-Regeln gehalten. Dass das Sinken der Fallzahlen mit dem Eintritt in den Monat Mai zu tun haben könnte, kam ihm offensichtlich nicht in den Sinn.

Auch Karl Lauterbach ist die traditionelle Saisonalität der Corona-Viren nicht bekannt. Bei Maybrit Illner am 6. Mai zählte er fünf Gründe für das Zurückgehen der Fallzahlen auf, die Saisonalität der Corona-Viren war nicht darunter. Derart unkundige Wissenschaftler gehören zum engsten Beraterkreis der Bundesregierung.! Ganz anders Hendrik Streeck einen Tag zuvor bei Maischberger. Er kam sofort auf die Saisonalität der Corona-Viren zu sprechen. Streeck gehört zwar zum Beraterkreis Armin Laschets, aber nicht der Bundesregierung.

Drosten und das RKI hatten schon bei der Schweinegrippe 2009. welche sich im Ergebnis als vollkommen harmlos herausstellte, gegen die vehemente Opposition von Prof. Bhakdi und Dr. Wodarg die großen Warner gegeben. Das Ende der Geschichte war, dass die millionenfach eingekauften Impfdosen im Magdeburger Müllheizkraftwerk entsorgt werden mussten ( näher dazu Reiss, Bhakdi 2020, 120 ff ).

Als Corona kam, wählte die Kanzlerin nicht etwa Bhakdi und / oder Wodarg als Berater aus, sondern den falschen Warner Drosten. In der Folge werden Bhakdi und Wodarg massiv öffentlich diskreditiert und z. B. vom öffentlich-rechtlichen TV in einer offensichtlich konzertierten Aktion nie eingeladen. Augenscheinlich wurden im Kanzleramt  schon früh und entschlossen die Weichen auf Lockdown gestellt.

 

Quellen:

Maaz, Hans-Joachim 2016 : Die narzistische Gesellschaft, München ( 5. Aufl. ).

Nahamowitz Peter 2021 : Ist  die Pandemie nur eine „Laborpandemie ?“, EIKE-Publikation vom 25. April.

Reiss, Karina, Bhakdi, Sucharit 2020: Corona Fehlalarm?, Berlin.

 

Zum Autor :

Peter Nahamowitz war Prof. für öffentliches Wirtschafts- und Finanzrecht sowie Politikwissenschaft am Fachbereich Rechtswissenschaften der Leibniz Universität Hannover. Er ist seit 2007 im Ruhestand.